Facebook esconde los datos más importantes sobre desinformación. Informe Atlántico

Facebook esconde los datos más importantes sobre desinformación. Informe Atlántico

Al parecer, miles de millones de personas se han encontrado con noticias falsas sobre vacunas en la plataforma social Facebook, pero esa cifra no significa nada sin un denominador, destaca The Atlantic.

Los documentos internos filtrados sugieren que Facebook, que recientemente se rebautizó como Meta , está haciendo mucho peor de lo que afirma para minimizar la información errónea sobre las vacunas Covid-19 en la plataforma de redes sociales Facebook.

La información errónea en línea sobre el coronavirus y las vacunas es una gran preocupación. En un estudio, los encuestados que recibieron algunas o todas sus noticias de Facebook fueron significativamente más propensos a rechazar las vacunas Covid-19 que aquellos que recibieron sus noticias de los medios de comunicación tradicionales.

El mero recuento de casos de desinformación encontrados en una plataforma de redes sociales deja dos preguntas clave sin respuesta: ¿Qué probabilidades hay de que los usuarios encuentren información errónea y es probable que algunos usuarios se vean particularmente afectados por la información errónea? Estas preguntas son el problema del denominador y el problema de la distribución, leemos en The Atlantic.

El estudio de desinformación Covid-19 "Algoritmo de Facebook: una amenaza importante para la salud pública", publicado por el grupo de defensa del interés público Avaaz en agosto de 2020, informó que las fuentes que compartían con frecuencia desinformación sobre la salud (82 sitios web y 42 páginas de Facebook) tenían un total estimado alcance de 3.8 mil millones de visitas en un año.

A primera vista, este es un número increíblemente grande. Pero es importante recordar que este es el numerador. Para comprender lo que significan 3.800 millones de visitas en un año, también debemos calcular el denominador. El numerador es la parte de una fracción por encima de la línea, que se divide por la parte de la fracción por debajo de la línea, el denominador.

Un posible denominador son 2.900 millones de usuarios activos mensuales de Facebook, en cuyo caso, en promedio, cada usuario de Facebook ha estado expuesto a al menos una pieza de información de estas fuentes de desinformación sobre salud. Pero el numerador es 3.800 millones de visualizaciones de contenido, no usuarios discretos. ¿Cuánta información encuentra el usuario medio de Facebook en un año? Meta no divulga esta información.

Los investigadores de mercado estiman que los usuarios de Facebook pasan de 19 a 38 minutos al día en la plataforma. Si los 1,93 mil millones de usuarios activos diarios de Facebook ven un promedio de 10 publicaciones en sus sesiones diarias, una estimación muy conservadora, el denominador de esos 3,8 mil millones de información por año es de 7,044 billones (1,93 mil millones). un año). Esto significa que aproximadamente el 0,05% del contenido de Facebook consiste en publicaciones compartidas por páginas sospechosas de Facebook.

La cifra de 3.800 millones de visitas incluye todo el contenido publicado en estas páginas, incluido el contenido de salud inofensivo, por lo que el porcentaje de publicaciones de Facebook que son desinformación sobre la salud es menos de una vigésima parte de un porcentaje.

¿Es preocupante que haya suficiente información errónea en Facebook como para que todos hayan encontrado al menos un caso? ¿O es tranquilizador que el 99,95% de lo que se comparte en Facebook no provenga de los sitios sobre los que advierte Avaaz? Ninguno.

Además de estimar un denominador, es importante considerar la distribución de esta información. ¿Todos en Facebook tienen las mismas posibilidades de encontrar desinformación sanitaria? ¿O es más probable que las personas que se identifican como antivacunas o que buscan información sobre "salud alternativa" encuentren este tipo de información errónea?

Otro estudio de redes sociales que se centra en el contenido extremista de YouTube ofrece un método para comprender la distribución de la desinformación. Utilizando datos del navegador de 915 usuarios web, un equipo de la Liga Anti-Difamación reclutó una muestra grande y demográficamente diversa de usuarios web de EE. UU. Y sobremuestreó dos grupos: usuarios habituales de YouTube y personas que mostraban un fuerte sesgo. Raza o género negativo en una serie de preguntas formuladas. por investigadores. El sobremuestreo consiste en sondear un pequeño subconjunto de una población más que su proporción de la población para registrar mejor los datos del subconjunto.

Los investigadores encontraron que el 9.2 por ciento de los participantes vio al menos un video de un canal extremista, y el 22.1 por ciento vio al menos un video de un canal alternativo durante los meses cubiertos por el estudio. Un contexto importante a tener en cuenta: un pequeño grupo de personas fue responsable de la mayoría de las vistas de estos videos. Y más del 90% de las vistas de videos extremistas o "alternativos" fueron realizadas por personas que informaron un alto nivel de resentimiento racial o de género en la encuesta antes del estudio.

Si bien aproximadamente una de cada 10 personas ha encontrado contenido extremista en YouTube y dos de cada 10 han encontrado contenido de provocadores de derecha, la mayoría de las personas que han encontrado dicho contenido lo han "rebotado" y se han ido a otra parte. El grupo que encontró contenido extremista y más buscó fueron personas que supuestamente tenían un interés: personas con fuertes actitudes racistas y sexistas.

Los autores concluyeron que "el consumo de este contenido potencialmente dañino se concentra en cambio entre los estadounidenses que ya son ricos en resentimiento racial", y que los algoritmos de YouTube pueden reforzar este modelo. En otras palabras, conocer solo la fracción de usuarios que encuentran contenido extremo no le dice cuántas personas lo consumen. Para ello, también es necesario conocer la distribución.

Un estudio ampliamente publicitado por el grupo de defensa del odio, Center for Counter Digital Hate, titulado "Especuladores de la pandemia", mostró que de los 30 grupos de Facebook antivacunas encuestados, 12 celebridades antivacunas eran responsables del 70% del contenido circulado. Estos grupos, los tres más importantes, fueron responsables de casi la mitad. Pero, de nuevo, es fundamental preguntar sobre los denominadores: ¿cuántos grupos antivacunas están alojados en Facebook? ¿Y qué porcentaje de usuarios de Facebook cumplen con el tipo de información compartida en estos grupos?

Sin información sobre denominadores y distribución, el estudio revela algo interesante sobre estos 30 grupos de Facebook antivacunas, pero nada sobre la desinformación médica en Facebook en su conjunto.

Este tipo de estudio plantea la pregunta: “Si los investigadores pueden encontrar este contenido, ¿por qué las plataformas de redes sociales no pueden identificarlo y eliminarlo? El estudio Pandemic Profiteers, que implica que Facebook podría resolver el 70% del problema de desinformación médica eliminando solo una docena de cuentas, apoya explícitamente la implementación de estos comerciantes de desinformación. Sin embargo, descubrí que, a finales de agosto, Facebook ya había eliminado de la plataforma a 10 de los 12 influencers de vacunas que aparecen en el estudio.

Considere a Del Bigtree, uno de los cuatro mayores difusores de desinformación sobre vacunas en Facebook. El problema no es que Bigtree esté reclutando nuevos seguidores anti-vacunas en Facebook; es que los usuarios de Facebook siguen a Bigtree en otros sitios web y llevan su contenido a sus comunidades de Facebook. No se trata de 12 personas y grupos que publican desinformación sobre salud en línea; probablemente sean miles de usuarios individuales de Facebook que comparten información errónea, con esta docena de personas, que se encuentran en otras partes de la web. Es mucho más difícil prohibir a miles de usuarios de Facebook que prohibir a 12 celebridades antivacunas.

Es por eso que los problemas de denominador y distribución son esenciales para comprender la desinformación en línea. El denominador y la distribución permiten a los investigadores preguntar qué tan comunes o raros son los comportamientos en línea y quién participa en estos comportamientos. Si millones de usuarios se encuentran cada uno con fragmentos ocasionales de información médica errónea, las etiquetas de advertencia podrían ser una intervención eficaz. Pero si la información médica errónea la consume principalmente un grupo más pequeño que busca y comparte activamente este contenido, lo más probable es que esas etiquetas de advertencia sean inútiles.

Tratar de comprender la información errónea contándola, independientemente de los denominadores o la distribución, es lo que sucede cuando las buenas intenciones chocan con herramientas de mala calidad. Ninguna plataforma de redes sociales permite a los investigadores calcular con precisión qué tan prominente es un contenido en particular en su plataforma.

Facebook restringe a la mayoría de los buscadores a su herramienta Crowdtangle, que comparte información sobre la participación de contenido, pero eso no es lo mismo que las vistas de contenido. Twitter prohíbe explícitamente a los investigadores calcular un denominador: el número de usuarios de Twitter o el número de tweets compartidos en un día. YouTube hace que sea tan difícil averiguar cuántos videos están alojados en su servicio que Google pide rutinariamente a los candidatos a entrevistas que calculen la cantidad de videos alojados en YouTube para medir sus habilidades cuantitativas.

Los líderes de las plataformas de redes sociales han argumentado que sus herramientas, a pesar de sus problemas, son buenas para la sociedad, pero este argumento sería más convincente si los investigadores pudieran verificar de forma independiente esta afirmación.

A medida que los impactos sociales de las redes sociales se vuelven más prominentes, aumentará la presión sobre las plataformas de Big Tech para revelar más datos sobre sus usuarios y contenido. Si estas empresas responden aumentando la cantidad de información a la que pueden acceder los investigadores, fíjense muy de cerca: ¿Permitirán a los investigadores estudiar el denominador y la distribución del contenido en línea? Y si no es así, ¿tienen miedo de lo que encontrarán los investigadores?

(Extracto de la revista de prensa extranjera de Epr Comunicazione)


Esta es una traducción automática de una publicación publicada en StartMag en la URL https://www.startmag.it/innovazione/facebook-nasconde-i-dati-piu-importanti-sulla-disinformazione-report-atlantic/ el Sat, 06 Nov 2021 06:40:15 +0000.