Facebook bloquea el acceso a los datos sobre la cantidad de desinformación que difunde y a quién afecta

El simple recuento de los casos de desinformación encontrados en una plataforma de medios sociales deja sin respuesta dos cuestiones fundamentales.

Documentos internos filtrados sugieren que Facebook -que recientemente se ha rebautizado como Meta- está haciendo mucho más de lo que dice para minimizar la desinformación sobre la vacuna Covid-19 en la plataforma de medios sociales de Facebook.

La desinformación en línea sobre el virus y las vacunas es una preocupación importante. En un estudio, los encuestados que obtenían algunas o todas las noticias de Facebook eran significativamente más propensos a resistirse a la vacuna Covid-19 que los que obtenían las noticias de los medios de comunicación convencionales.

Como investigador que estudia los medios sociales y cívicos, creo que es de vital importancia entender cómo se propaga la desinformación en línea. Pero es más fácil decirlo que hacerlo. El simple recuento de los casos de desinformación encontrados en una plataforma de medios sociales deja dos preguntas clave sin respuesta: ¿Qué probabilidad tienen los usuarios de encontrarse con información errónea y qué probabilidad tienen determinados usuarios de verse afectados por la desinformación? Estas preguntas son el problema del denominador y el problema de la distribución.

El estudio sobre desinformación de Covid-19, «El algoritmo de Facebook: una gran amenaza para la salud pública», publicado por el grupo de defensa del interés público Avaaz en agosto de 2020, informó de que las fuentes que compartían con frecuencia información errónea sobre la salud -82 sitios web y 42 páginas de Facebook- tenían un alcance total estimado de 3.800 millones de visitas en un año.

A primera vista, es una cifra asombrosamente grande. Pero es importante recordar que se trata del numerador. Para entender lo que significan 3.800 millones de visualizaciones en un año, también hay que calcular el denominador. El numerador es la parte de una fracción por encima de la línea, que se divide por la parte de la fracción por debajo de la línea, el denominador.

Un poco de perspectiva


Un posible denominador es el de 2.900 millones de usuarios activos mensuales de Facebook, en cuyo caso, de media, cada usuario de Facebook ha estado expuesto al menos a una información de estas fuentes de desinformación sobre la salud. Pero se trata de 3.800 millones de visualizaciones de contenidos, no de usuarios discretos. ¿Cuántas piezas de información encuentra el usuario medio de Facebook en un año? Facebook no revela esa información.

Los investigadores de mercado estiman que los usuarios de Facebook pasan entre 19 y 38 minutos al día en la plataforma. Si los 1.930 millones de usuarios activos diarios de Facebook ven una media de 10 publicaciones en sus sesiones diarias -una estimación muy conservadora-, el denominador de esos 3.800 millones de piezas de información al año es 7,044 billones (1.930 millones de usuarios diarios por 10 publicaciones diarias por 365 días al año). Esto significa que aproximadamente el 0,05% del contenido de Facebook son publicaciones de estas páginas sospechosas de Facebook.

La cifra de 3.800 millones de visitas abarca todo el contenido publicado en estas páginas, incluido el contenido sanitario inocuo, por lo que la proporción de publicaciones de Facebook que son información errónea sobre la salud es inferior a una vigésima parte del porcentaje.

¿Es preocupante que haya suficiente información errónea en Facebook como para que todo el mundo se haya encontrado al menos con un caso? ¿O es tranquilizador que el 99,95% de lo que se comparte en Facebook no proceda de los sitios sobre los que advierte Avaaz? Ni lo uno ni lo otro.

Distribución de la información errónea


Además de estimar un denominador, también es importante considerar la distribución de esta información. ¿Todo el mundo en Facebook tiene la misma probabilidad de encontrar información errónea sobre la salud? ¿O es más probable que las personas que se identifican como antivacunas o que buscan información sobre «salud alternativa» se encuentren con este tipo de desinformación?

Otro estudio sobre las redes sociales centrado en los contenidos extremistas de YouTube ofrece un método para comprender la distribución de la desinformación. A partir de los datos de navegación de 915 usuarios de la web, un equipo de la Liga Antidifamación reclutó una muestra amplia y demográficamente diversa de usuarios de la web en Estados Unidos y realizó un sobremuestreo de dos grupos: los grandes usuarios de YouTube y los individuos que mostraron fuertes prejuicios raciales o de género en una serie de preguntas formuladas por los investigadores. El sobremuestreo consiste en encuestar a un pequeño subconjunto de una población más que su proporción en la población para registrar mejor los datos sobre el subconjunto.

Los investigadores descubrieron que el 9,2% de los participantes vio al menos un vídeo de un canal extremista, y el 22,1% vio al menos un vídeo de un canal alternativo, durante los meses que abarcó el estudio. Un dato importante a tener en cuenta: un pequeño grupo de personas fue el responsable de la mayoría de las visualizaciones de estos vídeos. Y más del 90% de las visualizaciones de vídeos extremistas o «alternativos» fueron realizadas por personas que declararon un alto nivel de resentimiento racial o de género en la encuesta previa al estudio.

Aunque aproximadamente 1 de cada 10 personas encontró contenidos extremistas en YouTube y 2 de cada 10 encontraron contenidos de provocadores de derechas, la mayoría de las personas que se encontraron con estos contenidos «rebotaron» y se fueron a otra parte. El grupo que encontró contenidos extremistas y buscó más de ellos fueron personas que presumiblemente tenían interés: personas con fuertes actitudes racistas y sexistas.

Los autores concluyeron que «el consumo de este contenido potencialmente dañino se concentra en cambio entre los estadounidenses que ya tienen un alto grado de resentimiento racial», y que los algoritmos de YouTube pueden reforzar este patrón. En otras palabras, el mero hecho de conocer la fracción de usuarios que se encuentran con contenidos extremos no indica cuántas personas los consumen. Para ello, es necesario conocer también la distribución.

¿Superdifusores o chiflados?


Un estudio ampliamente difundido del grupo de defensa del discurso contra el odio digital Center for Countering Digital Hate, titulado Pandemic Profiteers, mostró que de los 30 grupos antivacunas de Facebook examinados, 12 celebridades antivacunas eran responsables del 70% del contenido que circulaba en estos grupos, y las tres más destacadas eran responsables de casi la mitad. Pero, de nuevo, es fundamental preguntarse por los denominadores: ¿Cuántos grupos antivacunas hay en Facebook? ¿Y qué porcentaje de usuarios de Facebook encuentra el tipo de información que se comparte en estos grupos?

Sin información sobre los denominadores y la distribución, el estudio revela algo interesante sobre estos 30 grupos antivacunas de Facebook, pero nada sobre la desinformación médica en Facebook en su conjunto.

Este tipo de estudios plantea la pregunta: «Si los investigadores pueden encontrar este contenido, ¿por qué las plataformas de medios sociales no pueden identificarlo y eliminarlo?» El estudio Pandemic Profiteers, que implica que Facebook podría resolver el 70% del problema de la desinformación médica eliminando sólo una docena de cuentas, aboga explícitamente por la deploración de estos distribuidores de desinformación. Sin embargo, he descubierto que 10 de los 12 influenciadores antivacunas que aparecen en el estudio ya han sido eliminados por Facebook.

Consideremos a Del Bigtree, uno de los tres más prominentes difusores de desinformación sobre la vacunación en Facebook. El problema no es que Bigtree esté reclutando nuevos seguidores antivacunas en Facebook; es que los usuarios de Facebook siguen a Bigtree en otros sitios web y llevan su contenido a sus comunidades de Facebook. No se trata de 12 individuos y grupos que publican información errónea sobre la salud en Internet, sino de miles de usuarios individuales de Facebook que comparten información errónea encontrada en otros lugares de la web, en la que aparecen estas docenas de personas. Es mucho más difícil prohibir a miles de usuarios de Facebook que a 12 celebridades antivacunas.

Por eso las cuestiones de denominador y distribución son fundamentales para entender la desinformación en línea. El denominador y la distribución permiten a los investigadores preguntarse cuán comunes o raros son los comportamientos en línea, y quiénes participan en esos comportamientos. Si millones de usuarios encuentran ocasionalmente información médica errónea, las etiquetas de advertencia podrían ser una intervención eficaz. Pero si la desinformación médica es consumida principalmente por un grupo más pequeño que busca y comparte activamente este contenido, lo más probable es que esas etiquetas de advertencia sean inútiles.

Obtener los datos correctos


Tratar de entender la desinformación contándola, sin tener en cuenta los denominadores o la distribución, es lo que ocurre cuando las buenas intenciones chocan con herramientas deficientes. Ninguna plataforma de redes sociales permite a los investigadores calcular con precisión la importancia de un contenido concreto en su plataforma.

Facebook restringe a la mayoría de los investigadores su herramienta Crowdtangle, que comparte información sobre la participación en el contenido, pero esto no es lo mismo que las visualizaciones del contenido. Twitter prohíbe explícitamente a los investigadores calcular un denominador, ya sea el número de usuarios de Twitter o el número de tuits compartidos en un día. YouTube hace que sea tan difícil averiguar cuántos vídeos se alojan en su servicio que Google suele pedir a los candidatos a entrevistas que calculen el número de vídeos alojados en YouTube para evaluar sus habilidades cuantitativas.

Los líderes de las plataformas de medios sociales han argumentado que sus herramientas, a pesar de sus problemas, son buenas para la sociedad, pero este argumento sería más convincente si los investigadores pudieran verificar de forma independiente esa afirmación.

A medida que el impacto social de las redes sociales se hace más prominente, es probable que aumente la presión sobre las grandes plataformas tecnológicas para que divulguen más datos sobre sus usuarios y sus contenidos. Si esas empresas responden aumentando la cantidad de información a la que pueden acceder los investigadores, hay que mirar con lupa: ¿Dejarán que los investigadores estudien el denominador y la distribución de los contenidos en línea? Y si no es así, ¿tienen miedo de lo que puedan encontrar los investigadores?

Fuente

Deja un comentario

12 + siete =