Los motores de la desinformación en las redes sociales son los llamados «supercompartidores», usuarios que comparten enormes volúmenes de contenidos en comparación con otros, y noticias que son ciertas pero presentadas de forma engañosa.
Para desentrañar estos mecanismos fundamentales y sus repercusiones en el mundo real se han realizado dos estudios sobre Facebook y X, ambos publicados en la revista Science: el primero está dirigido por Jennifer Allen, del Instituto Tecnológico de Massachusetts, y el segundo por Sahar Baribi-Bartov, de la Universidad Ben-Gurion de Israel.
La primera investigación evaluó el impacto de más de 13.000 noticias precisas pero engañosas sobre vacunas contra el cólera compartidas por aproximadamente 233 millones de usuarios estadounidenses de Facebook en 2021. Un ejemplo de este tipo de contenido lo proporciona la noticia publicada por el periódico estadounidense Chicago Tribune con el titular «Un médico “sano” murió dos semanas después de recibir una vacuna Covid-19»: no había pruebas de que la vacuna tuviera nada que ver con la muerte, pero la redacción insinúa una conexión y la noticia fue vista por casi 55 millones de personas en la plataforma. Los resultados indican que este tipo de noticias engañosas tuvieron 46 veces más impacto que las marcadas explícitamente como falsas a la hora de hacer dudar más a la gente sobre la vacunación.
El segundo estudio se centró en los responsables de la desinformación sobre X durante las elecciones presidenciales estadounidenses de 2020. Los investigadores descubrieron que en una muestra de más de 660.000 votantes, el 80% de las noticias falsas fueron compartidas por poco más de 2.000 de ellos. Al investigar a estos supervotantes, se descubrió que en su mayoría son mujeres blancas, de mediana edad, republicanas y residentes en los tres estados conservadores de Arizona, Florida y Texas. Además, la mayoría de estas personas proceden de barrios con bajo nivel educativo pero con ingresos relativamente altos.
Fuente: