Mensajes como “las vacunas matan a más personas que la covid“ o “las vacunas contienen tejido de bebé”, son algunas de las afirmaciones falsas que compartieron los usuarios de Facebook, a partir de marzo de 2020. En un intento por combatir la desinformación sobre las vacunas, Facebook eliminó de sus muros estas afirmaciones, pero no logró evitar el interés que provocaba este tipo de contenido en su red social. Los usuarios antivacunas aprovecharon la arquitectura de Facebook para transitar nuevos caminos hacia la desinformación sobre vacunas: sus contenidos se volvieron “más desinformativos, más políticamente polarizados y con más probabilidades de aparecer en los canales de noticias de los usuarios”, según revela el estudio publicado este viernes por la revista Science Advances.
Los investigadores del estudio utilizaron la herramienta CrowdTangle, propiedad de Meta, empresa matriz de Facebook, para descargar datos públicos de la compañía. Analizaron 200.000 publicaciones de páginas y grupos de Facebook, creados antes de que la plataforma eliminara en noviembre de 2020 “Stop Mandatory Vaccination” (detener la vacunación obligatoria, en inglés), una de las páginas antivacunas más grandes de la red social. El 3 de diciembre de 2020, el grupo de Mark Zuckeberg anunció que eliminarían de la plataforma las afirmaciones falsas sobre la vacunación contra la covid y las cuentas que publicaran esas afirmaciones. Meta, matriz de Facebook, eliminó más de 27 millones de contenidos, según Bloomberg. Ahora, la compañía ya no quiere eliminar las afirmaciones falsas sobre la covid.
La mayor plataforma de redes del mundo, con 2.073 millones de usuarios activos, según Statista, se caracteriza por ser muy flexible a la hora de adaptar los contenidos a las necesidades de los usuarios. Su diseño de “jerarquía en capas”, compuesto por páginas (en la parte superior), grupos (en el medio) y los demás usuarios (en la parte inferior) ofrece caminos alternativos al contenido antivacunas y facilita su acceso, según el estudio. “Si se elimina el contenido de una página, la jerarquía en capas permite a los usuarios y grupos encontrar contenido similar (o incluso el mismo) publicado en otra página”, explica a EL PAÍS el profesor de la Universidad George Washington, David Broniatowski y autor del estudio. Dicho de otro modo, los administradores de estas páginas pueden compartir contenido con enlaces a otras páginas.
Y es allí, en las páginas y grupos de Facebook, dónde se comparte la información política que consume su audiencia, fundamentalmente conservadora. Así lo explicó la investigadora española Sandra González-Bailón, de la Universidad de Pensilvania, a EL PAÍS en agosto: “En volumen hay muchos más usuarios que páginas o grupos. Pero si quitamos páginas y grupos, hay menos segregación. Tiene algo intuitivo porque no escoges a los miembros de tu familia, pero sí escoges qué páginas y grupos sigues. Hay más autoselección. Pero es una decisión del diseño de plataforma y de cómo se gobierna. Vemos que las páginas y grupos crean más división en lugar de ayudar a construir puentes”, explica.
Además de su diseño, los likes también pueden promover el contenido antivacunas. Cuantos más me gusta o reacciones de enfadado hay en los mensajes de Facebook, mayor probabilidad tienen de aparecer en las noticias de otros usuarios, por su “interacción social significativa”, según los investigadores. Si los creadores de contenido antivacunas manipulan estas reacciones, aumentan la exposición de su contenido en la red. Consultado sobre el estudio, el profesor David García, de la Universidad de Konstanz (Alemania), señala que “reducir el valor del emoji enfadado, en casos de desinformación médica, es una buena idea porque sabemos que las expresiones de indignación moral aumentan la polarización”. A pesar de que Facebook redujo a cero el peso de las reacciones de enfado en septiembre de 2020, el estudio relata que los niveles de interacción con el contenido falso no disminuyeron en comparación a las interacciones previas a la política de eliminación.
Rafael Rubio, experto en desinformación de la Universidad Complutense de Madrid, explica que el algoritmo de Facebook favorece la desinformación porque “reduce la pluralidad de la información recibida y multiplica la exposición de información similar”. Para ello, sugiere ciertos cambios en las reglas de la plataforma: “Se puede mejorar el procedimiento de denuncias, aumentando su transparencia, y rebajando el alcance de difusión de las noticias, lo que afecta directamente al algoritmo”.
El estudio y los expertos coinciden en que la red social debe revisar su política frente a la desinformación para evitar los riesgos, y proponen alianzas entre las grandes plataformas para combatir el problema. Broniatowski sugiere a los diseñadores de redes sociales que colaboren para desarrollar un “código de construcción” que promueva la salud de todos en la red, y lo compara con la edificación de viviendas. “Los arquitectos de edificios tienen que equilibrar los objetivos de diseño de un inmueble con el cumplimiento de las normas para proteger a las personas que los utilizan”, concluye.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.