Un nuevo estudio de Penn State revela que más del 75% de las publicaciones en Facebook se comparten sin que los usuarios hagan clic en los enlaces, lo que resalta un problema importante en la forma en que prolifera la desinformación en las redes sociales.
Si has leído hasta aquí, eres una minoría. Según un nuevo estudio dirigido por investigadores de Penn State, la gran mayoría de los usuarios de las redes sociales comparten enlaces sin leer primero los artículos. Esta alarmante tendencia se descubrió a través del análisis de más de 35 millones de publicaciones públicas en Facebook entre 2017 y 2020, que reveló que alrededor del 75% de los enlaces se compartieron sin hacer clic.
“Fue una gran sorpresa descubrir que más del 75% de las veces, los enlaces compartidos en Facebook se compartieron sin que el usuario hiciera clic primero”, dijo en un comunicado el autor correspondiente S. Shyam Sundar, profesor de la Universidad Evan Pugh y profesor James P. Jimirro de Efectos de los Medios en Penn State. comunicado de prensa“Había asumido que si alguien compartía algo, lo leía y pensaba al respecto, estaba apoyando o incluso defendiendo el contenido. Se podría esperar que tal vez algunas personas compartieran contenido de vez en cuando sin pensarlo bien, pero ¿que la mayoría de las veces se compartiera así? Fue un hallazgo sorprendente y muy aterrador”.
El estudio, publicado En Nature Human Behavior, se observa un patrón preocupante: se comparte más contenido con carga política, tanto de fuentes liberales como conservadoras, sin hacer clic, en comparación con el contenido neutral. Este tipo de interacción superficial contribuye significativamente a la propagación de información errónea.
Un descubrimiento sorprendente y al mismo tiempo revelador
Los investigadores determinaron el contenido político mediante el aprendizaje automático para clasificar los términos políticos y asignaron puntuaciones en función de la frecuencia con la que se compartía el contenido a lo largo de un espectro político. Utilizaron sistemas de calificación independientes para validar estas puntuaciones y clasificaron manualmente miles de enlaces para entrenar su algoritmo.
“Creamos esta nueva variable de afinidad política del contenido basándonos en 35 millones de publicaciones en Facebook durante la temporada electoral a lo largo de cuatro años. Este es un período significativo para comprender los patrones a nivel macro que subyacen a la forma en que se comparten noticias en las redes sociales”, afirmó en el comunicado de prensa el coautor Eugene Cho Snyder, profesor adjunto del Instituto de Tecnología de Nueva Jersey.
La investigación utilizó datos proporcionados por Meta, la empresa matriz de Facebook, a través de Social Science One y el Instituto de Ciencias Sociales Cuantitativas de la Universidad de Harvard. Incluyó métricas demográficas y de comportamiento como el "puntaje de afinidad de página política", que categorizaba a los usuarios en función de las páginas que seguían.
Implicaciones más profundas
Las implicaciones son alarmantes. Sundar señaló que los usuarios podrían compartir contenido sin darse cuenta de que es falso, asumiendo que es creíble porque les resulta familiar o coincide con sus creencias.
El servicio de verificación de datos de terceros de Meta marcó casi 3,000 de las URL compartidas en el estudio como falsas, las cuales fueron compartidas más de 41 millones de veces sin clics (el 82 % por usuarios conservadores y el 14.25 % por usuarios liberales).
“Surgió un patrón que se confirmó a nivel de enlaces individuales”, agregó Snyder. “Cuanto más cercana es la alineación política del contenido con el usuario (tanto liberal como conservador), más se comparte sin clics. … Simplemente están reenviando cosas que parecen estar en la superficie de acuerdo con su ideología política, sin darse cuenta de que a veces pueden estar compartiendo información falsa”.
Un llamado al cambio
Para contrarrestar este fenómeno, Sundar sugiere que las plataformas de redes sociales podrían introducir fricciones para ralentizar el proceso de compartir, como indicaciones para leer antes de compartir.
“El procesamiento superficial de titulares y notas puede ser peligroso si se comparten datos falsos y no se investigan”, añadió Sundar.
Subrayó que esto no detendrá las campañas de desinformación intencionales, pero podría alentar a los usuarios a ser más perspicaces.
El impulso a una mayor alfabetización y responsabilidad mediática es la base de este descubrimiento. Dado que la desinformación ha desempeñado un papel destacado en las elecciones de 2016 y 2020, es fundamental que los usuarios examinen el contenido antes de compartirlo.
“Esto puede deberse a que la gente está bombardeada de información y no se detiene a pensar en ella”, añadió Sundar. “En un entorno así, la desinformación tiene más posibilidades de volverse viral. Esperamos que la gente aprenda de nuestro estudio y se vuelva más alfabetizada en medios, más experta en lo digital y, en definitiva, más consciente de lo que comparte”.
Los hallazgos no sólo arrojan luz sobre cómo los usuarios interactúan con el contenido en la era de la información, sino que subrayan la necesidad de prácticas de intercambio más responsables para frenar la propagación de información errónea.