Una nueva investigación de la Universidad Estatal de Ohio muestra que los algoritmos personalizados, predominantes en las redes sociales, pueden limitar el enfoque de los usuarios, lo que conduce a una disminución del aprendizaje y a un mayor exceso de confianza en la información incorrecta.
Los algoritmos personalizados, que seleccionan contenido en línea según las elecciones previas de los usuarios en plataformas como YouTube, pueden obstaculizar el aprendizaje y crear percepciones distorsionadas de la realidad, según una nueva investigación de la Universidad Estatal de Ohio.
Publicado En la Revista de Psicología Experimental: General, el estudio reveló que cuando un algoritmo controlaba la información mostrada a los participantes que estaban aprendiendo sobre un nuevo tema, su enfoque se reducía a un subconjunto limitado de la información disponible. En consecuencia, estos participantes frecuentemente respondían preguntas de forma imprecisa, pero mostraban una alta confianza en sus respuestas incorrectas.
Los hallazgos son preocupantes, según Giwon Bahg, quien dirigió el estudio como parte de su tesis doctoral en psicología.
Muchos estudios sobre algoritmos personalizados exploran su impacto en la formación de opiniones sobre cuestiones políticas o sociales conocidas.
"Pero nuestro estudio muestra que incluso cuando no se sabe nada sobre un tema, estos algoritmos pueden comenzar a generar sesgos inmediatamente y pueden llevar a una visión distorsionada de la realidad", dijo Bahg, quien ahora es investigador postdoctoral en la Universidad Estatal de Pensilvania, en un comunicado de prensa.
Los hallazgos sugieren que muchas personas pueden usar fácilmente la información limitada proporcionada por los algoritmos personalizados para sacar conclusiones amplias y generales, según el coautor Brandon Turner, profesor de psicología en la Universidad Estatal de Ohio.
“Las personas pierden información cuando siguen un algoritmo, pero creen que lo que saben se generaliza a otras características y otras partes del entorno que nunca han experimentado”, dijo Turner en el comunicado de prensa.
Para ilustrarlo, el estudio planteó un escenario hipotético: una persona que no está familiarizada con las películas de un país específico utiliza las recomendaciones algorítmicas de un servicio de streaming. Inicialmente, selecciona una película de acción y suspenso, y posteriormente el algoritmo sugiere más películas del mismo género, lo que provoca que el espectador desarrolle una comprensión limitada y sesgada de la industria cinematográfica y la cultura de ese país.
Los investigadores probaron estos efectos utilizando una configuración experimental ficticia con 346 participantes, a quienes se les pidió que aprendieran sobre categorías de extraterrestres con forma de cristal mediante el muestreo de diferentes características.
Los participantes tenían dos condiciones: una que implicaba un muestreo aleatorio de todas las características y la otra en la que un algoritmo de personalización seleccionaba las características a priorizar.
Los resultados mostraron que los participantes que confiaron en el algoritmo tomaron muestras de menos características selectivas y tenían excesiva confianza en sus categorizaciones limitadas y a menudo incorrectas.
“Estaban incluso más seguros cuando se equivocaban en sus decisiones que cuando acertaban, lo cual es preocupante porque tenían menos conocimientos”, añadió Bahg.
Turner señaló las posibles consecuencias sociales, particularmente para los estudiantes jóvenes.
“Si un niño pequeño intenta aprender sobre el mundo e interactúa con algoritmos en línea que priorizan que los usuarios consuman más contenido, ¿qué sucederá?”, añadió Turner. “Consumir contenido similar a menudo no está alineado con el aprendizaje. Esto puede causar problemas a los usuarios y, en última instancia, a la sociedad”.

