Las herramientas de escritura con inteligencia artificial plantean riesgos para la singularidad cultural, según un nuevo estudio

Un estudio de la Universidad de Cornell descubre la tendencia de los asistentes de escritura con inteligencia artificial a homogeneizar el lenguaje, lo que plantea riesgos a la singularidad cultural y afecta particularmente a los escritores del Sur Global.

La inteligencia artificial, a menudo elogiada por su potencial para revolucionar diversas industrias, podría tener consecuencias imprevistas para la diversidad lingüística. Un nuevo estudio de la Universidad de Cornell ha revelado que los asistentes de escritura basados ​​en IA tienden a generar un lenguaje genérico, lo que hace que los usuarios globales, especialmente aquellos del Sur Global, suenen más como estadounidenses.

El estudio destacó un impacto significativo en la expresión cultural, revelando que si bien estos asistentes ayudan a los usuarios a escribir más rápido, también homogeneizan los estilos de escritura.

“Este es uno de los primeros estudios, si no el primero, que demuestra que el uso de la IA en la escritura podría generar estereotipos culturales y homogeneización lingüística”, declaró en un comunicado de prensa el autor principal, Aditya Vashistha, profesor adjunto de Ciencias de la Información en la Facultad de Computación y Ciencias de la Información Ann S. Bowers de Cornell y director de la Iniciativa Global de IA de Cornell. “Las personas empiezan a escribir de forma similar, y eso no es lo que queremos. Una de las cosas más hermosas del mundo es la diversidad que tenemos”.

Un espacio para hacer una pausa, reflexionar y reconectarse en privado. Segun una investigacion Fue presentado en la conferencia de la Asociación de Maquinaria Computacional sobre Factores Humanos en Sistemas Computacionales el 28 de abril en Yokohama, Japón, por el primer autor Dhruv Agarwal, un estudiante de doctorado en ciencias de la información.

El estudio subraya un problema crítico a medida que herramientas de IA como ChatGPT, desarrolladas principalmente por empresas tecnológicas estadounidenses, ganan uso global, incluso en regiones donde vive el 85% de la población mundial.

El equipo de investigación reclutó a 118 participantes, distribuidos equitativamente entre Estados Unidos e India, para escribir sobre temas culturales. La mitad de los participantes utilizó asistentes de escritura con inteligencia artificial que ofrecían sugerencias de autocompletado, mientras que la otra mitad completó la tarea de forma independiente.

Los resultados mostraron que los participantes indios eran más propensos a aceptar las sugerencias de la IA, con una tasa de aceptación del 25%, en comparación con el 19% de los usuarios estadounidenses. Sin embargo, los usuarios indios modificaban con frecuencia estas sugerencias para adaptarlas mejor a su contexto, lo que reducía el aumento general de la productividad.

Por ejemplo, al escribir sobre sus comidas o festividades favoritas, los asistentes de IA sugerían opciones típicamente estadounidenses, como pizza y Navidad, incluso para usuarios indios. Cuando los indios intentaban escribir sobre figuras públicas, la IA solía sugerir celebridades occidentales en lugar de iconos locales. Esto generaba frustración y constantes correcciones que ponían de manifiesto la falta de sensibilidad cultural de las herramientas.

“Cuando los usuarios indios utilizan las sugerencias de escritura de un modelo de IA, empiezan a imitar los estilos de escritura estadounidenses hasta el punto de describir sus propios festivales, su propia comida, sus propios artefactos culturales desde una perspectiva occidental”, añadió Agarwal.

Los investigadores sostienen que esta tendencia es una forma de colonialismo de la IA, donde las normas culturales occidentales se imponen a usuarios no occidentales, alterando potencialmente no solo cómo escriben, sino también cómo piensan.

“Estas tecnologías, obviamente, aportan mucho valor a la vida de las personas”, añadió Agarwal, “pero para que ese valor sea equitativo y para que estos productos tengan éxito en estos mercados, las empresas tecnológicas deben centrarse en los aspectos culturales, más allá de los lingüísticos”.

Este estudio es un llamado claro para que las empresas tecnológicas tengan en cuenta los matices culturales al desarrollar herramientas de IA para garantizar beneficios equitativos para los usuarios de todo el mundo.

Fuente: Cornell University