Los investigadores de la Universidad de Toronto Scarborough descubrieron que la IA genera respuestas más compasivas en comparación con las de los individuos comunes y las de los profesionales que responden a las crisis, lo que abre debates sobre su papel en la atención de la salud mental.
La inteligencia artificial podría ser mejor que los humanos para mostrar empatía, según un nuevo estudio realizado por investigadores de la Universidad de Toronto Scarborough.
La investigación, publicado En Psicología de las Comunicaciones, sugiere que las herramientas de IA como ChatGPT pueden proporcionar respuestas empáticas que tienen una calificación más alta en compasión que las brindadas tanto por la gente común como por quienes responden a crisis capacitados.
"La IA no se cansa", dijo en un comunicado la autora principal, Dariya Ovsyannikova, directora del laboratorio de Michael Inzlicht. comunicado de prensa“Puede ofrecer respuestas empáticas consistentes y de alta calidad sin la tensión emocional que experimentan los humanos”.
El estudio incluyó cuatro experimentos separados en los que los participantes evaluaron respuestas escritas de IA, personas comunes y expertos en respuesta a crisis.
Los resultados mostraron consistentemente que las respuestas generadas por IA se percibían como más compasivas y atentas a los detalles, creando una sensación de cuidado, validación y comprensión.
La empatía es fundamental en diversos ámbitos, en particular en el de la salud mental, donde ayuda a las personas a sentirse reconocidas y conectadas. Sin embargo, expresar empatía de manera constante puede resultar emocionalmente agotador para los cuidadores humanos y provocar trastornos como la fatiga por compasión.
Ovsyannikova, quien se ofreció como voluntaria para responder a una línea de crisis, destaca el costo emocional que enfrentan los profesionales en este campo.
Inzlicht, profesor de psicología y coautor del estudio, señala que si bien la IA puede ser eficaz a la hora de ofrecer una compasión superficial, carece de la capacidad de proporcionar una atención más profunda y significativa necesaria para resolver problemas de salud mental subyacentes.
“La IA puede ser una herramienta valiosa para complementar la empatía humana, pero conlleva sus propios peligros”, dijo en el comunicado de prensa.
Una preocupación importante son las implicaciones éticas de la dependencia excesiva de la IA para el apoyo emocional, que podría provocar que las personas se retiren de las interacciones humanas, exacerbando así la soledad y el aislamiento social.
Además, aunque las reacciones iniciales a la empatía generada por la IA fueron positivas, un fenómeno conocido como “aversión a la IA” mostró que las preferencias de algunos participantes cambiaron cuando supieron que la respuesta empática provenía de la IA.
Este escepticismo pone de relieve una aprensión social más amplia hacia la comprensión que tiene la IA de las emociones humanas.
Sin embargo, las generaciones más jóvenes, más acostumbradas a interactuar con la IA, pueden mostrar una mayor confianza en estas tecnologías con el tiempo.
Inzlicht enfatiza la necesidad de un enfoque equilibrado, donde la IA se utilice para mejorar, pero no para reemplazar, la empatía humana.
“La IA puede llenar vacíos, pero nunca debería reemplazar por completo el toque humano”, añadió.
Si bien el estudio invita a un mayor debate, resulta claro que, si bien la IA es prometedora para abordar la falta de empatía en la atención de la salud mental, debe integrarse de manera reflexiva y ética para beneficiar realmente a los necesitados.