A pesar de sus capacidades avanzadas, las herramientas de IA no pueden comprender plenamente los conceptos sensoriales como lo hacen los humanos, según un nuevo estudio dirigido por la Universidad Estatal de Ohio. Explore los hallazgos del estudio y sus implicaciones para el desarrollo de la IA.
En un nuevo estudio, investigadores dirigidos por la Universidad Estatal de Ohio revelaron que la inteligencia artificial, por más avanzada que sea, tiene dificultades para comprender los conceptos sensoriales como lo hacen los humanos.
El estudio, publicado En la revista Nature Human Behaviour, se subrayan las diferencias intrínsecas en cómo los humanos y la IA perciben el mundo, indicando que las limitaciones actuales de la IA se deben a su dependencia de modelos basados en el lenguaje.
Por qué la IA se queda corta
El núcleo del problema, según el autor principal Qihui Xu, investigador postdoctoral en psicología en la Universidad Estatal de Ohio, es que los modelos de lenguaje grandes (LLM) se centran principalmente en el lenguaje y en datos de imágenes ocasionales, lo que no los dota de las ricas experiencias sensoriales y motoras que poseemos los humanos.
“Un modelo lingüístico grande no puede oler una rosa, tocar los pétalos de una margarita ni caminar por un campo de flores silvestres”, declaró Xu en un comunicado de prensa. “Sin esas experiencias sensoriales y motoras, no puede representar verdaderamente lo que es una flor en toda su riqueza. Lo mismo ocurre con otros conceptos humanos”.
La investigación
Xu y su equipo compararon la representación del conocimiento de 4,442 palabras entre humanos y LLM avanzados de OpenAI (GPT-3.5 y GPT-4) y Google (PaLM y Gemini). Los investigadores utilizaron dos medidas:
1. Normas de Glasgow:Esta medida solicitó calificaciones en nueve dimensiones, tales como excitación, concreción e imaginabilidad.
2. Normas de Lancaster:Se evaluó cómo se relacionan las palabras con la información sensorial (como el tacto, el olfato, la visión) y las actividades motoras.
El objetivo era observar el grado de alineamiento de los modelos de IA con las percepciones humanas. En áreas donde las emociones y los estímulos sensoriales eran cruciales, los LLM presentaban un retraso considerable en la comprensión humana.
Hallazgos e Implicaciones
El estudio reveló que las herramientas de IA destacaban en la representación de conceptos abstractos que no requieren información sensorial. Sin embargo, presentaban deficiencias en la comprensión de palabras vinculadas a experiencias sensoriales y motoras.
“Desde el intenso aroma de una flor, el tacto vívido y sedoso cuando acariciamos los pétalos, hasta la profunda alegría evocada, la representación humana de la 'flor' une estas diversas experiencias e interacciones en una categoría coherente”, señalaron los investigadores en su artículo.
Los hallazgos sugieren que la falta de base sensorial en la IA conduce a una desconexión fundamental en cómo la IA y los humanos entienden el mundo.
Perspectivas de futuro
A pesar de estas limitaciones, Xu se mantiene optimista sobre la evolución de la IA. Los LLM que incorporan datos de imágenes obtuvieron mejores resultados en la comprensión de conceptos relacionados con la visión, lo que sugiere posibles mejoras.
Según Xu, los modelos futuros aumentados con datos de sensores y robótica pueden comprender mejor el mundo físico y realizar inferencias y acciones más parecidas a las humanas.
“Obtienen lo que saben consumiendo ingentes cantidades de texto —muchísimos más de los que un ser humano recibe a lo largo de su vida— y aun así no logran captar algunos conceptos como lo hacen los humanos”, dijo Xu. “La experiencia humana es mucho más rica de lo que las palabras por sí solas pueden contener”.
Sin embargo, con avances continuos, la IA puede cerrar esta brecha con el tiempo.
El estudio arroja luz sobre los desafíos matizados en el desarrollo de la IA y enfatiza la riqueza única e irremplazable de las experiencias sensoriales humanas.
Colaboradores
Los coautores del estudio son Yingying Peng, Ping Li y Minghua Wu de la Universidad Politécnica de Hong Kong; Samuel Nastase de la Universidad de Princeton; y Martin Chodorow de la Universidad de la Ciudad de Nueva York.