Investigadores de CU Boulder presentan un marco para mejorar la confianza en la tecnología de IA, destacando cinco estrategias cruciales. Estos hallazgos buscan fomentar una mayor adopción de sistemas de IA.
A medida que los taxis autónomos se extienden por todo el país, la Universidad de Colorado en Boulder lidera la investigación para garantizar que los sistemas de inteligencia artificial sean confiables y ampliamente aceptados. Amir Behzadan, profesor del Departamento de Ingeniería Civil, Ambiental y Arquitectónica, e investigador del Instituto de Ciencias del Comportamiento (IBS) de la CU Boulder, lidera esta iniciativa.
Behzadan y su equipo del Laboratorio de Investigación en Informática Conectada y Entorno Construido (CIBER) han... creó un marco para el desarrollo de herramientas de IA que beneficien a las personas y a la sociedad.
Y en un nuevo artículo publicado En la revista AI and Ethics, Behzada y su estudiante de doctorado Armita Dabiri se basaron en ese marco para diseñar una herramienta de IA conceptual que integra elementos clave de confiabilidad.
“Como ser humano, al exponerse a posibles daños, asumiendo que los demás tienen buenas intenciones, confías en ellos”, declaró Behzadan en un comunicado de prensa. “Y ahora puedes trasladar ese concepto de las relaciones entre humanos a las relaciones entre humanos y tecnología”.
Entendiendo la confianza en la IA
Behzadan explora cómo se puede fomentar la confianza humana en los sistemas de IA que se utilizan en situaciones cotidianas, como los coches autónomos, los dispositivos domésticos inteligentes y las aplicaciones de transporte público. Señaló que la confianza es un factor crucial en la adopción y la confianza en estas tecnologías.
Históricamente, la confianza ha sido fundamental para la cooperación humana y el avance social, observó Behzadan. Esta dinámica de confianza-desconfianza se evidencia hoy en día en nuestra actitud hacia la IA, especialmente cuando su desarrollo parece opaco o impulsado por corporaciones o gobiernos distantes.
Cinco estrategias para generar confianza en la IA
Los investigadores identificaron cinco elementos clave que contribuyen a que las herramientas de IA sean más confiables:
1. Diseño centrado en el usuario
La confianza en la IA varía individualmente y está influenciada por las experiencias personales, las normas culturales y la familiaridad tecnológica.
Behzadan enfatizó que comprender las características de los usuarios objetivo es crucial para diseñar una IA confiable. Algunos ejemplos incluyen asistentes de voz que adaptan interfaces para adultos mayores.
2. Confiabilidad, Ética y Transparencia
Un sistema de IA confiable debe funcionar de manera consistente, garantizar la seguridad del usuario, proteger la privacidad y operar de manera transparente.
Behzadan señaló que es fundamental incorporar estándares éticos y eliminar las operaciones sesgadas. La transparencia en el uso de datos y en los procesos de toma de decisiones aumenta la confianza de los usuarios.
3. Sensibilidad al contexto
Las herramientas de IA deben adaptarse al contexto específico al que sirven.
En su estudio, Behzadan y Dabiri propusieron una herramienta basada en IA, “PreservAI”, para ayudar en el mantenimiento colaborativo de edificios históricos considerando los diversos aportes y prioridades de las partes interesadas.
4. Facilidad de uso y mecanismos de retroalimentación
La usabilidad es esencial para la confianza. Los sistemas de IA deben interactuar positivamente con los usuarios y ofrecerles la posibilidad de informar sobre problemas y ofrecer retroalimentación.
“Incluso con el sistema más confiable, si no se permite que la gente interactúe con él, no confiarán en él. Si muy pocas personas lo han probado realmente, no se puede esperar que toda la sociedad confíe en él y lo use”, explicó Behzadan.
5. Adaptabilidad para reconstruir la confianza
La confianza en la IA puede fluctuar. Por ejemplo, si un taxi autónomo sufre un accidente, los usuarios podrían perder la confianza.
Sin embargo, mejorar y adaptar la tecnología puede ayudar a recuperar la confianza. Behzadan lo ilustró con el chatbot "Zo" de Microsoft, que se ganó la confianza gracias a un diseño mejorado tras el fracaso de su predecesor, "Tay".
Moving Forward
Si bien los sistemas de IA conllevan riesgos, una adecuada generación de confianza puede impulsar su desarrollo y aceptación social. Cuando los usuarios están dispuestos a interactuar y compartir datos con la IA, estos sistemas se vuelven más precisos y útiles.
“Cuando las personas confían lo suficiente en los sistemas de IA como para compartir sus datos e interactuar con ellos de forma significativa, estos sistemas pueden mejorar significativamente, volviéndose más precisos, justos y útiles”, añadió Behzadan. “La confianza no es solo un beneficio para la tecnología; es una vía para que las personas obtengan a cambio un apoyo más personalizado y eficaz de la IA”.
Fuente: Universidad de Colorado Boulder

