Por qué la mayoría de las IA médicas fallan en las clínicas y cómo solucionarlo

Un nuevo estudio dirigido por Harvard sostiene que la IA médica no estará lista para el uso clínico rutinario hasta que pueda comprender el contexto, desde la especialidad y la geografía hasta la vida cotidiana de los pacientes. El equipo también establece una hoja de ruta para que estos sistemas sean aliados más confiables para médicos y pacientes.

La inteligencia artificial médica se presenta a menudo como un punto de inflexión en la atención médica, prometiendo analizar montañas de datos e identificar patrones invisibles para los humanos. Sin embargo, a pesar de los miles de modelos desarrollados en laboratorios y empresas, solo una pequeña fracción ha marcado una diferencia real en hospitales y clínicas.

En un nuevo estudio publicado En Nature Medicine, los investigadores argumentan que hay una gran razón oculta a simple vista: la mayoría de los sistemas de IA médicos no entienden el contexto.

Dicen que incluso cuando un algoritmo parece tener un buen rendimiento en pruebas estandarizadas, puede presentar graves dificultades en la atención médica real porque no tiene en cuenta la situación específica en la que se aplicarán sus consejos. Esto incluye la especialidad médica involucrada, el lugar del mundo donde se atiende al paciente y las realidades socioeconómicas y culturales que definen su vida.

“Esto no es una casualidad menor”, ​​declaró en un comunicado de prensa Marinka Zitnik, coautora correspondiente y profesora asociada de informática biomédica en el Instituto Blavatnik de la Facultad de Medicina de Harvard y profesora asociada del Instituto Kempner para el Estudio de la Inteligencia Natural y Artificial de la Universidad de Harvard. “Se trata de una limitación importante de todos los modelos de IA médica que estamos desarrollando en este campo”.

Zitnik y sus colegas denominan a estos errores contextuales. No se trata de los errores obvios y evidentes que se producen cuando un modelo malinterpreta un valor de laboratorio o interpreta mal una imagen. En cambio, son respuestas que parecen razonables e incluso técnicamente correctas, pero que son erróneas o inútiles para el paciente en particular que se encuentra frente al médico.

¿Por qué se pierde el contexto?

En una entrevista con Noticias de Medicina de HarvardZitnik explicó que muchos de estos errores se originan en los datos utilizados para entrenar los sistemas de IA. Los conjuntos de datos a menudo carecen de información crucial en la que los médicos confían para tomar decisiones, como las opciones de tratamiento locales, los patrones típicos de enfermedades en una región o las barreras prácticas que un paciente podría enfrentar para seguir un plan de atención.

Como resultado, los modelos pueden generar recomendaciones que parecen sensatas en el papel pero que no se traducen en orientación relevante y práctica en la clínica.

Para cerrar esa brecha, los investigadores describen tres pasos principales.

En primer lugar, argumentan que la información contextual debe integrarse en los conjuntos de datos de entrenamiento desde el principio. Esto implica incluir detalles más detallados sobre los pacientes, los sistemas de salud y los entornos, no solo resultados de laboratorio y diagnósticos.

En segundo lugar, exigen parámetros computacionales más sólidos: los casos de prueba estandarizados utilizados para evaluar los modelos antes de su implementación. Estos parámetros, afirman, deberían diseñarse para revelar la eficacia de un sistema en diferentes contextos clínicos, no solo la precisión con la que predice los resultados en un entorno limitado.

En tercer lugar, recomiendan integrar el contexto directamente en las arquitecturas de modelos, los diseños estructurales que determinan cómo los sistemas de IA procesan la información. De esta manera, se pueden construir modelos que reconozcan y se ajusten a diferentes especialidades, ubicaciones y circunstancias de los pacientes, en lugar de tratar todos los casos como si fueran intercambiables.

Cuando la especialidad, el lugar y las circunstancias de vida importan

El artículo destaca tres ejemplos en los que la falta de contexto puede hacer descarrilar la IA médica.

El primero se refiere a las especialidades médicas. Los pacientes con afecciones complejas suelen presentar síntomas que afectan a varios sistemas orgánicos. Una persona que acude a urgencias con síntomas neurológicos y problemas respiratorios podría ser atendida tanto por un neurólogo como por un neumólogo, cada uno especializado en una parte diferente del cuerpo.

Un modelo de IA entrenado principalmente con datos de una especialidad podría hacer lo mismo, centrándose en el sistema orgánico que mejor conoce y pasando por alto que la combinación de síntomas indica una enfermedad multisistémica. Los investigadores argumentan que será necesario entrenar modelos más robustos en distintas especialidades y que sean capaces de enfocarse en tiempo real en la información más relevante.

La geografía es otra fuente importante de contexto. Una misma pregunta médica puede tener respuestas muy diferentes según el lugar de residencia del paciente. Una enfermedad común en un país puede ser poco común en otro. Los tratamientos estándar en un sistema de salud pueden no estar disponibles, ser inasequibles o aún no estar aprobados en otros.

Si un modelo ofrece la misma recomendación en Sudáfrica, Estados Unidos y Suecia, señala el equipo, es probable que dicha recomendación sea errónea en al menos algunos de esos lugares. El laboratorio de Zitnik trabaja en modelos que incorporan información geográfica para generar directrices específicas para cada ubicación, lo que podría tener importantes implicaciones para la salud mundial.

El tercer ejemplo se centra en los factores socioeconómicos y culturales que determinan si un paciente puede seguir un plan de atención de forma realista. Consideremos a un paciente que acude a urgencias con síntomas graves sin haber acudido a la cita de oncología a la que le habían derivado anteriormente. Un médico podría simplemente recordarle que programe la visita.

Pero esa respuesta podría ignorar barreras reales: largas distancias de viaje, falta de guarderías fiables, horarios de trabajo rígidos o transporte limitado. Estas limitaciones rara vez aparecen en los historiales médicos electrónicos, por lo que un sistema de IA típico tampoco las consideraría.

Los investigadores visualizan modelos que pueden dar cuenta de estas realidades y sugieren opciones más prácticas, como organizar el transporte u ofrecer horarios de citas que se adapten al cuidado infantil o al trabajo. Si se implementa correctamente, este tipo de IA sensible al contexto podría ampliar el acceso a la atención en lugar de agravar las desigualdades existentes.

Más allá del contexto: confianza y colaboración

Los errores contextuales no son el único obstáculo para incorporar la IA de forma segura a la medicina cotidiana. Zitnik señala la confianza como otro gran desafío. Pacientes, médicos, reguladores y sistemas de salud necesitan tener la seguridad de que las herramientas de IA son fiables y se utilizan de forma responsable.

Una forma de generar esa confianza, sugiere el equipo, es diseñar modelos transparentes y fáciles de interpretar. En lugar de ofrecer recomendaciones opacas, los sistemas deberían mostrar cómo llegaron a sus conclusiones y ser capaces de señalar la incertidumbre, incluyendo, cuando corresponda, decir eficazmente "No lo sé".

La forma en que las personas interactúan con la IA también necesita evolucionar. Muchas herramientas actuales se asemejan a los chatbots: los usuarios escriben una pregunta y reciben una única respuesta. Zitnik argumenta que los sistemas futuros deberían permitir una colaboración bidireccional más completa.

Esto podría implicar adaptar las explicaciones a diferentes públicos, como ofrecer resúmenes en lenguaje sencillo para los pacientes y detalles más técnicos para los especialistas. También podría implicar permitir que los modelos formulen preguntas de seguimiento cuando carezcan de información clave, convirtiendo la interacción en un diálogo orientado a resolver un problema común.

Nuevas posibilidades de tratamiento

A pesar de los obstáculos, los investigadores ven un enorme potencial si se pueden abordar estos desafíos.

Algunas herramientas de IA ya facilitan tareas rutinarias, como la redacción de notas clínicas o la búsqueda rápida de artículos científicos relevantes por parte de los investigadores. Pero Zitnik está especialmente interesado en cómo los modelos contextuales podrían transformar el tratamiento de pacientes con afecciones complejas.

En el futuro, visualiza sistemas que puedan cambiar su enfoque a medida que el paciente avanza en su proceso de atención. Al principio, un modelo podría ayudar a analizar los síntomas y sugerir posibles causas. Más adelante, podría revelar evidencia sobre tratamientos que funcionaron en pacientes similares, para luego centrarse nuevamente en cuestiones prácticas como los efectos secundarios de los medicamentos, la medicación previa y las terapias disponibles en un hospital o región determinados.

Al adaptarse continuamente al contexto más relevante, estas herramientas podrían ayudar a los médicos a adaptar las decisiones para los pacientes cuyas necesidades no encajan perfectamente en las pautas estándar.

Construyendo una IA que haga más bien que mal

Zitnik tiene claro que la IA en la atención médica no es una tendencia pasajera. Estas herramientas ya se utilizan, aunque los investigadores aún están aprendiendo dónde funcionan mejor y dónde fallan.

Argumenta que la comunidad de IA médica tiene la responsabilidad de garantizar que estos sistemas se desarrollen e implementen de forma responsable. Esto incluye diseñar modelos con vistas al uso en el mundo real, probarlos rigurosamente en entornos clínicos y crear directrices claras sobre cuándo y cómo deben utilizarse.

Zitnik cree que si los investigadores y desarrolladores se mantienen alineados con esos objetivos y formulan preguntas difíciles de manera temprana, pueden detectar los problemas antes de que causen daño.

A largo plazo, Zitnik y sus colegas se muestran optimistas. Con un contexto más completo, medidas de seguridad más sólidas y una colaboración más reflexiva entre humanos e IA, afirman, la IA médica podría contribuir a una investigación más eficiente, aliviar la carga de los médicos y, lo más importante, mejorar la atención a los pacientes.

Fuente: Harvard Medical School