La inteligencia artificial debe saber cuándo pedir ayuda humana

Publicado:

Actualizado:

Los sistemas de inteligencia artificial son herramientas poderosas para que las empresas y los gobiernos procesen datos y respondan a situaciones cambiantes, ya sea en el mercado de valores or en un campo de batalla. Pero todavía hay algunas cosas para las que la IA no está lista.

Estamos estudiosos de Ciencias de la Computación trabajando para entender y mejorar las formas en que los algoritmos interactúan con la sociedad. Los sistemas de AI se desempeñan mejor cuando el objetivo es claro y hay datos de alta calidad, como cuando se les pide que distingan entre diferentes caras después de aprender de muchas imágenes de personas identificadas correctamente.

A veces, los sistemas de inteligencia artificial lo hacen tan bien que los usuarios y los observadores se sorprenden de que perceptivo La tecnología es. Sin embargo, a veces el éxito es difícil de medir or definido incorrectamente, o los datos de entrenamiento no coincide con la tarea en cuestión. En estos casos, los algoritmos de IA tienden a fallar en Formas impredecibles y espectaculares.aunque es no siempre inmediatamente obvio que algo incluso salió mal. Como resultado, es importante desconfiar de la exageración y la emoción sobre lo que la IA puede hacer, y no asumir que la solución que encuentra siempre es correcta.

Cuando los algoritmos están en funcionamiento, debe haber una red de seguridad humana para evitar dañar a las personas. Nuestra investigación demostró que, en algunas situaciones, los algoritmos pueden reconocer problemas en su funcionamiento, y pide ayuda humana. Específicamente, mostramos, pedir ayuda humana puede ayudar a aliviar el sesgo algorítmico en algunas configuraciones.

¿Qué tan seguro es el algoritmo?

Los sistemas de inteligencia artificial están siendo utilizados en sentencia criminal, Perfil de personalidad basado en el rostro, reanudar la selección, inscripción en el cuidado de la salud y otras tareas difíciles donde la vida y el bienestar de las personas están en juego. Las agencias del gobierno de EE. UU. Están comenzando a aumentar su exploración y uso de sistemas de inteligencia artificial, en respuesta a Orden ejecutiva del presidente Donald Trump..

Sin embargo, es importante recordar que la IA puede cimentar conceptos erróneos sobre cómo se aborda una tarea o magnificar las desigualdades existentes. Esto puede suceder incluso cuando nadie le dijo al algoritmo explícitamente que tratara a alguien de manera diferente.

Por ejemplo, muchas compañías tienen algoritmos que intentan determinar las características de una persona por su cara, digamos a adivina su género. Los sistemas desarrollados por las empresas estadounidenses tienden a hacer significativamente mejor en categorizar a los hombres blancos que hacen las mujeres y las personas de piel más oscura; Lo hacen peor en mujeres de piel oscura. Los sistemas desarrollados en China, sin embargo, tienden a hacer peor en caras blancas.

La diferencia no es porque un grupo tiene caras que son más fáciles de clasificar que otros. Por el contrario, ambos algoritmos generalmente se entrenan en una gran colección de datos que no es tan diversa como la población humana en general. Si el conjunto de datos está dominado por un tipo particular de rostro: hombres blancos en los EE. UU. Y rostros chinos en China, entonces el algoritmo probablemente será mejor para analizar esos rostros que otros.

No importa cómo surja la diferencia, el resultado es que los algoritmos pueden estar sesgados al ser más precisos en un grupo que en otro.

Mantener un ojo humano en la IA

Para situaciones de alto riesgo, la confianza del algoritmo en su propio resultado, su estimación de la probabilidad de que el sistema haya encontrado la respuesta correcta, es tan importante como el resultado mismo. Las personas que reciben el resultado de los algoritmos deben saber qué tan en serio deben tomarse los resultados, en lugar de asumir que es correcto porque involucra una computadora.

Sólo recientemente los investigadores han comenzado a desarrollar formas de identificar, y mucho menos intentar corregir, Desigualdades en algoritmos y datos.. Los algoritmos se pueden programar para reconocer sus propias deficiencias, y seguir ese reconocimiento con un Solicitud de una persona para ayudar con la tarea..

Muchos tipos de algoritmos AI ya calculan un interno nivel de confianza - una predicción de qué tan bien funcionó al analizar una entrada particular. En el análisis facial, muchos algoritmos de IA tener menor confianza En rostros oscuros y rostros femeninos que en rostros masculinos blancos. Han pasado poco claro cuánto ha tenido esto en cuenta la aplicación de la ley para los usos más importantes de estos algoritmos.

El objetivo es que la IA localice las áreas donde no está alcanzando la misma precisión para los diferentes grupos. En estas entradas, la IA puede diferir su decisión a un moderador humano. Esta técnica es especialmente adecuada para tareas de contexto pesado como moderación de contenido.

Moderadores de contenido humano no puede mantenerse al día con La avalancha de imágenes que se publican en las redes sociales. Pero la moderación del contenido de IA es famosa por no tener en cuenta el contexto detrás de una discusión posterior a la identificación errónea de la orientación sexual como contenido explícito, o identificando la Declaración de Independencia como el discurso del odio. Esto puede terminar censurando incorrectamente a uno. capas demográficas or político grupo sobre otro.

Para obtener lo mejor de ambos mundos, nuestra investigación sugiere calificar todo el contenido de forma automatizada, utilizando los mismos métodos de AI que ya son comunes en la actualidad. Luego, nuestro enfoque utiliza técnicas recientemente propuestas para localizar automáticamente las posibles desigualdades en la precisión del algoritmo en diferentes grupos de personas protegidas, y para entregar las decisiones sobre ciertos individuos a un ser humano. Como resultado, el algoritmo puede ser completamente imparcial acerca de aquellas personas en las que realmente decide. Y los humanos deciden sobre aquellos individuos donde la decisión algorítmica habría creado inevitablemente un sesgo.

Este enfoque no elimina el sesgo: simplemente "concentra" el potencial de sesgo en un conjunto más pequeño de decisiones, que luego son manejadas por las personas, utilizando el sentido común humano. La IA aún puede realizar la mayor parte del trabajo de toma de decisiones.

Esta es una demostración de una situación en la que un algoritmo de IA que trabaja junto con un humano puede cosechar los beneficios y la eficiencia de las buenas decisiones de la IA, sin quedar encerrado en las malas. Los humanos tendrán más tiempo para trabajar en las decisiones difusas y difíciles que son críticas para garantizar la equidad y la equidad.La conversación

Autores: Sarah Scheffler, Ph.D. Estudiante de informática, Boston University, Adam D. SmithProfesor de Informática, Boston Universityy Ran CanettiProfesor de Informática, Boston University

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

Prueba GRATUITA de 6 meses

Luego, disfrute de Amazon Prime a mitad de precio: ¡50 % de descuento!

TUN AI – Tu asistente educativo

SINTONIZAR IA

¡Estoy aquí para ayudarte con becas, búsqueda de universidades, clases en línea, ayuda financiera, elección de especialidades, admisiones universitarias y consejos de estudio!

La Red Universitaria