Apocalipsis de Inteligencia Artificial

¿Deberíamos tener miedo de la IA?

Publicado:

Actualizado:

Durante décadas, los humanos han fantaseado con la idea de una adquisición de inteligencia artificial (IA). Películas de ciencia ficción como "2001: A Space Odyssey", "The Terminator" y "I, Robot" cautivaron a los espectadores durante años, principalmente porque se burlaron de la posibilidad de un futuro distópico impulsado por la IA.

Pero hoy, ese futuro distópico puede estar demasiado cerca para su comodidad. 

Antes de su fallecimiento, Stephen Hawking advirtió a la humanidad diciendo, "Una vez que los humanos desarrollan inteligencia artificial, despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor". Incluso sugirió que podría significar el fin de la raza humana.  

Desde entonces, muchos expertos en IA han seguido predicando tales advertencias. Elon Musk, el CEO de Tesla, SpaceX y Neuralink, incluso ha ido tan lejos como para decir que AI es más peligroso que las armas nucleares

Pero muchos otros disputan tales puntos de vista. John Giannandrea, vicepresidente senior de Apple Machine Learning and AI Strategy, ha descrito la retórica del juicio final como infundir temor. Y el CEO de Facebook, Mark Zuckerberg, lo llamó "bastante irresponsable."

Dónde se encuentra actualmente la IA

Antes de sumergirse en la probabilidad de un apocalipsis de IA y los métodos para prevenirlo, es importante diferenciar los tipos de IA. 

Lo que el público está más familiarizado se llama "inteligencia estrecha artificial" (ANI). Esto es lo que se usa para conducir automóviles autónomos y sistemas de reconocimiento de voz como el Siri de Apple y Alexa de Amazon. ANI es poderoso, pero funciona en un contexto muy limitado.

"No estoy realmente tan preocupado por las cosas a corto plazo", Musk dijo en una conferencia tecnológica 2018 South by Southwest (SXSW). “La IA estrecha no es un riesgo a nivel de especie. Dará como resultado la dislocación, la pérdida de empleos y mejores armas y ese tipo de cosas, pero no es un riesgo fundamental a nivel de especie ”.

En cambio, Musk y otros están más preocupados por el desarrollo de la "inteligencia general artificial" (AGI). Presumiblemente, si AGI se logra por completo, las máquinas serán capaces de comprender o aprender cualquier tarea que un humano pueda. 

La IA ya puede detectar el cáncer. mejor que los humanos pueden, vencer a los mejores jugadores de ajedrez y Go del mundo, construir sus propios algoritmos y examinar imágenes en los sitios de redes sociales para detectar las expresiones y la ropa de los humanos, entre otras cosas. 

Sin embargo, estos son todos ejemplos de IA que completa hazañas humanas. En cuanto a si y cuando el AGI completo se convierte en una realidad, eso permanece incierto

En una entrevista telefónica, Nisheeth K. Vishnoi, profesor de informática en la Universidad de Yale, dijo que no cree que logremos AGI. Para Vishnoi, AGI parece una especulación sin evidencia existente. 

Sin embargo, las naciones probablemente lo intentarán. Con poco más de 60 años, AI sigue siendo un campo muy joven. Su avance acelerado es impredecible y aparentemente inevitable. 

La carrera hacia el dominio de la IA 

Actualmente, las naciones están corriendo hacia el dominio de la IA, impulsadas por el deseo de convertirse en el líder económico y militar mundial. 

En 2017, el presidente ruso Vladimir Putin dijo en una conversación con estudiantes: “La inteligencia artificial es el futuro, no solo para Rusia, sino para toda la humanidad. Viene con oportunidades colosales, pero también amenazas que son difíciles de predecir. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo ".

Actualmente, Estados Unidos y China, no Rusia, lideran esa carrera, y ninguno de los dos países muestra signos de desaceleración. En el verano de 2017, China comprometido para convertirse en el principal centro de innovación de IA del mundo por 2030. Y a principios de este año, el presidente Donald Trump emitió un orden ejecutiva para mantener el liderazgo estadounidense en IA.

Ya en julio, investigadores de la Universidad Tsinghua de China crearon un nuevo tipo de chip de computadora que creen que "estimularán el desarrollo de AGI". Sin embargo, es solo el primero de muchos pasos. 

El futuro de la IA

Hasta este punto, la IA ha beneficiado principalmente a la sociedad. Ha hecho que el diagnóstico médico sea más rápido y preciso, ha reducido la cantidad de tareas tediosas que los trabajadores tienen que hacer a diario y ha ayudado en la preparación y ayuda en caso de desastres. 

La mayoría de los impactos negativos de la IA en su estado actual, como dijo Musk, no son riesgos a nivel de especie. Habrá algunos pérdida potencial de trabajo, las preocupaciones sobre la privacidad de los datos y la influencia de la campaña política, entre otras cosas, que merecen serias preocupaciones, pero que no necesariamente significan el fin de la humanidad. 

Sin embargo, lo más preocupante es que el avance de la IA solo se acelerará, y la sociedad tiene una pequeña idea de hacia dónde se dirige. 

"La tasa de cambio de tecnología es increíblemente rápida", Musk dijo en la Conferencia Mundial de Inteligencia Artificial (WAIC). "Está superando nuestra capacidad de entenderlo".

Los expertos en IA ya sugieren que las "armas autónomas letales" son A la vuelta de la esquina. Tales armas podrían decidir independientemente cuándo y dónde disparar sus armas y misiles. Son, literalmente, algo sacado de una película de ciencia ficción.

Almizcle y otros preocuparse que los humanos están perdiendo rápidamente su control sobre la tecnología de IA y le dan poder, inteligencia y habilidades que los humanos podrían no ser capaces de controlar o reclamar. 

"Creo que, en general, las personas subestiman la capacidad de la IA", dijo Musk en WAIC. “Piensan que es un humano inteligente. Pero va a ser mucho más que eso. Será mucho más inteligente que el humano más inteligente ".

"El error más grande que veo que hacen los investigadores de inteligencia artificial es asumir que son inteligentes", continuó Musk. “No lo son, en comparación con la IA. Muchos de ellos no pueden imaginar algo más inteligente que ellos mismos, pero la IA será mucho más inteligente ".

Aunque algunos todavía sugieren que la IA nunca logrará o superará la inteligencia humana, la mayoría estaría de acuerdo en que es mejor prevenir que curar. Por lo tanto, expertos en IA, universidades, grupos de expertos y otros han desarrollado sugerencias sobre cómo gestionar el desarrollo de la IA. 

Evitar un apocalipsis de IA 

Una de las ideas más intrigantes proviene de nada menos que Musk. A través de su Neuralink dispositivo, Musk toma un "si no puedes vencerlos, únete a ellos"Enfoque para tratar con la IA.

Neuralink es un dispositivo de interfaz cerebro-máquina que permitiría a los humanos conectarse y controlar sus teléfonos inteligentes, computadoras portátiles u otros dispositivos informáticos con su cerebro, eliminando la necesidad de usar las yemas de los dedos, lo que ralentiza a los humanos. 

"Es como una pequeña gota de información que fluye entre tu ser biológico y tu ser digital", dijo Musk en el Podcast de Joe Rogan. "Necesitamos hacer esa pequeña pajita como un río gigante, una gran interfaz de gran ancho de banda".

"Permitirá a cualquiera que quiera tener una cognición sobrehumana", agregó Musk. “¿Cuánto más inteligente eres con un teléfono o una computadora o sin él? Tu teléfono ya es una extensión tuya. Ya eres un cyborg.

Una idea más digerible que Musk y otros comparten es pedir que el gobierno regulador supervise el desarrollo de la IA. 

"Debe ser un organismo público que tenga conocimiento y luego supervisión para confirmar que todos están desarrollando IA de manera segura", dijo Musk en la conferencia tecnológica 2018 SXSW. “Esto es extremadamente importante. Creo que el peligro de la IA es mucho mayor que el peligro de las ojivas nucleares por mucho y nadie sugeriría que permitiéramos a nadie construir ojivas nucleares si así lo desean. Eso sería una locura ". 

Mientras tanto, los colegios y universidades se han centrado principalmente en la enseñanza y el desarrollo de una nueva generación de tecnólogos y desarrolladores que consideran la ética y el bien público tanto como la innovación. Su objetivo no es limitar necesariamente el avance de la IA y otras tecnologías, sino asegurarse de que se creen de manera ética y responsable. 

Virginia Tech University es una de las escuelas que lidera este cargo. A través de su nuevo Tech for Humanity iniciativa, se enseñará a los tecnólogos en la Facultad de Ingeniería a adoptar un "enfoque centrado en el ser humano" para desarrollar y avanzar en la tecnología. Y los estudiantes de humanidades aprenderán más sobre políticas de tecnología y ética de IA, entre otras cosas. 

“La innovación está aumentando la brecha entre lo que es tecnológicamente posible y lo que puede o no ser lo mejor para la sociedad humana y un futuro viable. Necesitamos enfoques centrados en el ser humano para guiar el estudio, el desarrollo y el uso de tecnologías ". Sylvester Johnson, dijo el director fundador del VT Center for Humanities en un comunicado.

Hoy, la tecnología como la IA es ineludible. Se ha infiltrado en la política, el derecho y todas las humanidades. La iniciativa de VT tiene como objetivo desarrollar profesionales completos en los campos de humanidades y tecnología que posean las habilidades de pensamiento interseccional necesarias para tomar decisiones difíciles con respecto al futuro de la tecnología. 

"¿Deberíamos usar armas de inteligencia artificial y continuar desarrollando armas en un intento de tener algo cercano a la inteligencia a nivel humano en un sistema de armas o sistema de máquina?", Dijo Johnson. “Esa es una pregunta muy complicada que necesita ser estudiada, examinada, debatida y comprometida por una variedad de personas. Y creo que nuestras universidades tienen un papel muy importante que desempeñar ”.

VT no es la única escuela que toma medidas. 

Más atrás, en marzo, una organización compuesta por universidades 21 llamó Red de universidades de tecnología de interés público fue lanzado con el apoyo de la Fundación Ford, Nueva América y la Fundación Hewlett para lograr un objetivo similar. Juntos, están trabajando para garantizar que el interés público y el bien social se prioricen en tecnología y ciencias de la computación en el mismo grado que en derecho y humanidades.

Conclusión

Actualmente, AGI, por lo que Musk y otros están tan preocupados, todavía está rodeado de incertidumbre. Incluso si se crea, la mayoría de los expertos esperan que sea al menos 50-100 años por el camino. 

De todos modos, la IA existente y otras tecnologías ya han creado un exceso de preguntas éticas, y uno solo puede imaginar lo que le depara el futuro. Entonces, en preparación, las universidades, los formuladores de políticas, los activistas y otros tienen la responsabilidad de intervenir. 

Prueba GRATUITA de 6 meses

Luego, disfrute de Amazon Prime a mitad de precio: ¡50 % de descuento!

TUN AI – Tu asistente educativo

SINTONIZAR IA

¡Estoy aquí para ayudarte con becas, búsqueda de universidades, clases en línea, ayuda financiera, elección de especialidades, admisiones universitarias y consejos de estudio!

La Red Universitaria