Los científicos advierten que la humanidad no tiene posibilidades de controlar una inteligencia artificial superinteligente

Los científicos de la Sociedad Max Planck en Europa hacen sonar la alarma y advierten que con nuestra tecnología actual, la humanidad no tiene ninguna posibilidad de controlar una inteligencia artificial superinteligente capaz de salvar o destruir a la humanidad.


Los científicos de la prestigiosa Sociedad Max Planck en Europa dicen que, con nuestra tecnología actual, la humanidad no tiene ninguna posibilidad de controlar una inteligencia artificial superinteligente capaz de salvar o destruir a la humanidad.

El artículo del instituto de investigación, publicado la semana pasada en el  Journal of Artificial Intelligence Research, se centra en la capacidad de reacción de la humanidad hacia una hipotética IA al estilo Skynet que decide acabar con la humanidad.

Dicho documento presentaba un escenario en el que se preguntaba: “Si una inteligencia super-artificial del futuro decidiera, como ejemplo, que la forma más eficiente de acabar con el sufrimiento humano sería simplemente acabar con la humanidad, ¿qué haríamos para detenerlo? Esta pregunta fue presentada por los miembros de la Sociedad Max Planck en su investigación publicada recientemente.

La respuesta que dieron fue alarmante. Según estos científicos, la humanidad prácticamente tendría que quedarse quieta y ver cómo nos destruyen. Los científicos estaban tan aterrorizados por este escenario que instan a que los investigadores desarrollen lo que ellos denominan un «algoritmo de contención» que simula el comportamiento peligroso de una IA superinteligente y evita que haga algo dañino.

Estos investigadores también advierten que la IA capaz de tomar decisiones impactantes para la humanidad está a la vuelta de la esquina. 

«Una máquina super inteligente que controla el mundo suena a ciencia ficción», dijo en un comunicado de prensa el coautor del estudio Manuel Cebrian, líder del Grupo de Movilización Digital en el Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano.

“Pero ya existen máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. 

Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad”, continuó Cebrian.

Mitigar la amenaza de la IA dañina

Si una inteligencia artificial superinteligente del futuro decidiera, como ejemplo, que la forma más eficiente de acabar con el sufrimiento humano sería simplemente acabar con la humanidad, ¿qué haríamos para detenerlo?

Esa es la pregunta planteada por la gente de Max Planck Society en su investigación publicada recientemente. La respuesta: con la tecnología actual, tendríamos que quedarnos al margen y ver cómo nos destruyen.

Es por eso que los investigadores proponen desarrollar lo que ellos denominan un «algoritmo de contención» que simula el comportamiento peligroso de una IA superinteligente y evita que haga algo dañino.

‘Suena a ciencia ficción’

Los investigadores de la Sociedad Max Planck advierten que la IA capaz de tomar decisiones impactantes para la humanidad está a la vuelta de la esquina.

«Una máquina superinteligente que controla el mundo suena a ciencia ficción»,  dijo en un comunicado de prensa el coautor del estudio Manuel Cebrian, líder del Grupo de Movilización Digital en el Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano .

«Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad», continuó Cebrian.

Campaña Stop robots asesinos

Por supuesto, todo esto es teórico, ya que es probable que todavía estemos muy lejos de la inteligencia artificial con tales capacidades. Aún así, el nuevo documento se suma a un importante debate encabezado por la campaña Stop Killer Robots respaldada por personas como Elon Musk y Noam Chomsky .

Como ha señalado el cofundador de Neuralink, Musk, algunas de las mejores mentes del mundo que trabajan hoy para mitigar la amenaza de la IA tendrán la inteligencia relativa de un chimpancé en comparación con las máquinas superinteligentes del futuro.


FUENTE: 
https://interestingengineering.com/superintelligent-ai-cannot-be-controlled-report-warns