Digital Skills Institute
< Artículos seleccionados

Geoffrey Hinton explica por qué tiene miedo ahora de la IA que ayudó a construir

Geoffrey Hinton, uno de los pioneros del aprendizaje profundo, considera que los modelos lingüísticos de gran tamaño, como el GPT-4 de OpenAI, pueden entrañar graves riesgos y quiere concienciar al público sobre ellos. Hinton ha renunciado a Google para dedicarse a "un trabajo más filosófico" sobre la seguridad de la IA sin autocensura. Artículo publicado en technologyreview.es y recomendado por Digital Skills Institute el 8 de mayo de 2023.

En una reciente entrevista, el científico de la computación Geoffrey Hinton ha explicado por qué ahora teme por la inteligencia artificial (IA) que ayudó a construir. Hinton, considerado uno de los pioneros del deep learning (aprendizaje profundo), ha renunciado a Google después de una década en la compañía para centrarse en nuevas preocupaciones sobre los graves riesgos que pueden entrañar los modelos lingüísticos de gran tamaño, como el GPT-4, que utilizan IA para procesar lenguaje natural. Hinton quiere concienciar a la opinión pública sobre los riesgos que ahora cree que puede entrañar la tecnología que él mismo introdujo.

El científico de 75 años afirma que la nueva generación de grandes modelos lingüísticos -en especial, GPT-4, lanzado por OpenAI en marzo- le ha hecho darse cuenta de que las máquinas van camino de ser más inteligentes de lo que pensaba. Y le preocupa la forma en que esto ocurra. "Estas cosas son muy diferentes a nosotros. A veces, pienso que es como si los extraterrestres hubieran aterrizado y la gente no se hubiera dado cuenta porque hablan muy bien inglés".

Aunque es más conocido por su trabajo sobre una técnica llamada retropropagación, que propuso junto a un par de colegas en la década de 1980, Hinton recibió junto a Yann LeCun y Yoshua Bengio el Premio Turing en 2018 por su trabajo sobre deep learning. Esta técnica es la base de casi todas las redes neuronales actuales, desde los sistemas de visión por ordenador hasta los grandes modelos lingüísticos.

Hinton quiere dedicar su tiempo a lo que describe como "un trabajo más filosófico". Dejar al gigante tecnológico le permitirá decir lo que piensa, sin la autocensura a la que debe someterse un ejecutivo de Google. "Quiero hablar sobre la seguridad de la IA sin tener que preocuparme de cómo afecta al negocio de Google. Mientras Google me pague, no puedo hacerlo".

Hinton también ha señalado que los grandes modelos lingüísticos son minúsculos en comparación con el cerebro humano, pero su algoritmo de aprendizaje puede ser mucho mejor que el nuestro. Además, estos modelos han demostrado que pueden aprender muy rápido con pocos ejemplos. Los investigadores de IA han llamado "confabulaciones" a los errores que cometen estos modelos, pero Hinton prefiere usar el término "alucinaciones", ya que son similares a las que los humanos experimentan y puede ser una característica, no un error.

En resumen, Geoffrey Hinton, uno de los pioneros del aprendizaje profundo y co-ganador del Premio Turing en 2018, ha explicado en una entrevista reciente por qué ahora teme la IA que ayudó a construir. Considera que la nueva generación de grandes modelos lingüísticos, como el GPT-4 de OpenAI, puede entrañar graves riesgos, y quiere concienciar al público sobre ellos. Hinton ha renunciado a Google para dedicarse a "un trabajo más filosófico" sobre la seguridad de la IA sin autocensura. Además, el científico ha señalado que los grandes modelos lingüísticos pueden ser mucho más inteligentes que los humanos y aprender muy rápido con pocos ejemplos, y que sus errores, llamados "confabulaciones", pueden ser una característica, no un error.

Leer en technologyreview.es
¡Participa en la conversación!

Otros artículos relacionados