Digital Skills Institute
< Artículos seleccionados

Geoffrey Hinton explica por qué tiene miedo ahora de la IA que ayudó a construir

Geoffrey Hinton, uno de los pioneros del aprendizaje profundo, considera que los modelos lingüísticos de gran tamaño, como el GPT-4 de OpenAI, pueden entrañar graves riesgos y quiere concienciar al público sobre ellos. Hinton ha renunciado a Google para dedicarse a "un trabajo más filosófico" sobre la seguridad de la IA sin autocensura. Resumen del artículo publicado en technologyreview.es y recomendado por Digital Skills Institute el 8 de mayo de 2023.

Geoffrey Hinton, un pionero en el campo del aprendizaje profundo, ha compartido recientemente sus preocupaciones sobre la inteligencia artificial (IA), específicamente sobre los modelos lingüísticos de gran tamaño, como el GPT-4. Después de una larga trayectoria en Google, Hinton decidió renunciar a su puesto para poder hablar libremente sobre los riesgos asociados a la tecnología que ayudó a desarrollar. A sus 75 años, Hinton se ha dado cuenta de que la IA está avanzando a un ritmo que supera lo que había anticipado, y advierte sobre sus implicaciones.

Hinton describe a los actuales modelos lingüísticos como entidades que podrían ser tan diferentes de los humanos que su inteligencia podría compararse a la de "extraterrestres". Esta inquietud surge en gran parte del potencial de estos sistemas de procesar y generar lenguaje natural, lo que conlleva la necesidad de una mayor comprensión sobre lo que significan estas innovaciones. Aunque es conocido por su trabajo en retropropagación, una técnica fundamental en las redes neuronales modernas, sus nuevas reflexiones se centran en la seguridad y las repercusiones éticas de la IA.

El científico desea enfocarse en un "trabajo más filosófico" que le permita discutir abiertamente la seguridad de la IA sin las restricciones que implica ser parte de una gran corporación. Hinton argumenta que, a pesar de que estos modelos son pequeños comparados con el cerebro humano, poseen un algoritmo de aprendizaje que podría superarlo, logrando aprendizajes rápidos con poca información. Además, hace hincapié en que los errores que cometen, denominados “alucinaciones”, podrían representarse como una característica intrínseca en lugar de un fallo. Esta reflexión subraya la necesidad de un diálogo más profundo acerca de la dirección que está tomando la inteligencia artificial.

Leer en technologyreview.es
¡Participa en la conversación!

Otros artículos relacionados

También te puede interesar...