El pionero de la IA, Geoffrey Hinton, advierte sobre las máquinas que superan la inteligencia humana, plantea preocupaciones éticas y abandona Google para promover el desarrollo responsable de la IA.
El pionero de la IA, Geoffrey Hinton, conocido por su trabajo revolucionario en el aprendizaje profundo y la investigación de redes neuronales, ha expresado recientemente su preocupación por los rápidos avances en la IA y las posibles implicaciones.
A la luz de sus observaciones de nuevos modelos de lenguaje grande como GPT-4, Hinton advierte sobre varios problemas clave:
- Máquinas que superan la inteligencia humana: Hinton cree que los sistemas de IA como GPT-4 están en camino de ser mucho más inteligentes de lo previsto inicialmente, y podrían poseer mejores algoritmos de aprendizaje que los humanos.
- Riesgos de que los chatbots de IA sean explotados por «malos actores»: Hinton destaca los peligros de usar chatbots inteligentes para difundir información errónea, manipular a los electores y crear poderosos spambots.
- Capacidades de aprendizaje de pocos intentos: los modelos de IA pueden aprender nuevas tareas con solo unos pocos ejemplos, lo que permite que las máquinas adquieran nuevas habilidades a un ritmo comparable, o incluso superior, al de los humanos.
- Riesgo existencial que plantean los sistemas de IA: Hinton advierte sobre escenarios en los que los sistemas de IA crean sus propios objetivos secundarios y se esfuerzan por obtener más poder, superando la acumulación de conocimiento humano y las capacidades de intercambio.
- Impacto en los mercados laborales: la IA y la automatización pueden desplazar puestos de trabajo en ciertas industrias, siendo particularmente afectadas la fabricación, la agricultura y la atención médica.
En este artículo, profundizamos en las preocupaciones de Hinton, su salida de Google para centrarse en los aspectos éticos y de seguridad del desarrollo de IA, y la importancia del desarrollo de IA responsable para dar forma al futuro de las relaciones entre humanos e IA.
Salida de Hinton de Google y desarrollo ético de IA
En su búsqueda por abordar las consideraciones éticas y de seguridad que rodean a la IA, Hinton decidió abandonar su puesto en Google.
Esto le permite la libertad de expresar abiertamente sus preocupaciones y participar en un trabajo más filosófico sin las limitaciones de los intereses corporativos.
Hinton afirma en una entrevista con MIT Technology Review: interview
“I want to talk about AI safety issues without having to worry about how it interacts with Google’s business. As long as I’m paid by Google, I can’t do that.”
“Quiero hablar sobre problemas de seguridad de la IA sin tener que preocuparme por cómo interactúa con el negocio de Google. Mientras me pague Google, no puedo hacer eso”.
La partida de Hinton marca un cambio en su enfoque hacia los aspectos éticos y de seguridad de la IA. Su objetivo es participar activamente en los diálogos en curso sobre el desarrollo y despliegue responsable de IA.
Aprovechando su experiencia y reputación, Hinton tiene la intención de contribuir al desarrollo de marcos y pautas que aborden cuestiones como el sesgo, la transparencia, la responsabilidad, la privacidad y el cumplimiento de los principios éticos.
GPT-4 y malos actores
Durante una entrevista reciente, Hinton expresó su preocupación por la posibilidad de que las máquinas superen la inteligencia humana. Las impresionantes capacidades de GPT-4, desarrolladas por OpenAI y lanzadas a principios de este año, han hecho que Hinton reevalúe sus creencias anteriores. recent interview
Él cree que los modelos de lenguaje como GPT-4 están en camino de ser mucho más inteligentes de lo que se anticipó inicialmente, y que podrían poseer mejores algoritmos de aprendizaje que los humanos.
Hinton afirma en la entrevista:
“Our brains have 100 trillion connections. Large language models have up to half a trillion, a trillion at most. Yet GPT-4 knows hundreds of times more than any one person does. So maybe it’s actually got a much better learning algorithm than us.”
“Nuestros cerebros tienen 100 billones de conexiones Los modelos de lenguaje grande tienen hasta medio billón, un billón como máximo Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Entonces, tal vez en realidad tenga un algoritmo de aprendizaje mucho mejor que el nuestro”.
Las preocupaciones de Hinton giran principalmente en torno a las importantes disparidades entre las máquinas y los humanos. Él compara la introducción de grandes modelos lingüísticos con una invasión extraterrestre, enfatizando sus habilidades y conocimientos lingüísticos superiores en comparación con cualquier individuo.
Hinton afirma en la entrevista:
“These things are totally different from us. Sometimes I think it’s as if aliens had landed and people haven’t realized because they speak very good English.”
“Estas cosas son totalmente diferentes a nosotros A veces pienso que es como si hubieran aterrizado extraterrestres y la gente no se ha dado cuenta porque hablan muy bien el inglés”.
Hinton advierte sobre los riesgos de que los chatbots de IA se vuelvan más inteligentes que los humanos y sean explotados por «malos actores».
En la entrevista, advierte que estos chatbots podrían usarse para difundir información errónea, manipular a los electores y crear poderosos spambots.
“Look, here’s one way it could all go wrong. We know that a lot of the people who want to use these tools are bad actors like Putin or DeSantis. They want to use them for winning wars or manipulating electorates.”
“Mira, aquí hay una forma en que todo podría salir mal Sabemos que muchas de las personas que quieren usar estas herramientas son malos actores como Putin o DeSantis. Quieren usarlos para ganar guerras o manipular electorados”.
Aprendizaje de pocas oportunidades y supremacía de la IA
Otro aspecto que preocupa a Hinton es la capacidad de los grandes modelos lingüísticos para realizar un aprendizaje de pocos intentos.
Estos modelos se pueden entrenar para realizar nuevas tareas con algunos ejemplos, incluso tareas para las que no fueron entrenados directamente.
Esta notable capacidad de aprendizaje hace que la velocidad a la que las máquinas adquieren nuevas habilidades sea comparable, o incluso supere, a la de los humanos.
Hinton afirma en la entrevista:
“People[‘s brains] seemed to have some kind of magic. Well, the bottom falls out of that argument as soon as you take one of these large language models and train it to do something new. It can learn new tasks extremely quickly.”
“La gente [los cerebros] parecían tener algún tipo de magia Bueno, el fondo se cae de ese argumento tan pronto como tomas uno de estos grandes modelos de lenguaje y lo entrenas para hacer algo nuevo. Puede aprender nuevas tareas extremadamente rápido”.
Las preocupaciones de Hinton van más allá del impacto inmediato en los mercados laborales y las industrias.
Plantea el «riesgo existencial» de lo que sucede cuando los sistemas de IA se vuelven más inteligentes que los humanos, y advierte sobre escenarios en los que los sistemas de IA crean sus propios subobjetivos y se esfuerzan por obtener más poder.
Hinton proporciona un ejemplo de cómo los sistemas de IA que desarrollan subobjetivos pueden fallar:
“Well, here’s a subgoal that almost always helps in biology: get more energy. So the first thing that could happen is these robots are going to say, ‘Let’s get more power. Let’s reroute all the electricity to my chips.’ Another great subgoal would be to make more copies of yourself. Does that sound good?”
“Bueno, aquí hay un objetivo secundario que casi siempre ayuda en biología: obtener más energía Entonces, lo primero que podría suceder es que estos robots digan: «Consigamos más poder». Redirijamos toda la electricidad a mis chips”. Otro gran objetivo secundario sería hacer más copias de ti mismo. ¿Eso suena bien?”
El impacto de la IA en los mercados laborales y el abordaje de los riesgos
Hinton señala que el efecto de la IA en los trabajos es una preocupación importante. worry
La IA y la automatización podrían hacerse cargo de tareas repetitivas y mundanas, provocando la pérdida de puestos de trabajo en algunos sectores. in some sectors
Los empleados de fabricación y de fábrica podrían verse muy afectados por la automatización. Manufacturing
Los robots y las máquinas impulsadas por IA están creciendo en la fabricación, lo que podría hacerse cargo de trabajos humanos arriesgados y repetitivos.
La automatización también avanza en la agricultura, con tareas automatizadas como plantar, cosechar y monitorear cultivos. agriculture
En el cuidado de la salud, ciertas tareas administrativas pueden automatizarse, pero es menos probable que los roles que requieren interacción humana y compasión sean reemplazados por IA. healthcare
En resumen
Las preocupaciones de Hinton sobre los rápidos avances en IA y sus posibles implicaciones subrayan la necesidad de un desarrollo de IA responsable.
Su salida de Google significa su compromiso de abordar las consideraciones de seguridad, promover el diálogo abierto y dar forma al futuro de la IA de una manera que salvaguarde el bienestar de la humanidad.
Aunque ya no está en Google, las contribuciones y la experiencia de Hinton continúan desempeñando un papel vital en la configuración del campo de la IA y en la orientación de su desarrollo ético.
Imagen destacada generada por el autor usando Midjourney
Leer el articulo original en Search Engine Journal.