Las 5 principales preocupaciones éticas planteadas por el pionero de la IA Geoffrey Hinton

El pionero de la IA, Geoffrey Hinton, conocido por su trabajo revolucionario en el aprendizaje profundo y la investigación de redes neuronales, ha expresado recientemente su preocupación por los rápidos avances en la IA y las posibles implicaciones.

A la luz de sus observaciones de nuevos modelos de lenguaje grande como GPT-4, Hinton advierte sobre varios problemas clave:

  1. Máquinas que superan la inteligencia humana: Hinton cree que los sistemas de IA como GPT-4 están en camino de ser mucho más inteligentes de lo previsto inicialmente, y que podrían poseer mejores algoritmos de aprendizaje que los humanos.
  2. Riesgos de que los chatbots de IA sean explotados por «malos actores»: Hinton destaca los peligros de usar chatbots inteligentes para difundir información errónea, manipular a los electores y crear poderosos spambots.
  3. Capacidades de aprendizaje de pocas tomas: Los modelos de IA pueden aprender nuevas tareas con solo unos pocos ejemplos, lo que permite que las máquinas adquieran nuevas habilidades a un ritmo comparable o incluso superior al de los humanos.
  4. Riesgo existencial que plantean los sistemas de IA: Hinton advierte sobre escenarios en los que los sistemas de IA crean sus propios subobjetivos y se esfuerzan por obtener más poder, superando la acumulación de conocimiento humano y las capacidades de intercambio.
  5. Impacto en los mercados de trabajo: La IA y la automatización pueden desplazar puestos de trabajo en ciertas industrias, siendo particularmente afectadas la fabricación, la agricultura y la atención médica.

En este artículo, profundizamos en las preocupaciones de Hinton, su salida de Google para centrarse en los aspectos éticos y de seguridad del desarrollo de IA, y la importancia del desarrollo de IA responsable para dar forma al futuro de las relaciones entre humanos e IA.

Salida de Hinton de Google y desarrollo ético de IA

En su búsqueda por abordar las consideraciones éticas y de seguridad que rodean a la IA, Hinton decidió abandonar su puesto en Google.

Esto le permite la libertad de expresar abiertamente sus preocupaciones y participar en un trabajo más filosófico sin las limitaciones de los intereses corporativos.

Hinton afirma en un entrevista con MIT Technology Review:

“Quiero hablar sobre problemas de seguridad de la IA sin tener que preocuparme por cómo interactúa con el negocio de Google. Mientras me pague Google, no puedo hacer eso”.

La partida de Hinton marca un cambio en su enfoque hacia los aspectos éticos y de seguridad de AI. Su objetivo es participar activamente en los diálogos en curso sobre el desarrollo y despliegue responsable de IA.

Aprovechando su experiencia y reputación, Hinton tiene la intención de contribuir al desarrollo de marcos y pautas que aborden cuestiones como el sesgo, la transparencia, la responsabilidad, la privacidad y el cumplimiento de los principios éticos.

GPT-4 y malos actores

Durante un entrevista reciente, Hinton expresó su preocupación por la posibilidad de que las máquinas superen la inteligencia humana. Las impresionantes capacidades de GPT-4desarrollado por OpenAI y lanzado a principios de este año, han hecho que Hinton reevalúe sus creencias anteriores.

Él cree que los modelos de lenguaje como GPT-4 están en camino de ser mucho más inteligentes de lo que se anticipó inicialmente, y que podrían poseer mejores algoritmos de aprendizaje que los humanos.

Hinton afirma en la entrevista:

“Nuestros cerebros tienen 100 billones de conexiones. Los modelos de lenguaje grande tienen hasta medio billón, un billón como máximo. Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Así que tal vez en realidad tenga un algoritmo de aprendizaje mucho mejor que el nuestro”.

Las preocupaciones de Hinton giran principalmente en torno a las importantes disparidades entre las máquinas y los humanos. Él compara la introducción de grandes modelos lingüísticos con una invasión extraterrestre, enfatizando sus habilidades y conocimientos lingüísticos superiores en comparación con cualquier individuo.

Hinton afirma en la entrevista:

“Estas cosas son totalmente diferentes a nosotros. A veces pienso que es como si hubieran aterrizado extraterrestres y la gente no se ha dado cuenta porque hablan muy bien el inglés”.

Hinton advierte sobre los riesgos de que los chatbots de IA se vuelvan más inteligentes que los humanos y sean explotados por “malos actores”.

En la entrevista, advierte que estos chatbots podrían usarse para difundir información errónea, manipular a los electores y crear poderosos spambots.

“Mira, aquí hay una forma en que todo podría salir mal. Sabemos que muchas de las personas que quieren usar estas herramientas son malos actores como Putin o DeSantis. Quieren usarlos para ganar guerras o manipular electorados”.

Aprendizaje de pocas oportunidades y supremacía de la IA

Otro aspecto que preocupa a Hinton es la capacidad de los grandes modelos lingüísticos para realizar aprendizaje de pocos disparos.

Estos modelos se pueden entrenar para realizar nuevas tareas con algunos ejemplos, incluso tareas para las que no fueron entrenados directamente.

Esta notable capacidad de aprendizaje hace que la velocidad a la que las máquinas adquieren nuevas habilidades sea comparable, o incluso supere, a la de los humanos.

Hinton afirma en la entrevista:

«Gente[‘s brains] parecía tener algún tipo de magia. Bueno, ese argumento se derrumba tan pronto como tomas uno de estos grandes modelos de lenguaje y lo entrenas para hacer algo nuevo. Puede aprender nuevas tareas extremadamente rápido”.

Las preocupaciones de Hinton van más allá del impacto inmediato en los mercados laborales y las industrias.

El levanta el “riesgo existencial” de lo que sucede cuando los sistemas de IA se vuelven más inteligentes que los humanos, advirtiendo sobre escenarios en los que los sistemas de IA crean sus propios subobjetivos y se esfuerzan por obtener más poder.

Hinton proporciona un ejemplo de cómo los sistemas de IA que desarrollan subobjetivos pueden fallar:

“Bueno, aquí hay una meta secundaria que casi siempre ayuda en biología: obtener más energía. Entonces, lo primero que podría suceder es que estos robots digan: ‘Consigamos más poder’. Redirijamos toda la electricidad a mis chips. Otro gran objetivo secundario sería hacer más copias de ti mismo. ¿Eso suena bien?”

El impacto de la IA en los mercados laborales y el abordaje de los riesgos

Hinton señala que El efecto de la IA en los trabajos es un significativo preocuparse.

La IA y la automatización podrían hacerse cargo de tareas repetitivas y mundanas, causando la pérdida de empleos en algunos sectores.

Fabricación y los empleados de la fábrica podrían verse muy afectados por la automatización.

Los robots y las máquinas impulsadas por IA están creciendo en la fabricación, lo que podría hacerse cargo de trabajos humanos arriesgados y repetitivos.

La automatización también avanza en agriculturacon tareas automatizadas como siembra, cosecha y monitoreo de cultivos.

En cuidado de la saludciertas tareas administrativas se pueden automatizar, pero es menos probable que los roles que requieren interacción humana y compasión sean reemplazados completamente por IA.

En resumen

Las preocupaciones de Hinton sobre los rápidos avances en IA y sus posibles implicaciones subrayan la necesidad de un desarrollo de IA responsable.

Su salida de Google significa su compromiso de abordar las consideraciones de seguridad, promover el diálogo abierto y dar forma al futuro de la IA de una manera que salvaguarde el bienestar de la humanidad.

Aunque ya no está en Google, las contribuciones y la experiencia de Hinton continúan desempeñando un papel vital en la configuración del campo de la IA y en la orientación de su desarrollo ético.


Imagen destacada generada por el autor usando Midjourney

#Las #principales #preocupaciones #éticas #planteadas #por #pionero #Geoffrey #Hinton