Es noticia
La paradoja del gorila y la llegada de la inteligencia artificial general
  1. Economía
  2. El Observatorio del IE
Ignacio de la Torre

El Observatorio del IE

Por

La paradoja del gorila y la llegada de la inteligencia artificial general

Si llega la IA general, entonces existirá una posibilidad no desdeñable de que el ser humano acabe en el zoo, y las inteligentes máquinas, observándonos desde fuera

Foto: Mustafa Suleyman, uno de los fundadores de DeepMind. (Reuters/Archivo/Brendan McDermid)
Mustafa Suleyman, uno de los fundadores de DeepMind. (Reuters/Archivo/Brendan McDermid)
EC EXCLUSIVO Artículo solo para suscriptores

Mustafa Suleyman, uno de los fundadores de DeepMind, nos explica en su libro La ola que viene la “paradoja del gorila”: si un gorila es más fuerte que un ser humano, ¿por qué el que está encerrado en el zoo es el gorila y no el humano? La respuesta obvia está ligada a la mayor inteligencia del humano, inteligencia que se traduce en capacidad para dominar al medio y reproducirse más rápidamente. Sin embargo, según el autor, la pregunta que surge sería: ¿qué ocurrirá cuando las máquinas sean más inteligentes que los humanos?, ¿quién acabará en el zoo?

El origen de la inteligencia artificial (IA) —y entendemos por ella la capacidad para replicar inteligencia humana por parte de una máquina para realizar un proceso — se remonta a los años cincuenta. Esta IA se conoce como “IA estrecha”. Por ejemplo, un coche autónomo frena al observar una luz roja, y sigue adelante cuando ve que es verde. Hasta ahora, las aplicaciones desarrolladas por la IA estrecha han conseguido mejoras relativas en muchos procesos, pero no han superado a la inteligencia humana en tareas concretas, y mucho menos en la mayoría de las que acomete. Solo existen unas pocas excepciones, como la victoria en 1997 de Deep Blue de IBM sobre el campeón del mundo de ajedrez Kasparov, tras la cual el maestro ruso afirmó: “Al menos sé que mi oponente no lo ha disfrutado”.

Para conseguir actividades como la de que un coche autónomo frene en rojo, hizo falta que las máquinas fueran capaces de "ver". El desarrollo de esa tecnología fue muy trabajoso. Lo consiguió en 2012 la red AlexNet a través de las llamadas “redes neuronales”. Uno de sus principales autores, Geoffrey Hinton, es considerado uno de los padres de la IA. Las redes neuronales se aprovecharon para seguir entrenando a la IA. Sus desarrollos fueron notables, por ejemplo, la victoria obtenida por DeepMind sobre el campeón del mundo de GO, el antiquísimo juego de mesa chino, en 2016.

Sin embargo, la aplicación más sorprendente de las redes neuronales fue el desarrollo de la IA generativa, aquella que nutre por ejemplo ChatGPT-4 y modelos similares como Gemini, Claude o Llama. Mediante el entrenamiento masivo de redes neuronales sobre textos, imágenes y videos, la máquina consigue generar nuevos textos, conversaciones, imágenes y videos en función de ciertas instrucciones. Sus implicaciones para el conjunto de la economía mundial serán muy profundas. Además, el entrenamiento masivo de estos modelos podría acelerar el momento en el que la “máquina” sea capaz de razonar. De hecho, Open AI y Meta afirmaron recientemente que sus nuevos modelos (ChatGPT-5 y Llama-3 respectivamente) serán capaces de hacerlo. Otro paso de gigante hacia la IA general.

Foto: Mustafa Suleyman. (Cedida)

Se considera que la llegada de la IA general se producirá en el momento en el que una máquina esté dotada de una inteligencia capaz de emular la de un humano en muchos frentes, aspecto que quizás pueda estar ligado a la generación de “sentido común” o de “consciencia” por parte de la máquina. Este momento se conoce como “singularidad”, y podría marcar el punto en el que la evolución tecnológica se vuelva imprevisible y quizás irreversible. A su vez, se considera “superinteligencia” el momento en el que una máquina será capaz de superar a un humano en todas sus funciones.

Hasta ahora, la mayoría de los expertos consideraba que aún faltaban muchos años para llegar a la singularidad y todavía más para la super IA. Recientemente Elon Musk sorprendió afirmando que a finales de 2025 se habrá alcanzado la singularidad, y que antes de 2030 habremos llegado a la superinteligencia. Aunque Musk se ha equivocado en algunas predicciones, en esta cuenta con el apoyo de Sam Altman (CEO de Open AI), y en cierta medida de un número considerable de expertosque pidieron hace año y medio una moratoria en el entrenamiento de la IA generativa (de nuevo, porque el entrenamiento masivo que permite esta tecnología podría acelerar la singularidad y aún no somos conscientes de sus implicaciones y los riesgos que presenta para la humanidad).

Foto: Gato, es una nueva IA capaz de realizar 607 tareas distintas. (Teslabot - Tesla)

Hinton fue uno de los firmantes. Considera que la IA es superior a la humana porque su modelo de aprendizaje es mejor y más completo, entre otras cosas, porque cuando un humano muere, su inteligencia y conocimientos lo hacen con él, en tanto que las máquinas a priori no están afectadas por la mortalidad, y su aprendizaje sigue siendo continuo. La IA generativa cuando aprende algo nuevo, lo retiene a futuro. Esto genera un sistema de aprendizaje que es más eficaz, rápido y escalable que el de la inteligencia humana, por eso la superará, según Hinton. Para este autor, como al alcanzar la superinteligencia existirán varios modelos que compitan entre sí, será improbable que tengan una naturaleza benevolente, ya que esa competencia les hará desarrollar instintos animales parecidos a los de los humanos. Por eso existe un riesgo de que estas inteligencias acaben enfrentándose, y quizás dominando, a la posiblemente inferior naturaleza humana.

De ahí que Suleyman vuelva a la “paradoja del gorila”. Si llega la IA general, entonces existirá una posibilidad no desdeñable de que el ser humano acabe en el zoo y las inteligentes máquinas, observándonos desde fuera.

Mustafa Suleyman, uno de los fundadores de DeepMind, nos explica en su libro La ola que viene la “paradoja del gorila”: si un gorila es más fuerte que un ser humano, ¿por qué el que está encerrado en el zoo es el gorila y no el humano? La respuesta obvia está ligada a la mayor inteligencia del humano, inteligencia que se traduce en capacidad para dominar al medio y reproducirse más rápidamente. Sin embargo, según el autor, la pregunta que surge sería: ¿qué ocurrirá cuando las máquinas sean más inteligentes que los humanos?, ¿quién acabará en el zoo?

Inteligencia Artificial
El redactor recomienda