Es noticia
Zuckerberg es 'corto', o por qué Elon Musk tiene razón sobre los peligros de la AI
  1. Tecnología
  2. Homepage
Manuel Ángel Méndez

Homepage

Por

Zuckerberg es 'corto', o por qué Elon Musk tiene razón sobre los peligros de la AI

Elon Musk y Mark Zuckerberg se han enzarzado sobre el riesgo que corre la humanidad (o no) de verse superada por las máquinas. ¿Hay que preocuparse?

Foto: Zuckerberg (d) y Elon Musk. (EC)
Zuckerberg (d) y Elon Musk. (EC)

Elon Musk (Tesla, SpaceX) y Mark Zuckerberg (Facebook) se han enzarzado en internet haciendo algo que nos encanta al resto de los mortales pero que también pierde a los megamillonarios: lanzar 'zascas'. Todo empezó con una pregunta inocente y acabó con Elon Musk llamando "limitado" a Zuckerberg por no entender los riesgos que, según él, supone la inteligencia artificial (AI) para la humanidad. Hay pocas personas que se pueden permitir llamar corto en fino a Mark y Elon es tal vez una de ellas. Lo mejor es que cada vez más datos y experimentos le dan la razón (con lo de los riesgos...).

Foto: Imagen de un escáner cerebral tras ser analizada por una red neuronal 'Deep Dream' creada por Google. (Foto: Juan Sánchez Ramos)

La pregunta que generó este pequeño terremoto en la cumbre de Silicon Valley fue más bien inocente. "¿Qué opinas de las advertencias de Elon Musk sobre los peligros de la inteligencia artificial?", le lanzó un usuario de Facebook a Mark Zuckerberg durante una entrevista en directo. "Tengo opiniones muy claras sobre esto. Los negacionistas o los que tratan de ensalzar escenarios apocalípticos... simplemente no les entiendo. Creo que es muy negativo y, de alguna forma, muy irresposable", explicó. La respuesta de Musk tardó solo unas horas en llegar:

"He hablado con Mark sobre esto. Su comprensión del tema es limitada". En internet, claro, se desató el cachondeo.

Pero eso fue solo al principio. Luego llegaron algunos apuntes certeros de por qué Musk es más de fiar que Zuckerberg en este frente. Cada vez más científicos, ingenieros e investigadores, entre ellos 1.000 de los principales conocedores de esta materia a nivel mundial, desde Stephen Hawking a los cofundadores de DeepMind (Google), están de acuerdo en lo mismo. Es necesario regular la creación de inteligencia artificial y su aplicación a decenas de sectores (defensa, sanidad, justicia...) antes de que sea demasiado tarde. ¿Por qué?

Una primera respuesta está en la siguiente imagen:

El gráfico se explica por sí solo, pero hay una palabra clave que Musk de hecho ha repetido en muchas ocasiones para alertar de los peligros de la inteligencia artificial: exponencial. Los avances en este terreno se realizan de manera exponencial, tanto en 'software' como en 'hardware'. El objetivo mismo de la investigación en inteligencia artificial, conseguir un sistema que imite primero y supere después al cerebro y la inteligencia humana, hace que estos avances, por definición, evolucionen de forma exponencial y no linear.

La única forma de conseguir que un programa imite y supere la inteligencia humana es que aprenda sobre la marcha. Que observe, tome decisiones, se equivoque, aprenda de la experiencia y vuelva a empezar. Si repites ese proceso miles de veces es posible conseguir un 'software' que, a cada tanda, se haga exponencialmente más inteligente. De eso justo se encargan disciplinas como las redes neuronales artificiales, el 'machine y deep learning' o los algoritmos genéticos.

Hemos creado un 'software' inteligente que funciona, pero no sabemos por qué funciona tan bien

En lo primero, en las redes neuronales, ya se han realizado avances importantes en compañías como DeepMind, propiedad de Google. Como explica bien Tim Urban en esta serie de artículos, estamos muy cerca de "plagiar el cerebro". ¿Cómo funciona una red neuronal artificial? Al igual que cada parte del cerebro humano se encarga de diferentes tareas (procesado del habla, colores, olores, formas...), una red neuronal artificial se compone de diferentes capas de cálculo. Por un lado entra la información, por ejemplo, la foto de un gato. Esa información se va distribuyendo al resto de capas de análisis (20, 30 o más), hasta llegar a una conclusión. Sí, es la foto de un gato.

En todo este proceso el programa va aprendiendo de sí mismo. A cada salto a la siguiente capa de análisis, aprende, memoriza, vuelve a analizar y a aprender. Así millones de veces. Es una mejora exponencial. Al final es capaz de hacer lo que hoy ya conocemos: ganar a campeones mundiales del juego Go o reconocer fotos de forma totalmente automática. Lo fascinante es lo que ocurre en ese proceso. "Hemos creado un 'software' inteligente que funciona, pero no sabemos por qué funciona tan bien", explicaba recientemente a este diario un investigador de DeepMind. Ese es el principal miedo: enfrentarse a un programa tan potente que piensa por sí solo, toma decisiones por sí solo y no sabemos cómo. Es el llamado 'efecto caja' negra: como no sabemos qué ocurre dentro, no podemos controlarlo.

placeholder ¿Exagera Musk?
¿Exagera Musk?

A este escenario hay que añadir otro más: redes neuronales conectadas entre sí para formar una inteligencia colectiva. Igual que los humanos nos comunicamos para producir nuevas ideas y proyectos (cerebros 'conectados'), igual que internet interconecta a millones de ordenadores, sería posible crear una red global de inteligencia artificial que estuviera constantemente mejorando y aprendiendo. Es lo que decenas de ingenieros e investigadores, desde el criticado Ray Kurzweil al respetado Nick Bostrom, se refieren como 'superinteligencia' o ' singularidad'. No sabemos si ocurrirá y, si lo hace, cuándo. Pero lo cierto es que la base tecnológica ya está ahí. Ya se ha logrado. Dar el siguiente paso, saltar de la inteligencia artificial débil, a la AI fuerte, equiparable o superior a la inteligencia humana, es para mucho solo cuestión de décadas.

Prevenir vs corregir sobre la marcha

Ahora volvamos a los zascas. A Elon Musk se le ha tildado muchas veces de alarmista por sus predicciones sobre inteligencia artificial. Pero su argumento es tan sencillo como pragmático: establezcamos reglas para la AI antes de que sea demasiado tarde y complejo. Si algo tan simple como una plataforma tecnológica llamada Uber o Cabify está causando semejantes conflictos sociales y laborales en la actualidad, ¿qué no pueden causar programas de AI avanzados aplicados a sanidad, justicia o defensa?

placeholder

La estrategia de Mark Zuckerberg es la contraria: solucionar errores sobre la marcha una vez ya se han cometido. Vía libre para desarrollar todo tipo de proyectos de AI. "En el camino ya iremos viendo cómo la hacemos segura", dijo el año pasado. Esa ha sido justo la estrategia de Facebook desde su nacimiento. Experimentar. Cometer errores. Recular si es necesario. No pasa nada si se trata de una red social o realidad virtual. 'Solo' cabreas a tus usuarios. Pero si de lo que estamos hablando es de sistemas que toman decisiones por sí mismos, decisiones que no entendemos ni controlamos, sistemas que un día pueden componer las tripas de un coche, un arma o un robot cuidador o policía, entonces el asunto está más claro. Musk, líbranos de Zuck.

Elon Musk (Tesla, SpaceX) y Mark Zuckerberg (Facebook) se han enzarzado en internet haciendo algo que nos encanta al resto de los mortales pero que también pierde a los megamillonarios: lanzar 'zascas'. Todo empezó con una pregunta inocente y acabó con Elon Musk llamando "limitado" a Zuckerberg por no entender los riesgos que, según él, supone la inteligencia artificial (AI) para la humanidad. Hay pocas personas que se pueden permitir llamar corto en fino a Mark y Elon es tal vez una de ellas. Lo mejor es que cada vez más datos y experimentos le dan la razón (con lo de los riesgos...).

Elon Musk