La mano visible
Por
La economía de la inteligencia artificial: unas ideas básicas
Comienzo hoy una serie de entradas sobre la economía de la inteligencia artificial. Durante varios meses, quiero reflexionar sobre cómo la inteligencia artificial afectará a la vida económica de todos nosotros
Mi motivación es doble. De manera más directa, el lanzamiento de GPT-4, el último modelo de lenguaje de gran tamaño de OpenAI, con su enorme salto en capacidades con respecto a modelos de lenguaje anteriores, ha demostrado la velocidad inusitada de los avances en este campo. Podemos estar entrando en una nueva era de la historia económica de la humanidad, como ocurrió con la llegada de la industrialización o la adopción de la agricultura. De manera más indirecta, la economía de la inteligencia artificial enlaza con los temas que ya he tratado en El Confidencial, desde mi más reciente serie sobre la industria de los semiconductores a mi serie (con Tano Santos) sobre la política económica del estancamiento de España o el futuro demográfico de la humanidad. En algunos casos, la conexión es obvia (¿por qué es clave la industria de semiconductores para la inteligencia artificial?, ¿puede aminorar la inteligencia artificial los problemas causados por el envejecimiento de la población y la caída de la fertilidad?). En otros, necesitaré desarrollar el argumento en detalle (¿solucionará la inteligencia artificial el estancamiento económico de España o lo profundizará?, ¿cómo afectará la inteligencia artificial a la desconexión económica de Madrid del resto de España?).
La economía de la inteligencia artificial tiene una enorme extensión, desde los aspectos tecnológicos y sus efectos en el mercado de trabajo a las implicaciones en las relaciones económicas internacionales y la geoestrategia, pasando por los retos en la regulación de las empresas y las políticas de defensa de la competencia. Por tanto, no puedo aspirar a un tratamiento enciclopédico del tema. Hay gruesos libros sobre este campo y ni estos, con sus cientos de páginas, pueden abarcar todo el material (aunque periódicamente enlazaré a algunos de estos libros, como, por ejemplo, Prediction Machines: The Simple Economics of Artificial Intelligence de Ajay Agrawl, Joshua Gans y Avi Goldfarb). Mi enfoque será más impresionista, esbozando aquellos aspectos de la economía de la inteligencia artificial que me resultan más interesantes o en los que mi nivel de conocimiento es adecuado. Yo investigo en el área de aprendizaje profundo, doy cursos de doctorado en mi universidad y otras instituciones sobre este tema y codirijo un seminario que cubre nuevos trabajos académicos al respecto, lo que me permitirá exponer sobre el mismo con cierta seguridad. En otros aspectos, como las posibles consecuencias éticas de la inteligencia artificial, tendré poco que decir no por su falta de importancia, sino porque mis opiniones no tienen el valor añadido suficiente como para pedirle al lector que me preste su atención para leerlas.
Inteligencia artificial no es diseñar un robot que ponga un tornillo en un coche en una cadena de producción cuando llegue el momento
Finalmente, una breve advertencia. Intentaré, siempre que pueda, emplear terminología en español. No entiendo el motivo por el que en España se utilice el anglicismo machine learning, cuando tenemos el término aprendizaje automático, que no solo se edifica sobre la tradición de nuestro idioma común, sino que es más preciso que su equivalente en inglés. La clave de estos algoritmos es que son automáticos; que se ejecuten en un ordenador, en una máquina biológica o analógica o, incluso, a mano no importa excepto por la velocidad de cálculo (este fenómeno se llama independencia del sustrato).
Mi primera tarea es definir, de manera provisional, qué entendemos por inteligencia artificial. El libro de texto más popular internacionalmente, la cuarta edición del Artificial Intelligence: A Modern Approach, de Stuart Russell y Peter Norvig, define la inteligencia artificial como el campo del conocimiento que busca diseñar máquinas (como ordenadores y robots) que puedan actuar de manera eficiente y segura en un amplio abanico de situaciones novedosas. Inteligencia artificial no es diseñar un robot que ponga un tornillo en un coche en una cadena de producción cuando llegue el momento, sino diseñar un robot que sepa interpretar que el coche ha llegado torcido a la izquierda o que el tornillo está roto, y sea capaz de reaccionar de manera sensata ante esta situación inesperada.
Esta definición es importante, pues distingue entre dos fenómenos diferentes: inteligencia artificial y automatización. Esta última comprende el uso de la tecnología para eliminar la intervención humana, independientemente de si este proceso incluye o no la inteligencia artificial. Los que vamos entrando ya en años nos acordamos de un proceso de automatización no muy inteligente que aparece en la primera escena de Regreso al futuro: Doc Brown ha desarrollado varias máquinas para prepararle un desayuno (a él y su perro Einstein) de manera automática, pero estas no saben reaccionar ante el hecho básico de su ausencia durante varios días. Obviamente, la inteligencia artificial permite desarrollar procesos de automatización mucho más sofisticados (a ello volveré en futuras entradas), pero es útil recordar la diferencia entre estos dos fenómenos. Llevamos automatizando cadenas de producción desde hace 200 años y sabemos más sobre los claroscuros de este fenómeno que sobre las consecuencias de la inteligencia artificial.
La definición que he presentado, además, se salta muchos temas espinosos: ¿qué significa entender algo? O ¿qué es la inteligencia? Estos son temas fascinantes, que hemos debatido durante siglos, en la tradición intelectual de Occidente, al menos desde Aristóteles (este artículo repasa estas ideas). Pero hoy esquivaré estas discusiones, pues son menos relevantes para las consecuencias económicas de la inteligencia artificial en las que me quiero centrar. Mi definición de inteligencia es meramente operativa: ¿podemos diseñar un robot que, cuando suba las escaleras de una casa y vea un juguete que ha dejado un niño, sepa esquivarlo y no tropezarse? El que el robot entienda (signifique lo que signifique entender) que, si no esquiva el juguete se caería, no me preocupa para esta entrada.
La inteligencia artificial incluye diversas tareas. Necesitamos una máquina que sea capaz de comunicarse en lenguaje natural con los seres humanos, no en lenguajes de programación formales. A veces, cuando un amigo me pregunta cómo me va el día, respondo: "¡Bah!". Una máquina con inteligencia artificial no solo debe entender que "¡bah!" significa que "voy tirando" (algo que puedo programar fácilmente), sino también los miles de variaciones de sonidos ("¡puff!", "¡ñah!") que todos entendemos como prueba de un sentimiento mixto de cómo nos enfrentamos esta mañana a la vida, aunque no las hayamos oído nunca. Pero también necesitamos encontrar maneras de ver el juguete en la escalera al que me refería en el párrafo anterior, representar informaciones complejas (como el tono de una respuesta, que muchas veces es más informativo que las palabras) o saber reaccionar ante situaciones que jamás hemos experimentado anteriormente. La multitud de tareas es tal que distinguimos entre la inteligencia artificial fuerte (o general), en la que buscamos diseñar una máquina que sea inteligente en un rango muy amplio de tareas (desde subir una escalera a cortar la hierba del jardín); y la inteligencia artificial débil, en la que construimos una máquina que sepa enfrentarse a una tarea específica (poner un tornillo en la fabricación de un coche). Existe un tercer concepto, la inteligencia artificial superfuerte (o super inteligencia artificial), que implicaría una máquina que no solo supiera ser inteligente en un rango muy amplio de tareas, sino serlo mucho más que cualquier ser humano.
Podemos datar el origen de la inteligencia artificial en 1943, a raíz de un artículo pionero de Warren McCulloch y Walter Pitts (este último tuvo una vida trágica en la que debió lidiar con numerosos problemas personales y su alcoholismo; con algo de mejor suerte, podría haber alcanzado cotas de genialidad inusitadas). McCulloch y Pitts argumentaron que las neuronas en el sistema nervioso humano podían representarse por medio de una estructura matemática trivial: encendidas (un 1) o apagadas (un 0), con un cambio de encendida a apagada (o viceversa) inducido como respuesta a una señal (ver un juguete en la escalara). Aunque parezca increíble, McCulloch y Pitts demostraron (y esto en un teorema matemático, no una conjetura o evidencia empírica) que cualquier función matemática computable podía ser representada por un conjunto suficientemente grande de estas neuronas artificiales. Pronto nos dimos cuenta de que podíamos generalizar la idea y permitir que las neuronas estuviesen en situaciones intermedias entre 0 y 1, determinadas por unos pesos específicos, pero esto es un detalle irrelevante para entender los párrafos siguientes.
¿Por qué es este resultado de McCulloch y Pitts tan importante? Porque una función matemática no es nada más que un objeto que, dada una entrada (la presencia o ausencia de un juguete del niño en la escalera que detecta el sensor óptico del robot), genera una salida (mover la pierna izquierda del robot cinco centímetros hacia un lado y esquivar el juguete). Todos los aspectos de inteligencia a los que me refería antes, desde interpretar el tono de una conversación a deducir qué significan esos "¡bah!" y "¡ñah!", son, a un nivel fundamental, exactamente lo mismo: funciones matemáticas, quizás increíblemente complejas, pero funciones, al fin y al cabo.
Pero saber que existe una función que, dada la señal del sensor óptico del robot, genere la salida correcta de movimiento de su pierna es muy diferente que saber cuál es esa función. Piénselo como cuando usted se enfrentaba a una ecuación en un examen del bachillerato: una cosa es saber que esa ecuación tiene una solución (algo que el profesor le había asegurado de manera veraz en el enunciado del examen) y otra muy distinta saber cuál es esa solución.
Pronto, los investigadores empezaron a jugar con la idea de McCulloch y Pitts para saber cuáles eran las funciones que nos interesaban. Por ejemplo, combinando estas neuronas, creamos redes neuronales artificiales como las de Terminator. Estas redes se pueden programar para que "aprendan" la función que estamos buscando si tenemos suficientes datos para enseñarles. Volviendo a nuestro ejemplo del robot y las escaleras: mostramos a nuestra red neuronal miles y miles de escaleras, con cantidad de obstáculos diferentes, y le indicamos las respuestas adecuadas a cada obstáculo. La red neuronal selecciona los pesos entre sus neuronas (cuándo encenderse o apagarse) para que responda, al ver esos obstáculos, como le hemos indicado que tiene que responder. Empleando estos pesos, la red neuronal decidirá qué hacer cuando se encuentre con nuevas situaciones en la vida real diferentes de los datos de entrenamiento. Este paso se llama generalización. En otras palabras, en vez de intentar darle al robot reglas detalladas ("un obstáculo en una escalera es un objeto que cumple con las características siguientes…"), le enseñamos cómo imitar (aprender) las respuestas a situaciones semejantes ("¿tiene este objeto que he visto en la escalera las mismas propiedades —tamaño, color…— que los objetos que me dijeron en mis datos de entrenamiento que si los veía me tenía que mover cinco centímetros a la izquierda?"). Como este aprendizaje, que llamamos entrenar la red, se realiza por medio de un algoritmo predeterminado, decimos que es aprendizaje automático. En Estados Unidos, quitaron lo de automático y pusieron de máquinas (machine learning en vez de automatic learning) por aquello de que impresiona más a los que no saben del tema.
Cuando estas redes neuronales artificiales se acumulan en muchas capas unas encima de otras, las llamamos redes neuronales profundas, y el área del conocimiento que las estudia, aprendizaje profundo (las diapositivas que empleo en clase para introducir estas ideas están aquí). En este caso, profundo solo significa que la red es muy larga de comienzo al fin, no que sea profunda como un libro de filosofía. Es resumen, en el campo general de la inteligencia artificial existe un subcampo, el aprendizaje automático, y, dentro de este, como en las muñecas rusas, otro subcampo: el aprendizaje profundo. Hay muchos otros subcampos en inteligencia artificial que comenzaron después de 1943, como los sistemas expertos, pero, en estos momentos, es el aprendizaje profundo el que copa todos los titulares en los medios de comunicación por sus recientes éxitos prácticos. De hecho, los modelos de lenguaje de gran tamaño como ChatGPT, con el que seguro que más de uno ha jugado, no son más que una aplicación del aprendizaje profundo.
Si todo esto ya lo sabíamos, en principio, desde 1943 con la contribución de McCulloch y Pitts, uno se puede preguntar: ¿por qué ahora se ha convertido en tan relevante? ¿Qué ha cambiado? Tres cosas. Primero, para aproximar bien funciones matemáticas increíblemente complejas, como los modelos de lenguaje de gran tamaño, uno necesita millones y millones de neuronas artificiales. Hasta hace poco, los ordenadores no podían procesar tantísimas neuronas artificiales. Cuando yo estudiaba la carrera en los 90, programé una red neuronal muy sencillita en el PC que tenía en casa y aquello tardaba una vida y media en correr. Quizá después de esta explicación se entienda mejor la guerra por el control de los semiconductores que narré en mi entrada anterior: mejores semiconductores permiten tener redes de neuronas artificiales más grandes, redes de neuronas artificiales más grandes permiten aproximar más y mejor las funciones matemáticas que queremos, sean estas las del robot evitando el juguete en la escalera (algo que en el Pentágono importa relativamente poco) o el dron disparando el misil contra el enemigo en el momento adecuado (algo que en el Pentágono importa mucho).
Segundo, que ahora tenemos muchísimos más datos que antes. Como explicaba anteriormente, uno tiene que entrenar la red neuronal: enseñarle cómo procesar una señal (el juguete en la escalera) para obtener la respuesta adecuada (mueve la pierna mecánica cinco centímetros a la izquierda). Para eso necesitamos muchísimos datos de muchísimas escaleras, de todo tipo y tamaño y con todos los obstáculos que se nos ocurran, desde un autobús de juguete del Athletic Bilbao a una camiseta que ha tirado el niño el tercer escalón o las migas de la galleta que le dimos al muchacho hace media hora. Hoy, gracias a internet, tenemos varios órdenes de magnitud más de datos (fotos, sonidos, textos) que hace pocos años y podemos entrenar a la red neuronal mejor que nunca.
No solo están las redes neuronales profundas mejorando a tremenda velocidad
Tercero, en las últimas décadas hemos aprendido los detalles de cómo diseñar y entrenar estas redes neuronales de manera eficiente. Muchas de las mentes más brillantes en informática, matemáticas e ingeniería han dedicado innumerables horas a pulir la teoría y práctica del aprendizaje profundo. Por ejemplo, cuando programé mi primera red, lo tuve que hacer empezando de cero y empleando un lenguaje de programación antediluviano, pero que era el único lo suficientemente rápido en aquel entonces. Hoy hay muchísimas herramientas de código abierto, que hacen que este trabajo sea infinitamente más sencillo. Hay incluso páginas en la red donde se puede jugar con estas redes neurales sin tener que saber nada de programación: en mis clases siempre empleo TensorFlow Playground, por lo sencillita e intuitiva que es. Algunos de los detalles de los avances en métodos son un pelín complejos para esta entrada, pero el que tenga más ganas debería ver este vídeo sobre la geometría del aprendizaje profundo, que me cambió la visión sobre mi propia investigación.
Es esta combinación de ordenadores más potentes, más datos y mejores métodos, la que nos ha llevado a una situación que, hace 10 años, habríamos pensado que pertenecía a la ciencia ficción. Es más, no solo están las redes neuronales profundas mejorando a tremenda velocidad, lo están haciendo de una manera tan rápida, incluso superexponencial —es decir, más rápido que una función exponencial—, que es difícil aventurar dónde estaremos en 2025 o 2030.
A este respecto, existen dos posibilidades. La primera es que continuemos durante varios años con el crecimiento superexponencial que hemos visto desde 2012. Este crecimiento abre puertas a habitaciones hasta ahora escondidas. Como dijo Howard Carter, cuando miró por primera vez el interior la tumba de Tutankamón, puede que estas habitaciones estén llenas de "cosas maravillosas", como la capacidad de avances científicos espectaculares en medicina o física o incrementos inusitados de la productividad. Pero también puede que las habitaciones cobijen a Skynet. Por eso, de repente, tenemos a tanta gente hablando de los riesgos existenciales que puede acarrear la inteligencia artificial (Superintelligence es el libro clásico sobre este riesgo).
Quizá construir un modelo de lenguaje de gran tamaño sea útil para completar tareas como escribir textos rutinarios
La segunda posibilidad es que el crecimiento superexponencial se pare pronto. En el pasado, hemos sufrido varias veces inviernos de la inteligencia artificial, periodos en los que después de avances espectaculares nos hemos quedado atascados durante mucho tiempo con pocos avances. Quizá construir un modelo de lenguaje de gran tamaño sea útil para completar tareas como escribir textos rutinarios, un avance tecnológico que no debemos desdeñar, pero saltar al siguiente nivel sea muchísimo más complejo. Por ejemplo, no estamos ni remotamente cerca de tener la capacidad para programar un sistema de inteligencia artificial que limpie correctamente un cuarto de baño, una tarea que los seres humanos acometen correctamente aun teniendo bajos niveles educativos (este fenómeno se llama la Paradoja de Moravec).
Incluso los modelos de lenguaje de gran tamaño funcionan bien casi siempre, pero no siempre. Hay tareas donde un pequeño porcentaje de errores no importa en exceso, por ejemplo, preparar un primer borrador de un manual de instrucciones de un electrodoméstico que será corregido por un ser humano. Pero, en otras tareas, como conducir un coche, porcentajes de errores muy pequeños son inaceptables. Y el problema es que eliminar la cola de los errores más extraños es muy complejo. Uno necesita observaciones de situaciones raras para entrenar a la red neuronal a solventar estas situaciones. Pero, por definición, las situaciones raras pasan poco (si no, no serían raras, serían normales), y, por tanto, tenemos pocas observaciones de estas (y transferir aprendizaje de una situación a otra es complejo). Volviendo a mi ejemplo del robot subiendo unas escaleras: ¿qué ocurrirá la primera vez que el robot vea un ramo de narcisos dorados revoloteando en una escalera empujados por el viento? ¿Entenderá que esto es un obstáculo como otro cualquiera o saldrá por peteneras? Las redes neurales tienen una desagradable tendencia, por su complejidad, a hacer de vez en cuando cosas muy inesperadas, sobre todo cuando se enfrentan con situaciones totalmente nuevas (este artículo explica este fenómeno). Algunas veces estas reacciones inesperadas son genialidades, como cuando AlphaGo rompió, exitosamente, con recomendaciones milenarias de cómo jugar a Go. Otras veces, son locuras absurdas. Si la locura es un primer borrador de las instrucciones del electrodoméstico que no tiene sentido, bueno, pues no pasa nada: se tira a la basura y ya está. Si la locura es que el robot empiece a saltar en las escaleras y nos las destroce, aquello tiene menos gracia.
¿Cuál de las dos posibilidades ocurrirá? No lo sé (y no creo que lo sepa nadie: especular con escenarios es fácil, y los que aciertan a menudo es por pura suerte). Pero, incluso en el caso que la inteligencia artificial entre en un nuevo invierno, la adopción de manera generalizada en la economía mundial de todo lo que ya hemos inventado nos traerá cambios radicales en los modelos de negocio, el mercado de trabajo y las relaciones internacionales.
¿Acelerará la inteligencia artificial el crecimiento de la economía mundial? ¿Por unas décimas o por muchos puntos?
Muchos expertos señalan a AlexNet, en 2012, como el comienzo de la actual revolución de la inteligencia artificial. Una de las principales mentes detrás de Axelnet, Geoffrey Hinton, es el flamante ganador del Premio Princesa de Asturias de Investigación Científica y Técnica en 2022. Apenas han pasado 11 años desde Alexnet, pero ya hay cientos de sectores en la economía que tienen que asimilar las tecnologías existentes (desde el reconocimiento de imágenes a la traducción automática), en especial en España, donde vamos con retraso. La experiencia histórica es que estos procesos de adopción tardan décadas en completarse y que sus consecuencias son inesperadas, pues abren oportunidades de negocio que nadie había considerado antes. ¿Quién sabía, cuando salió la primera generación del iPhone, que en unos años revolucionaria la industria del taxi al permitir la creación de compañías como Uber? ¿O que los agricultores emplearían sus teléfonos móviles para decidir cuándo sembrar? Por tanto, ¿quién sabe dónde nos llevará el hecho de que los sistemas de inteligencia artificial diagnostiquen algunas enfermedades mejor que los seres humanos? Las nuevas tecnologías no solo cambian lo que ya hacíamos; cambian lo que hacemos.
En mi siguiente entrada comenzaré analizando el efecto potencialmente más significativo a nivel agregado: el impacto de la inteligencia artificial sobre el crecimiento económico. ¿Acelerará la inteligencia artificial el crecimiento de la economía mundial (o al menos de aquellas economías que la adopten)? ¿Por unas décimas o por muchos puntos? ¿Será este el fin del periodo de muy lento crecimiento de la productividad que hemos sufrido desde 2008 en Occidente (y en España desde 1985)? Pero, como para explicar mis respuestas tendré que introducir algunas ideas sobre la teoría del crecimiento económico, dejemos la tarea para dentro de unas semanas.
Mi motivación es doble. De manera más directa, el lanzamiento de GPT-4, el último modelo de lenguaje de gran tamaño de OpenAI, con su enorme salto en capacidades con respecto a modelos de lenguaje anteriores, ha demostrado la velocidad inusitada de los avances en este campo. Podemos estar entrando en una nueva era de la historia económica de la humanidad, como ocurrió con la llegada de la industrialización o la adopción de la agricultura. De manera más indirecta, la economía de la inteligencia artificial enlaza con los temas que ya he tratado en El Confidencial, desde mi más reciente serie sobre la industria de los semiconductores a mi serie (con Tano Santos) sobre la política económica del estancamiento de España o el futuro demográfico de la humanidad. En algunos casos, la conexión es obvia (¿por qué es clave la industria de semiconductores para la inteligencia artificial?, ¿puede aminorar la inteligencia artificial los problemas causados por el envejecimiento de la población y la caída de la fertilidad?). En otros, necesitaré desarrollar el argumento en detalle (¿solucionará la inteligencia artificial el estancamiento económico de España o lo profundizará?, ¿cómo afectará la inteligencia artificial a la desconexión económica de Madrid del resto de España?).
- Qué nos dice la industria de los semiconductores del futuro de la economía Jesús Fernández-Villaverde
- La industria de los semiconductores y el futuro de la economía mundial (III): Europa y España Jesús Fernández-Villaverde
- La industria de los semiconductores y el futuro de la economía mundial (II) Jesús Fernández-Villaverde