Los fracasos de la inteligencia artificial: por qué es necesario replantearla

Quizás es el tiempo de transformar las preguntas y generar estrategias de investigación que vayan en la trayectoria de acomodar las inteligencias artificiales a la complejidad de la vida

Foto: La robot humanoide Sophia, que funciona con inteligencia artificial. (EFE)
La robot humanoide Sophia, que funciona con inteligencia artificial. (EFE)

Es frecuente encontrar artículos y libros sobre la sociedad digital y la inteligencia artificial que comienzan o terminan con el mantra de "¿estamos preparados para los cambios que introducirá la inteligencia artificial?". Quizás sea el momento de cambiar la pregunta por esta otra: "¿Está preparada la inteligencia artificial para los cambios que deberemos introducir en el mundo y la sociedad en tiempos próximos?".

Las inteligencias artificiales han irrumpido en todos los dominios de la economía, la gestión pública y la vida cotidiana instalándose en múltiples dispositivos y controlando una enorme cantidad de procesos de muy diversas características: desde la aviónica a la predicción de riesgos financieros, desde la detección de posibles cánceres de mama a la creación de perfiles personales de interés político o comercial. No es arriesgado afirmar que las inteligencias artificiales han producido una segunda revolución tecnológica tras la que supuso en los años ochenta la extensión de la digitalización. De hecho, el espacio digital, con su inmenso flujo de datos, y la inteligencia artificial se realimentan y constituyen ambos un nuevo escenario que ha sido denominado Cuarta Revolución Industrial.

Amazon vive del deseo humano de "quiero esto y lo quiero ya". Solo una IA puede resolver esto cuando se acumulan millones de órdenes por minuto

Una primera consideración que no debería admitir réplica es que las inteligencias artificiales son artefactos muy eficientes. Están diseñadas para resolver problemas y los resuelven bastante bien, mucho mejor que los humanos en la mayoría de los casos, que no están preparados para cumplir tareas similares a las velocidades que puede hacerlo un programa. La velocidad de respuesta a una petición de compra online por parte de alguna de las plataformas actuales como Amazon, que realiza el acto de compra, la carga a la tarjeta, la detección de la dirección y la orden de envío, es tan rápida que ha hundido a las empresas de venta online que no disponen de estos instrumentos informáticos. Amazon vive del deseo humano de "quiero esto y lo quiero ya". Solo una inteligencia artificial puede resolver ese problema cuando se acumulan millones de órdenes por minuto.

Nuestra vida cotidiana ya está inmersa en la aplicación de inteligencias artificiales. Son ellas las que controlan las redes eléctricas, las telefónicas, los sistemas de semáforos…, en fin, muchas de las columnas estructurales de nuestra sociedad. La divulgación de sus éxitos ha generado un escenario que va desde los miedos al control de las máquinas sobre nuestras vidas y al fin del trabajo humano a la convicción de que la innovación tecnológica resolverá la gran mayoría de nuestros problemas complejos. Hay toda una industria de propaganda que extiende algunos éxitos notables del llamado "aprendizaje profundo" y promete un futuro próximo de transformaciones radicales. Así, por ejemplo, el programa AlphaZero desarrollado por Deep Mind logró un nivel de maestría de primer orden en ajedrez sin ninguna programación, solamente jugando consigo misma. Si lo comparamos con Deep Blue, un programa clásico que logró vencer a Kasparov en 1996, pero que contenía casi toda la sabiduría de la humanidad sobre el ajedrez, el sentimiento de revolución es inmediato.

La industria de la propaganda habla de los éxitos y no de los fracasos. Y estos fracasos nos enseñan lecciones muy profundas sobre qué es inteligencia, qué es inteligencia artificial y qué es inteligencia humana. Fue muy conocido el caso del automóvil semiautónomo de Tesla que en 2016 sufrió un accidente mortal cuando chocó contra un camión que se cruzó en la carretera y los sensores no lo distinguieron por efecto de la luz solar. El conductor era un fan, un 'hooligan' tecnológico que confiaba absolutamente en el poder de la tecnología y probablemente no tenía las manos en el volante (es algo discutido en el juicio posterior). El caso es que su confianza le condujo a un fin fatal.

Los humanos, por efecto de la evolución somos animales bastante patosos en las habilidades. Necesitamos un aprendizaje largo y doloroso para resolver problemas muy específicos como tocar la guitarra o hacer volteretas. Sin embargo, somos seres especializados en la inteligencia transversal o general. Entendemos rápidamente los chistes, conectamos informaciones de naturaleza distante, como las metáforas, y resolvemos problemas en entornos muy abiertos. Las inteligencias artificiales (y el uso del plural es importante), como las animales, son mucho más rápidas en el aprendizaje de habilidades especiales. Lo que llamamos "aprendizaje profundo" tiene que ver con la capacidad de captar patrones a muchísima más velocidad que los humanos, y producir resultados eficientes. Pero ni los animales ni las inteligencias artificiales son buenos en resolver problemas en entornos que exigen conectar problemas.

En sus inicios, la inteligencia artificial como investigación trataba de capturar esta característica humana mediante la conversión del conocimiento humano en procedimientos bien articulados. Los filósofos dan el nombre de GOFAI (Good old fashion artificial intelligence) a esta línea que trataba de imitar a nuestra mente cultural captando conceptos, planes, guiones y esquemas de acción. En los años noventa surgió otra línea que prescindía de los humanos, tan lentos y complejos, y aprendía directamente de los datos del entorno. Se ha producido una enorme cantidad de dispositivos que aprenden muy rápidamente de los datos. Pero que tienen enormes limitaciones, como los accidentes del Boeing 737 han demostrado, cuando las inteligencias artificiales no son capaces de correlacionar datos de naturaleza heterogénea.

Pero ni los animales ni las inteligencias artificiales son buenos en resolver problemas en entornos que exigen conectar problemas

El psicólogo Gary Marcus ha planteado en un reciente libro este problema que no es menor (puede costarle a muchas empresas su existencia) y aboga por volver a una vieja línea de la inteligencia artificial: comenzar a aprender de la inteligencia humana, lenta, premiosa, llena de contradicciones, pero capaz de conectar transversalmente conocimientos directos, antes que confiar ciegamente, como el conductor de Tesla, en que sistemas diseñados para propósitos bien definidos y en entornos casi artificiales pueden resolver la complejidad de la vida.

Quizás es el tiempo de transformar las preguntas y generar estrategias de investigación, que deberían formar parte de las políticas públicas, que vayan en la trayectoria de acomodar las inteligencias artificiales a la complejidad de la vida, en la que los humanos somos animales bastante eficientes, antes que en acomodarnos a entornos artificiales que limitan la complejidad, y que los griegos ya entrevieron en su mito del Lecho de Procusto, que cortaba los cuerpos para que cupieran en su cama artificial.

*Fernando Broncano, catedrático de la Universidad Carlos III.

Tribuna
Escribe un comentario... Respondiendo al comentario #1
0 comentarios
Por FechaMejor Valorados
Mostrar más comentarios