Es noticia
Menos de treinta palabras sobre los riesgos de la inteligencia artificial
  1. Jurídico
  2. Tribuna
Irene Cortés

Tribuna

Por
Javier Alonso-Morgado

Menos de treinta palabras sobre los riesgos de la inteligencia artificial

Los más pesimistas afirman que si no regulamos con urgencia la IA será ella la que nos regule a nosotros. Y, en este distópico escenario, seríamos nosotros los que correríamos el riesgo de desaparecer

Foto: Reuters
Reuters

En el pasado mes de mayo se publicó esta alarmante declaración sobre los riesgos de la inteligencia artificial (IA): "Mitigar el riesgo de extinción [para la humanidad] de la inteligencia artificial debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias o la guerra nuclear".

Entre los firmantes están empresarios como Sam Altman, el presidente ejecutivo de OpenAI, propietaria de ChatGPT, y Geoffrey Hinton, unos de los científicos que más ha contribuido al desarrollo de la IA, quien abandonó la vicepresidencia de Google para poder hablar con más libertad de los riesgos que su cocreación conlleva. Algunos comparan este manifiesto con una advertencia que en 1944 hubiera publicado Oppenheimer sobre los riesgos de la tecnología nuclear durante el desarrollo del Proyecto Manhattan.

Para mitigar la alarma social, hay quienes recuerdan los miedos y suspicacias que también suscitaron en el pasado otras revoluciones tecnológicas. Pero los firmantes de este manifiesto responden que ese tranquilizador argumento obvia una peculiaridad que distingue a la IA de todas las demás invenciones. Cuando se alcance lo que se conoce como strong AI (inteligencia artificial fuerte) las máquinas (ordenadores, robots, etc.) serán capaces de automejorarse e incluso de crear otros equipos más avanzados que ellas, que pueden superar a los humanos y eludir los controles que tratemos de imponerles. Este sería un hecho histórico insólito y los científicos no saben lo qué pasaría entonces.

Mientras que la IA se desarrolla exponencialmente, la legislación internacional para su control lo hace con exasperante lentitud.

Foto: Estand de Worldcoin en el Centro Comercial de Príncipe Pío. (G. C.)

En noviembre de 2021, los casi doscientos estados miembros de la UNESCO adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial, que, según sus propias palabras, tiene por finalidad servir de base para poner los sistemas de la IA al servicio de la humanidad, así como prevenir daños. En el ámbito europeo, estamos aún pendientes de la aprobación de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se Establecen Normas Armonizadas en Materia de Inteligencia Artificial. Con él se pretenden abordar los riesgos y problemas asociados a la IA, por las repercusiones negativas que puede tener para múltiples derechos consagrados en la Carta de los Derechos Fundamentales de la Unión Europea.

La aprobación de este Reglamento, que puede ocurrir durante la presidencia española, supondría un indudable avance.

En él se prevén sistemas o usos de la IA que quedarán totalmente prohibidos en la UE, como, por ejemplo, el social scoring, esto es, la clasificación de los ciudadanos en función de su comportamiento en la vida real o virtual (multas de tráfico, compras, donaciones de sangre, etc.), que ya se está utilizando en algunos países como China para conceder créditos o el acceso a ciertos puestos de trabajo.

Otros sistemas o usos de la IA se clasificarán como de alto riesgo. Estos serán permitidos en el mercado europeo siempre que cumplan determinados requisitos. Entre otros controles, se quiere introducir lo que se conoce como a human in the loop (un humano en el circuito), método con el que se busca que una persona vigile los resultados de la IA y evite que sean contrarios a los seres humanos o a sus derechos fundamentales.

Foto: La CEO de AMD, Lisa Su, en una presentación a comienzos de año. (Getty/David Becker)
TE PUEDE INTERESAR
Este es el nuevo superchip que promete dar un vuelco a la inteligencia artificial
Manuel Ángel Méndez. San Francisco

Sin embargo, el Reglamento tendrá también grandes limitaciones. No tendrá un ámbito de aplicación territorial universal y se han excluido explícitamente los fines militares, de defensa o de seguridad nacional, que son algunos de los ámbitos donde más preocupación están mostrando los científicos.

Hay una diferencia fundamental con otros acontecimientos históricos. En esta ocasión, los que están dando la voz de alarma no son grupos sociales, más o menos informados, que estén actuando en defensa de sus intereses particulares, como ocurrió al principio de la revolución industrial con el ludismo. Son los propios inventores y los empresarios que comercializan la IA los que están pidiendo a la comunidad internacional que regulen y controlen pronto sus riesgos. Parece prudente seguir su recomendación. Los más pesimistas afirman que si no regulamos con urgencia la IA será ella la que nos regule a nosotros. Y, según algunos de sus creadores, en este distópico escenario seríamos nosotros los que correríamos el riesgo de desaparecer como lágrimas en la lluvia.

* Fco. Javier Alonso-Morgado Alonso es abogado en Montero Aramburu.

En el pasado mes de mayo se publicó esta alarmante declaración sobre los riesgos de la inteligencia artificial (IA): "Mitigar el riesgo de extinción [para la humanidad] de la inteligencia artificial debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias o la guerra nuclear".

Inteligencia Artificial
El redactor recomienda