Es noticia
Lo que hay detrás del Reglamento de Inteligencia Artificial: ¿freno o impulso?
  1. España
  2. Blog FIDE
Fide

Blog FIDE

Por

Lo que hay detrás del Reglamento de Inteligencia Artificial: ¿freno o impulso?

El reglamento establece un planteamiento basado en los riesgos que conlleva el uso de los sistemas de IA, distinguiendo entre cuatro categorías

Foto: Foto: Pixabay/Alexandra_Koch.
Foto: Pixabay/Alexandra_Koch.

El 8 de diciembre de 2023, las instituciones europeas (Comisión, Consejo y Parlamento) finalmente alcanzaron un acuerdo político histórico en la regulación de la inteligencia artificial (IA), una normativa pionera en el mundo que aspira a convertirse en un estándar global para la regulación de la IA en otras jurisdicciones. Previsiblemente, el texto final se aprobará a principios de 2024 y será exigible en su totalidad en un plazo de dos años, con algunas excepciones para disposiciones específicas, como las prohibiciones en el uso de la IA, que serán aplicables a los seis meses de la entrada en vigor.

Según los detalles que se han revelado del acuerdo provisional, la definición de sistema de IA parece ser la ya introducida por las modificaciones del Parlamento Europeo al texto de la Comisión, la cual está alineada con el enfoque propuesto por la OCDE. Asimismo, se excluye del ámbito de aplicación de la regulación los sistemas utilizados exclusivamente con fines militares o de defensa, investigación e innovación, y al uso de sistemas de IA con fines no profesionales por personas individuales. Tampoco afectará a las competencias de los Estados miembros en materia de seguridad nacional.

El reglamento establece un planteamiento basado en los riesgos que conlleva el uso de los sistemas de IA, distinguiendo entre cuatro categorías.

Se prohíben los sistemas de riesgo inaceptable por considerarse una clara amenaza para los derechos fundamentales y valores de la Unión Europea. Esta categoría abarca, entre otros, sistemas de clasificación social o social scoring que puntúan a los ciudadanos basándose en su comportamiento y reputación o sistemas de IA para el reconocimiento de emociones en lugares de trabajo e instituciones educativas.

Foto: El comisario europeo de Mercado Interior, Thierry Breton. (Reuters/Pool/Olivier Hosley)

Los sistemas de IA de alto riesgo estarán sujetos a obligaciones que deberán cumplir antes y después de su comercialización. Por ejemplo, la elaboración de documentación detallada, trazabilidad, supervisión humana o ciberseguridad, así como la implementación de sistemas de gestión de calidad y riesgo. Se trata de sistemas que pueden afectar de forma negativa los derechos fundamentales o la seguridad de las personas si no se usan adecuadamente. Entre estos se incluirían los sistemas de IA relacionados con el suministro de infraestructuras críticas.

La gran mayoría de los sistemas de IA que utilizamos en la actualidad pertenecen a la categoría de sistemas de riesgo mínimo, para los cuales el reglamento no establece obligaciones adicionales, pero incentiva que adopten estándares de conducta voluntarios para fomentar la confianza ciudadana.

Foto: Imagen: iStock/CSA-PrintStock/EC Diseño.

Por último, los sistemas que presenten un riesgo limitado estarán principalmente sujetos a obligaciones de transparencia. Fundamentalmente, deberán revelar que el contenido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior.

Las obligaciones y responsabilidades se exigen a los distintos agentes de la cadena de valor de los sistemas de IA, fundamentalmente a los proveedores y usuarios o denominados deployers. El acercamiento, en definitiva, busca la no dilución de responsabilidad a través de la cadena de suministro de este tipo de servicios.

Uno de los puntos más controvertidos en las negociaciones ha sido el de los sistemas de IA propósito general (GPAI). En las primeras versiones solo cabría su categorización como meros chatbots y, en consecuencia, sujetos únicamente a requisitos de transparencia. No obstante, la explosión de las aplicaciones más populares como ChatGPT o Bard, llevó al legislador a reconsiderar la forma en la que debían regularse estos sistemas tan potentes. Desde esta perspectiva, el reglamento introduce normas específicas enfocadas no en el uso, sino en la potencia y capacidades de los sistemas y los modelos de IA en los que se basan, lo que ha despertado la crítica de aquellos que argumentan que se está obstaculizando la competitividad tecnológica en la UE.

Foto: Miembros de los gobiernos de diferentes países posan para una foto este miércoles durante el AI Safety Summit en Bletchley, Reino Unido. (EFE/Chris J. Ratcliffe)

Asimismo, se contemplan obligaciones más estrictas para aquellos sistemas con riesgo sistémico y normas de transparencia adicionales para los sistemas capaces de realizar una amplia gama de tareas distintas, como generar vídeo, texto, imágenes, conversar en chatbots... la llamada inteligencia artificial generativa y multimodal. Finalmente, tras largas negociaciones en los trílogos, se ha optado por una referencia genérica al cumplimiento de la normativa de propiedad intelectual, sin entrar en una regulación específica.

Otro de los puntos de mira de las últimas negociaciones ha sido el de la vigilancia biométrica en tiempo real en los espacios públicos. La balanza se situaba entre aquellos que abogaban por una prohibición absoluta, frente a los que defendían su permisión con fines de seguridad nacional. Finalmente, parece que se ha optado por la segunda opción, estableciéndose salvaguardias adicionales y limitando las excepciones a casos muy concretos, como la prevención de amenazas de atentados terroristas o la localización de personas sospechosas de los delitos más graves.

Sin duda, el gran debate que se plantea detrás del reglamento es: ¿freno o impulso? En un panorama de indiscutible popularización de la IA, el reglamento pretende garantizar que los sistemas de IA sean seguros y respeten los derechos fundamentales y legislación vigente, a la vez que promueve la inversión e innovación en IA. Para ello, el texto impone cargas regulatorias relevantes a las empresas en aras de proteger los derechos de los ciudadanos europeos, creando una tensión entre innovación y regulación, cargas que pueden resultar especialmente gravosas para las startups y medianas empresas.

Foto: Sam Altman, CEO de OpenAI. (Reuters)
TE PUEDE INTERESAR
El caos de OpenAI es solo el inicio: esta es la gran guerra que viene por el control de la IA
Manuel Ángel Méndez Michael Mcloughlin Gráficos: EC Diseño

¿Lo que echamos de menos? Con independencia de que el reglamento favorezca o no el llamado efecto Bruselas, es necesaria una mayor apuesta financiera por parte de la UE de cara a financiar la infraestructura tecnológica material y humana necesaria para no quedarse atrás. En definitiva, el caldo de cultivo empresarial que Estados Unidos y China sí han sabido favorecer.

placeholder

*Cristina Mesa Sánchez, socia de Garrigues, consejera académica de Fide.

El 8 de diciembre de 2023, las instituciones europeas (Comisión, Consejo y Parlamento) finalmente alcanzaron un acuerdo político histórico en la regulación de la inteligencia artificial (IA), una normativa pionera en el mundo que aspira a convertirse en un estándar global para la regulación de la IA en otras jurisdicciones. Previsiblemente, el texto final se aprobará a principios de 2024 y será exigible en su totalidad en un plazo de dos años, con algunas excepciones para disposiciones específicas, como las prohibiciones en el uso de la IA, que serán aplicables a los seis meses de la entrada en vigor.

Inteligencia Artificial
El redactor recomienda