Es noticia
Cómo España pretende ser el entorno de prueba de la inteligencia artificial
  1. España
  2. Blog FIDE
Fide

Blog FIDE

Por

Cómo España pretende ser el entorno de prueba de la inteligencia artificial

El Real Decreto 817/2023 pretende situar España, desgraciadamente, no en el epicentro del desarrollo de IA, sino en el de su demarcación normativa

Foto: Foto: Pixabay/Gerd Altmann.
Foto: Pixabay/Gerd Altmann.

Lo ocurrido en las últimas semanas en el sector de la inteligencia artificial puede servir sin lugar a duda para escribir una temporada de una serie de una plataforma de vídeo bajo demanda. El fundador y consejero delegado de la empresa de inteligencia artificial más representativa del mundo es despedido, luego contratado por Microsoft con parte de su equipo y a los cinco días vuelve a ser restituido en su cargo para evitar el bochorno público (y la pérdida de miles de millones de dólares de capitalización bursátil).

En paralelo, la Comisión de la Unión Europea, el Consejo y el Parlamento se reúnen en trílogos para sacar adelante el Reglamento de Inteligencia Artificial, la primera norma transversal en todo el mundo que pretende establecer reglas básicas para esta tecnología. El trámite de la regulación, que ha tenido que ser revisada sustancialmente debido a la nueva generación de IA, para contemplar los modelos fundacionales y las herramientas generativas, se ha complicado a la par que la tecnología que pretende regular, con giros argumentales propios de una obra de Aaron Sorkin.

En sede nacional, la noticia ha estado en la aprobación del Real Decreto 817/2023 para la regulación de un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento de IA, es decir, un sandbox donde experimentar herramientas basadas en inteligencia artificial. Dicha norma, que inevitablemente ha pasado desapercibida por la concentración mediática de OpenAI y los trílogos, pretende situar a España, desgraciadamente no en el epicentro del desarrollo de IA, sino en el de su demarcación normativa.

El real decreto respeta la visión antropocéntrica que tenemos de la IA en la Unión Europea, la cual se ha ido contagiando, al menos en apariencia, a otros territorios tradicionalmente más tecnocéntricos, como EE.UU. o Japón. La norma puesta en marcha por el Gobierno español, según la Exposición de Motivos con la colaboración de la Comisión Europea, pretende establecer los parámetros básicos de dicho entorno de pruebas que, siguiendo otros anteriores para sectores como el financiero o el asegurador, pretende permitir a proveedores y usuarios de IA garantizar el respeto a los derechos fundamentales de los ciudadanos.

Foto: Reinterpretación del Hombre de Vitruvio por inteligencia artificial. (SDXL/Novaceno)

En un plano más descriptivo, el real decreto se dirige a sistemas de IA de alto riesgo (según el reglamento de IA, aquellos que acarrean un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas), a sistemas de IA de propósito general (los cuales no existen en la actualidad y prometen tener capacidades de aprendizaje similares al ser humano) y a los modelos fundacionales (que son los protagonistas invisibles de esta generación de IA, artífices de su sorprendente rendimiento).

Próximamente, la Subdirección General de Inteligencia Artificial y Tecnologías Habilitadoras Digitales deberá publicar una convocatoria a la que se podrán presentar desarrolladores y usuarios de estos sistemas de IA, en el que se tendrán en cuenta determinadas características, entre otras la innovación y desarrollo tecnológico, la explicabilidad y complejidad de los algoritmos, el grado de madurez del sistema de IA o su calidad de memoria técnica. Los participantes tendrán que facilitar información suficiente sobre la gestión de riesgos de la herramienta de IA o sobre el conjunto de datos que se utilizará para el entrenamiento del sistema, exigiendo que estos permitan el registro automático de eventos (logs) o la transparencia de sus resultados, en un proceso que tiene que estar supervisados por personas físicas, con la finalidad de que el sistema sea conciso, completo, correcto, actualizado, claro, relevante, accesible y comprensible para los usuarios del mismo.

Foto: Imagen: Pixabay/Gerd Altmann. Opinión

Determinados sistemas de IA suelen ser criticados por la posible existencia de sesgos, por tender a favorecer a un sexo o a una raza frente a otras, o por comprometer cuestiones éticas, al arrojar resultados sin tener en consideración principios básicos, por ejemplo, en herramientas de IA generativa, de moderación automática de contenidos o de asignación de tareas o trabajos. Para mitigar estas cuestiones, el participante del sandbox deberá aportar suficiente información, que se tratará de manera confidencial, incluyendo la finalidad del sistema, cómo este puede interactuar con otros soportes o software ajenos al mismo, sus características, el hardware utilizado o las instrucciones de uso del sistema.

La carga descriptiva de la convocatoria será significativa, lo cual desincentivará a muchos proveedores y usuarios de IA, especialmente a aquellos de tradición anglosajona (actuales dominadores de esta tecnología), que son extremadamente celosos a facilitar a un ente gubernamental información que forma parte de su secreto empresarial, aunque este garantice que tratará todos los datos de manera confidencial. Este hecho, unido a la voluntariedad de este mecanismo, anticipo que hará poco atractivo al mismo, a pesar de tener como atractivo la obtención de un documento acreditativo de participación, junto a un informe detallado de resultados, que es una suerte de sello de garantía de que el sistema de IA cumple con los estándares europeos en materia de IA.

Sin embargo, el sandbox puede ser percibido, además, como un mecanismo para la mitigación de riesgos de manera tutelada por un ente externo, como una prueba de diligencia debida a efectos de una posible responsabilidad por daños de la IA, lo cual también preocupa en la Unión Europea, que prepara una directiva específica sobre esta cuestión, o, sobre todo, para la demostración del cumplimiento de los estándares más estrictos a nivel legal y ético del uso de IA.

Foto: Foto: EFE/Ritchie B. Tongo. Opinión

Desgraciadamente, ni España ni la Unión Europea está dominando el desarrollo tecnológico de estos sistemas inteligentes, pareciendo contentarnos con ser quienes establecen sus estándares regulatorios, de manera análoga a lo ocurrido en otros ámbitos digitales, como la protección de datos. Únicamente se consigue liderar gracias a la regulación en industrias altamente normativizadas (como el sector financiero o del juego); no es el caso de la IA, que necesita un marco normativo que disminuya sus riesgos potenciales, pero que, sobre todo, requiere de fuertes inversiones, talento y un ecosistema emprendedor, que es lo que tendríamos que propiciar en la Unión Europea.

placeholder

*Andy Ramos Gil de la Haza. Socio del área de propiedad intelectual y derecho digital de Pérez-Llorca, especializado en derecho del entretenimiento y derecho tecnológico.

Lo ocurrido en las últimas semanas en el sector de la inteligencia artificial puede servir sin lugar a duda para escribir una temporada de una serie de una plataforma de vídeo bajo demanda. El fundador y consejero delegado de la empresa de inteligencia artificial más representativa del mundo es despedido, luego contratado por Microsoft con parte de su equipo y a los cinco días vuelve a ser restituido en su cargo para evitar el bochorno público (y la pérdida de miles de millones de dólares de capitalización bursátil).

Inteligencia Artificial
El redactor recomienda