Es noticia
Los retos de armonizar la inteligencia artificial con los derechos fundamentales
  1. Jurídico
  2. Tribuna
Pedro del Rosal

Tribuna

Por
Ceyhun Necati Pehlivan

Los retos de armonizar la inteligencia artificial con los derechos fundamentales

Garantizar que un modelo de IA respete los derechos fundamentales plantea una serie de retos. No obstante, en muchos casos se trata de incógnitas conocidas: aunque se ha identificado el problema, aún se está buscando la solución

Foto: Los retos de armonizar la inteligencia artificial con los derechos fundamentales (Pexels)
Los retos de armonizar la inteligencia artificial con los derechos fundamentales (Pexels)

La inteligencia artificial (IA) está transformando la manera en que vivimos, trabajamos e interactuamos con la tecnología. A medida que los sistemas de IA se van integrando en nuestro día a día, surgen inquietudes en relación con los derechos fundamentales como la privacidad y otras cuestiones éticas. En la Unión Europea (UE), los legisladores han respondido con un conjunto de normas destinadas a garantizar el desarrollo ético de la IA y proteger los derechos fundamentales desarrollando el futuro reglamento de IA, la Directiva sobre la responsabilidad civil extracontractual en la inteligencia artificial y el (ya en vigor) Reglamento General de Protección de Datos (RGPD).

Garantizar que un modelo de IA respete los derechos fundamentales plantea una serie de retos. A continuación, abordamos algunos de ellos. No obstante, en muchos casos se trata de incógnitas conocidas: aunque se ha identificado el problema, aún se está buscando la solución.

Foto: Foto: Reuters Opinión

Descifrando la 'caja negra' de la IA

Hay una gran variedad de modelos de IA, pero la mayoría implica un aprendizaje (hasta cierto punto) autónomo. Esto suele dar lugar a algoritmos tan complejos que resultan inescrutables e incomprensibles para los seres humanos: funcionan en una caja negra. Esto tiene una serie de implicaciones normativas y prácticas:

  • Responsabilidad difusa - Puede ser complicado rendir cuentas, por ejemplo, para poder demostrar que la toma de decisiones es justa y se basa en criterios racionales y objetivamente justificables, especialmente si el algoritmo está tomando decisiones sesgadas o discriminatorias sin que lo notemos.
  • Comportamiento impredecible - Desde un punto de vista práctico, existe el riesgo de que el algoritmo se comporte adecuadamente de inicio en el entorno de entrenamiento y prueba, pero luego se vuelva imprevisible o poco fiable al enfrentar la realidad. Esto puede deberse a la naturaleza intrínsecamente inestable y caótica de los algoritmos, o a que los conjuntos de datos de entrenamiento y prueba no representan fielmente la complejidad del mundo real.

Estas cuestiones cobran especial relevancia al considerar que los algoritmos no tienen un filtro ético como los seres humanos para evaluar si lo que hace está mal. En este sentido, el futuro reglamento de IA establece una serie de requisitos para que los sistemas de IA de alto riesgo sean confiables (por ejemplo, calidad de los datos, documentación y trazabilidad, transparencia, supervisión humana, precisión, ciberseguridad y robustez).

La importancia de la precisión en la IA

Los modelos de IA rara vez aciertan al 100% en sus predicciones sobre las personas. Aunque una tasa de precisión del 99% puede parecer aceptable en general, es considerablemente arriesgada cuando el resultado lleva a sospechar de una persona inocente. Incluso una tasa muy menor de error del 0,1% es muy significativa si afecta a decenas de miles de personas. Este conflicto puede resolverse normalmente asegurándose de que el resultado del modelo de IA se entiende e interpreta correctamente. En otras palabras, el resultado del modelo no debe considerarse un dato o verdad absoluta sobre el individuo, sino simplemente una suposición estadística.

Sin perjuicio de esto, sigue siendo importante garantizar que el resultado del modelo de IA sea lo más preciso posible. Cuanto más relevante sea el resultado (por ejemplo, por su impacto en los derechos de las personas), más preciso deberá ser el modelo. Por ejemplo, un horóscopo basado en inteligencia artificial requerirá mucho menos escrutinio que un algoritmo utilizado para identificar a personas en una multitud en el que, por ejemplo, se coteja una imagen de una persona con una base de datos.

Foto: El comisario europeo de Mercado Interior, Thierry Breton. (Reuters/Pool/Olivier Hosley)

Esto requiere comprender cómo se mide la precisión de un modelo de IA. Para ello hay que tener en cuenta dos tipos de errores:

  • Falsos positivos – cuando el modelo identifica erróneamente un caso como positivo. Por ejemplo, imaginemos que la policía utiliza un sistema de reconocimiento facial en una multitud para identificar a delincuentes buscados por la justicia. Un falso positivo se daría en caso de que un individuo inocente sea identificado erróneamente como delincuente.
  • Falsos negativoscuando un caso positivo se etiqueta incorrectamente como negativo. En el ejemplo anterior, esto podría dar lugar a que un delincuente buscado estuviera entre la multitud, pero no fuera identificado por el sistema de reconocimiento facial de la policía.

Es importante encontrar el equilibrio entre estos dos tipos de errores, ya que el impacto de cada uno puede no ser el mismo. Esto significa, a su vez, que hay que tener en cuenta otras dos medidas:

  • Precisión – este valor sirve para medir el porcentaje de casos identificados como positivos, que son realmente positivos. Por ejemplo, si sólo la mitad de los individuos identificados por el sistema de reconocimiento facial de la policía son delincuentes buscados, la precisión de ese sistema será del 50%.
  • Sensibilidad – este valor sirve para medir el porcentaje de casos positivos que se identifican como tales. Por ejemplo, si hay 20 delincuentes buscados entre la multitud, pero sólo se identifican 2, la sensibilidad del sistema es del 10%.

* Si no ves correctamente el módulo de suscripción, haz clic aquí

Normalmente existen compromisos entre precisión y sensibilidad que se pueden medir estadísticamente, pero que también pueden requerir una reflexión ética. Por ejemplo, un cuerpo de policía que quiera atrapar a todos los delincuentes de una multitud probablemente daría prioridad a la sensibilidad del sistema. Llevado al extremo, esto podría resultar en identificar a todos los individuos presentes en la multitud como delincuentes. Este sistema tendría una sensibilidad del 100%, pero su precisión sería muy baja. Por el contrario, un cuerpo de policía interesado en mantener buenas relaciones con la comunidad no deteniendo incorrectamente a ciudadanos inocentes por error, probablemente daría prioridad a la precisión del sistema. En cualquier caso, como muestra el ejemplo a continuación, es fundamental que el resultado del sistema se comprenda correctamente.

Imparcialidad y sesgos en la IA

Una de las principales preocupaciones es la posibilidad de que los modelos de IA discriminen sistemáticamente a determinados grupos de individuos. Los sesgos o perjuicios están presentes tanto en la toma de decisiones humanas como en la de las máquinas. Sin embargo, el sesgo en la toma de decisiones automatizadas se percibe como un riesgo mayor porque generalmente se asume que un humano tendrá cierto grado de empatía y, por tanto, tratará de identificar y corregir sus propios sesgos, aplicando una última comprobación de “sentido común” antes de tomar una decisión. Las decisiones automatizadas carecen de estas dos protecciones humanas.

Foto: iStock/CSA-Printstock/EC Diseño.

Los sesgos en los sistemas de IA pueden tener distintas causas. Si los datos de entrenamiento reflejan discriminaciones o perjuicios presentes históricamente, la IA puede heredar y perpetuar esos sesgos. Otra posibilidad es que los datos de entrenamiento estén desequilibrados, con menos ejemplos de individuos con determinadas características, lo que llevaría a la máquina a considerarlas menos importantes. Por último, los sesgos pueden deberse a que la máquina detecte patrones inesperados en los datos y saque conclusiones inadecuadas o sin fundamento.

Por ejemplo, supongamos que una empresa quiere utilizar la IA para cribar y clasificar las solicitudes de contratación para puestos de ingeniería. Para ello, entrena al modelo para que encuentre candidatos similares a los ingenieros de alto rendimiento de la empresa. Si la mayoría de los ingenieros de la empresa son hombres, es muy posible que el modelo dé prioridad a las solicitudes de contratación que muestren "características masculinas" y, por tanto, discrimine a las candidatas. Además, esta discriminación puede estar profundamente arraigada en el modelo, de modo que, aunque el nombre y el sexo del solicitante se enmascaren cuando son introducidos en el modelo, éste es capaz de discriminar basándose en otros factores que actúan como sustitutos del sexo como, por ejemplo, la asistencia a un colegio exclusivamente femenino.

"Es fundamental supervisar continuamente el modelo para detectar sesgos y ajustar los resultados para neutralizar potenciales discriminaciones"

Para mitigar y corregir estos sesgos, se pueden adoptar distintas medidas como ajustar los conjuntos de datos de entrenamiento que reflejen sesgos pasados o corregir conjuntos de datos desequilibrados para añadir o eliminar datos relativos a poblaciones infrarrepresentadas o sobrerrepresentadas.

Es fundamental supervisar continuamente el modelo para detectar sesgos y ajustar los resultados para neutralizar potenciales discriminaciones. Sin embargo, este proceso podría estar restringido por las propias normas en materia de protección de datos. Por ejemplo, un banco que quiera verificar que no hay discriminación por origen racial o étnico entre sus clientes podría considerar recabar datos sobre estos aspectos para poder llevar a cabo este análisis. Sin embargo, estas categorías de datos personales están especialmente protegidas y su tratamiento solo se permite bajo circunstancias excepcionales y amparadas por una base legitimadora. Asimismo, garantizar la imparcialidad suele ser complejo y conlleva ponderar distintas interpretaciones o medidas de equidad basadas en juicios de valor muy subjetivos.

La ciberseguridad y las huellas de los datos de entrenamiento

La ciberseguridad también representa un reto para los modelos de IA, ya que suelen utilizar conjuntos de datos de gran tamaño, tanto para entrenar el modelo como para su funcionamiento. Garantizar la seguridad de estos sistemas implica cumplir con estándares de programación sólidos y utilizar con precaución los componentes de terceros. Igualmente, una vez en funcionamiento, el modelo debe implementar medidas de seguridad apropiadas, incluyendo controles de acceso adecuados, parches y realizar pruebas de penetración.

Foto: Foto: iStock/CSA-Printstock/EC Diseño.

Sin embargo, existen ataques de ciberseguridad sofisticados que son específicos de los modelos de IA y que se centran en las huellas residuales dejadas por los datos de entrenamiento utilizados para entrenar el modelo de inteligencia artificial. Por ejemplo, un ataque de inversión del modelo ocurre cuando un atacante analiza las entradas y salidas del modelo de la IA para reconstruir los datos con los que se entrenó. Por ejemplo, en el caso de un sistema de reconocimiento facial utilizado para reconocer imágenes de personas con nombres concretos, junto con un índice de confianza de esa evaluación, un atacante podría enviar múltiples rostros generados aleatoriamente y utilizar el nombre y las puntuaciones de confianza que se le devuelvan para reconstruir las imágenes faciales de los individuos en cuestión. Se ha demostrado que este método puede generar imágenes imperfectas, pero reconocibles, de las personas.

Como se ha mencionado anteriormente, para hacer frente a estos retos y proteger los derechos fundamentales de sus ciudadanos, la Unión Europea está construyendo una red compleja de textos legales como, por ejemplo, la nueva ley de IA europea, al tiempo que intenta fomentar la innovación y mantener una ventaja competitiva en la revolución de la IA en Europa. El tiempo dirá si se ha logrado encontrar el equilibrio correcto.

* Ceyhun Necati Pehlivan, abogado y counsel en Linklaters

La inteligencia artificial (IA) está transformando la manera en que vivimos, trabajamos e interactuamos con la tecnología. A medida que los sistemas de IA se van integrando en nuestro día a día, surgen inquietudes en relación con los derechos fundamentales como la privacidad y otras cuestiones éticas. En la Unión Europea (UE), los legisladores han respondido con un conjunto de normas destinadas a garantizar el desarrollo ético de la IA y proteger los derechos fundamentales desarrollando el futuro reglamento de IA, la Directiva sobre la responsabilidad civil extracontractual en la inteligencia artificial y el (ya en vigor) Reglamento General de Protección de Datos (RGPD).

Inteligencia Artificial Despachos Abogados Leyes Ley de protección de datos
El redactor recomienda