Es noticia
Por qué los riesgos de la inteligencia artificial son acotados y cómo resolverlos
  1. Tecnología
  2. Tribuna
Alicia Richart

Tribuna

Por
Alicia Richart

Por qué los riesgos de la inteligencia artificial son acotados y cómo resolverlos

Es necesario entender los beneficios de la IA, controlando los riesgos para que la sociedad progrese

Foto: Foto: Pixabay.
Foto: Pixabay.

Las 'amenazas existenciales' de la IA son muy limitadas. Los escenarios apocalípticos descritos en algunas novelas de ciencia ficción están muy lejos de cumplirse. Las máquinas están a años luz de dominar al hombre.

Un algoritmo puede jugar al ajedrez, pero no al póquer (otros pueden jugar al póquer, pero no al ajedrez); otros pueden determinar el riesgo de impago de un crédito, pero no traducir un texto del inglés al mandarín, y otros pueden reconocer caras, pero no componer música.

Como dice uno de los principales pioneros en la materia, Andrew Ng: “Preocuparse de que la IA domine a los humanos es como preocuparse de la superpoblación en Marte”.

Foto: Servidores de Google, una de las compañías que más invierten a nivel mundial en desarrollo de inteligencia artificial. Opinión

Sin embargo, el desarrollo de esta tecnología, que ha demostrado un gran impacto en efectividad (mejora el rendimiento del proceso) y eficiencia (lo hace a menor coste), no está exento de riesgos. Hay al menos cinco factores éticos y sociales que conviene abordar cuanto antes para no frenar el beneficio que estos avances pueden comportar a la sociedad.

1. Desplazamiento laboral súbito

El desarrollo de la IA disminuye el coste de determinadas tareas, desplazando el valor —y el rol— del ser humano hacia otros eslabones en la cadena de valor. Hace tan solo 50 años, la mayor parte de los complejos cálculos de ingeniería se efectuaban por ejércitos de 'calculadoras humanas' armadas con reglas de cálculo manuales (deliciosamente reflejado en la película 'Hidden Figures', 2016), que fueron desplazadas con la llegada de los primeros ordenadores. Otros trabajos han prácticamente desaparecido (revelar papel fotográfico) y se han sustituido por otros a medida que diferentes tecnologías han ido apareciendo (¿quién habría adivinado el rol de experto en ciberseguridad, ingeniero de datos, creador de universos virtuales, 'community manager'…?). Aunque en conjunto unos trabajos desaparecerán y otros se crearán, el riesgo estriba en la velocidad a que esto ocurra y las posibilidades de las personas que realizaban las tareas en riesgo de reciclarse a la velocidad suficiente. Anticiparse es la clave.

2. El Gran Hermano

La capacidad de recoger, cruzar, agregar y analizar información personal se está desarrollando a velocidades tales que frecuentemente no somos consciente de lo que 'saben de nosotros' con nuestro consentimiento.

Foto: Two surveillance cameras (cctv) are seen in a logistics center of the transport company seur at zona franca in barcelona

Actualmente, la mayor parte de la información se utiliza con relativamente benignos (aunque frecuentemente molestos) fines comerciales (publicidad, comercio). La tentación de usar ese 'poder absoluto' para vigilar a cualquier ciudadano puede ser irresistible para cualquier poder totalitario. El impacto de cualquier herramienta en malas manos puede ser sobrecogedor.

3. Perpetuación de sesgos

En aspectos que tienen que ver con la vida de las personas, existe el riesgo de que los algoritmos de IA profundicen en determinados sesgos, en lugar de aliviarlos. Estos algoritmos están alimentados por miles de casos 'reales', para que la máquina aprenda a detectar y aplicar los factores más determinantes para la probabilidad de un crimen, el valor de una indemnización judicial o el riesgo de impago.

Foto: Lorena Jaume-Palasí es la cofundadora de AlgorithmWatch, que evalúa los procesos algorítimicos que tienen una relevancia social (Foto: Steffen Leidel, Deutsche Welle)

Y no es sencillo eliminar del todo esos sesgos, ni siquiera en la vida real: aunque no exista un campo 'raza', el algoritmo lo puede inferir inadvertidamente por datos como el domicilio, los estudios o incluso nombre y apellidos sobrerrepresentados en razas o grupos sociales.

4. Dilemas éticos complejos

Ante un accidente inevitable, ¿un coche autónomo debe priorizar la vida de los propios pasajeros del coche o la humana en general? ¿Es mejor dejarse caer por un barranco matando a los dos pasajeros del coche que conduzco, o girar impactando en una parada de autobús donde hay muchos peatones esperando?

Esta serie de dilemas se pueden aplicar también a campos como la medicina o la defensa y requieren una respuesta universal y consensuada.

Foto: Procesador cuántico diseñado por Google y mostrado en 2020 en un evento de la compañía sobre inteligencia artificial. (Reuters) Opinión

5. Incrementos de desigualdad

La naturaleza acumulativa de los datos y los algoritmos de mejora genera dinámicas de 'el ganador se lo lleva todo' que pueden dar lugar a incrementos en la desigualdad a distintas escalas. Por ejemplo, es muy difícil elaborar un buscador mejor que Google porque goza de una ventaja sostenible en la cantidad de información sobre la red y los usuarios que ha acumulado.

¿Cómo resolver estas amenazas?

La velocidad de desarrollo tecnológico es tal, y el impacto que tiene en la vida de las personas es tan profundo —y creciente— que es imposible que la ley y la regulación puedan anticiparse a estos problemas que hoy no vislumbramos, como no vislumbrábamos muchos de los problemas actuales hace tan solo 10 o 20 años.

Foto: 'A ese no le fiche, señor humano, que es un vago'. (iStock)

La ley lleva sus tiempos de desarrollo largos y negociados, y debe ser razonablemente objetiva, aunque interpretable. Por tanto, la ley no puede ser la única solución (si bien debe ser parte de ella) para los dilemas del desarrollo —sin duda, positivo socialmente— de la IA en los distintos ámbitos empresariales y de las administraciones.

La alternativa de una ley que pueda cubrir todos los casos posibles 'ex ante' no solamente no es posible (por la propia velocidad de desarrollo tecnológico), sino ni siquiera deseable, por el fuerte impacto que tendría sobre la innovación —malo ya de por sí, aún peor en un contexto de fuerte competencia tecnológica con Estados Unidos y China—.

La mejor solución

La mejor solución es el desarrollo de protocolos y nombrar responsables éticos en empresas y administraciones que, de manera flexible con el grado de madurez de la tecnología, y en función de los valores sobre qué es aceptable y qué no, controlen de manera efectiva —con poder real de veto, acceso a la información y decisiones clave— los posibles dilemas.

Foto: (Reuters) Opinión
TE PUEDE INTERESAR
¿Se debe regular la inteligencia artificial?
María Vidal Diego Pérez

Pensemos en un comité de ética médica discutiendo la conveniencia o no de aplicar determinados tratamientos en casos médicos con carga ética elevada. Confiemos en que las normas de buen gobierno —o quizá la propia regulación— desemboquen en la creación de estos roles de autocontrol, dando tiempo a que la ley y la jurisprudencia se desarrollen a sus propias velocidades, protegiendo la sociedad y potenciando la innovación.

*Alicia Richart. 'General manager' de Afiniti España y Portugal.

Las 'amenazas existenciales' de la IA son muy limitadas. Los escenarios apocalípticos descritos en algunas novelas de ciencia ficción están muy lejos de cumplirse. Las máquinas están a años luz de dominar al hombre.

Inteligencia Artificial
El redactor recomienda