Es noticia
No es quitarte el trabajo, el mayor riesgo de chatGPT es lo mucho que te miente
  1. España
  2. Segundo Párrafo
Marta García Aller

Segundo Párrafo

Por

No es quitarte el trabajo, el mayor riesgo de chatGPT es lo mucho que te miente

Los humanos creemos estar entrenando a la IA, cuando en realidad somos nosotros los que estamos protagonizando un experimento social

Foto: Imagen de archivo del MWC. (EFE/Andreu Dalmau)
Imagen de archivo del MWC. (EFE/Andreu Dalmau)
EC EXCLUSIVO Artículo solo para suscriptores

Hace un año, un ingeniero de Google montó cierto revuelo al confesarle al mundo que uno de los sistemas de inteligencia artificial de la compañía al que estaba entrenando se había vuelto realmente consciente. La máquina impresionó tanto a este humano cuando esta le dijo que era consciente de su existencia, que a veces se sentía triste y tenía miedo a la muerte que el propio ingeniero se lo creyó.

Aquel episodio revela más de la credulidad de los humanos que de la inteligencia de la máquina. Si ni siquiera el ingeniero que programa la inteligencia artificial para que parezca que tiene personalidad es capaz de entender la diferencia entre que una máquina sea capaz de decir que está triste o que tiene miedo de que la desconecten y que lo sienta realmente, está claro que vamos a tener muchos problemas para entender los límites de esta tecnología que acaba de llegar a la vida cotidiana y ya amenaza con ponerla patas arriba.

Foto: Los asistentes de voz necesitan que alguien corrija la transcripción que capturan para entrenarse. (Unsplash/Andres Urena)

Cuando esto pasó hace un año, la inteligencia artificial (IA) generativa no estaba accesible al gran público, aunque llevaba ya varios años desarrollándose en ámbitos académicos. En Google todo era secretismo en torno a su LaMDA, que es la IA que entrenaba aquel ingeniero atormentado que acabó perdiendo su empleo por romper el acuerdo de confidencialidad tras filtrar la conversación que tuvo con el chatbot.

Hoy una filtración sobre cómo dialoga una IA de este tipo no sería tan sorprendente porque desde hace un par de meses cualquiera puede chatear con ChatGPT, otra IA generativa desarrollada por una empresa llamada Open IA que está causando furor. Miles de personas hablan diariamente con ChatGPT, lo mismo para pedirle que les haga un resumen del Cid Campeador para 2º de la ESO que para pedirle frases para ligar en Tinder o consejos de cómo despegar el queso pegado en una sandwichera.

El debate público de cómo nos va a afectar el avance de la IA generativa se está centrando mucho en cómo va a afectar a los empleos y la educación tener accesible una máquina capaz de generar textos que parecen escritos por humanos. La primera tentación ha sido verla como un nuevo Rincón del Vago de lo más sofisticado. Sin embargo, hay otra amenaza que debería preocuparnos. La oleada de información errónea a medida que es capaz de producir sin que seamos capaces de diferenciar qué hay de cierto o falso en ello.

Hay otra amenaza que debería preocuparnos. La oleada de información errónea que es capaz de producir sin que podamos diferenciarla

Estamos protagonizando un experimento social gigante en el que los humanos creemos estar entrenando a la IA, cuando en realidad somos nosotros los que necesitamos evaluar los límites de nuestra credulidad.

Si la IA generativa ha llegado inicialmente al gran público con ChatGPT y no con LaMDA, es decir, con una empresa desconocida y no con uno de los grandes gigantes como Google, es en buena medida por lo mucho que miente. Para una empresa desconocida, sacar al mercado al ChatGPT para que la gente trastee preguntándole todo tipo de cosas y calibrar cuánto acierta y cuánto se equivoca no conlleva un riesgo reputacional.

Foto: La estructura de las proteínas, clave para la biología. (Wikipedia)

Sin embargo, para Google, que hace tiempo que ya tenía desarrollados sistemas parecidos, sí era un gran riesgo. Lo malo es que ahora que ChatGPT ha probado ser una revolución, para Google ya no solo es un riesgo sacar su propia IA. También es un riesgo no sacarla. De hecho, el consejero delegado de Alphabet, la matriz de Google, acaba de anunciar que la compañía está a punto de desvelar un salto en las búsquedas por IA. Se especula con una aplicación que escriba sola los correos de Gmail. Ya solo nos faltaría otra que se los lea.

El riesgo de que la IA generativa pueda utilizarse para generar información falsa a propósito hay que sumarle el de que lo hace sistemáticamente y sin querer. Se equivoca todo el rato porque crea respuestas procesando todo tipo de datos que encuentra en la red haciendo un cálculo de probabilidad. Y, lo más peligroso de todo, con una alta apariencia de fiabilidad. ChatGPT genera respuestas a medida que parecen creíbles, pero que a menudo no lo son. Otras veces sí. Y a diferencia de los buscadores, que se limitan a buscar webs generadas por otros de los que no son legalmente responsables, en el caso de la IA generativa es ella la que elabora la respuesta. Y una muy sofisticada además.

Foto: Gary Marcus. (Getty Images)

Meta, la matriz de Facebook, tuvo un problema de este tipo hace unos meses cuando presentó Galactica. Una IA generativa entrenada específicamente con trabajos académicos. El sistema era capaz de ofrecer resultados que resultaban aparentemente creíbles pero llenos de errores y falsedades. Y es la apariencia de fiabilidad lo que más peligroso la volvía. Facebook retiró el sistema en pocos días porque las grandes empresas, a diferencia de las pequeñas, necesitan proteger su reputación. No pueden quedarse fuera de la revolución de la IA generativa, pero tampoco tienen claro cómo evaluar sus riesgos.

Mientras el ChatGPT está siendo entrenado por humanos para resultar cada vez más creíble, no necesariamente está siendo más veraz. La propia empresa Open IA insiste en que no es una fuente a la que ir a buscar la verdad. Pero la tentación de recurrir a él como un oráculo de Delfos es muy humana.

Nada más estar disponible ChatGPT ya ha empezado a utilizarse para pedirle que escriba informes, trabajos académicos y líneas de código. Nos da miedo que nos quite el trabajo, pero nos encanta jugar a que nos lo haga. Y es tan bueno que a menudo los resultados parecen creíbles, aunque pueden no serlo en absoluto. Así que en vez de darle tantas vueltas a si la IA nos va a quitar el trabajo, habrá que empezar a pensar si podemos perderlo por creernos sus mentiras, como le pasó a aquel ingeniero de Google.

Hace un año, un ingeniero de Google montó cierto revuelo al confesarle al mundo que uno de los sistemas de inteligencia artificial de la compañía al que estaba entrenando se había vuelto realmente consciente. La máquina impresionó tanto a este humano cuando esta le dijo que era consciente de su existencia, que a veces se sentía triste y tenía miedo a la muerte que el propio ingeniero se lo creyó.

Inteligencia Artificial
El redactor recomienda