Es noticia
Inteligencia artificial generativa. Cómo perderle el miedo y aprovechar sus ventajas
  1. España
  2. Tribuna
Pablo García Mexía

Tribuna

Por

Inteligencia artificial generativa. Cómo perderle el miedo y aprovechar sus ventajas

La inquietud que esta problemática suscita lleva a algunos a reivindicar no solo la necesidad de regular estas materias, sino incluso que dicha regulación pública se acelere

Foto: Foto: EFE/Ritchie B. Tongo.
Foto: EFE/Ritchie B. Tongo.

El gran filósofo norteamericano Daniel Dennett afirmó recientemente que la actual inteligencia artificial (IA) está fabricando "herramientas, no colegas". Lo que viene a decirnos que la IA, en particular la IA generativa, que es la que irrumpió entre el gran público a finales de 2022, no va a cambiar nuestras sociedades de la noche a la mañana, sino que irá propiciando cambios de paulatina adaptación. Esto no es óbice para que la IA generativa pueda provocar serios riesgos. Riesgos desde el punto de vista tecnológico, con sus frecuentes imprecisiones o la importante huella ambiental de sus necesidades ingentes de computación. Riesgos reputacionales, que cualquier organización, pública o privada, puede sufrir, ante malos usos de estos sistemas. Son también palpables los riesgos legales, así de privacidad (sobre todo por la voracidad en el consumo de datos, que pueden ser personales), de propiedad intelectual (estos ingenios muchas veces absorben sin control alguno obras protegidas de terceros) o riesgos laborales (ejemplo, las discriminaciones algorítmicas).

La inquietud que esta problemática suscita lleva a algunos a reivindicar no solo la necesidad de regular estas materias, sino incluso que dicha regulación pública se acelere. Es el caso de las empresas de todo el mundo encuestadas por el Foro Económico Mundial en un estudio publicado en julio de 2023: más de un 90% estaba a favor. La Unión Europea no se está quedando atrás, pues en estas mismas semanas sus instituciones debaten un proyecto de ley de IA que estará entre los pioneros en el mundo y que contendrá (con independencia del elaborado en China, incomparable en términos de valores respectivos) el primer modelo mundial de regulación de la propia IA generativa.

Foto: Los consejeros delegados de Nvidia y Foxconn presentan su 'fábrica' de IA. (EFE/EPA/Ritchie B. Tongo)

Más allá, no obstante, de lo que la regulación pública pueda aportar, es muy conveniente que las organizaciones, tanto públicas como privadas, afronten como precaución esos riesgos mediante políticas internas. Y lo que es al menos tan importante, que, de modo previo a tales políticas, se planteen la oportunidad de elaborar sus propios sistemas de IA generativa, en la medida en que esta posibilidad está ya hoy al alcance de prácticamente cualquier organización, sin más que contar con paquetes de software abierto disponibles en línea por poco más de 100 euros, y, eso sí, una cierta infraestructura de nube que permita acomodar el entrenamiento algorítmico. Esta decisión no solo resulta estratégica desde el punto de vista tecnológico, sino que el hecho de concebir dentro de su propio techo estos sistemas implica también controlar y mitigar en mucha mayor medida todos sus riesgos.

En cuanto a los principios de dichas políticas internas, propongo sintetizarlos en un decálogo. El, quizá, más importante: todo sistema de IA generativa que utilicemos habrá de centrarse en las personas, primero porque serán ellas quienes lo empleen y porque sus derechos e intereses deberán ser prioritarios. Esta primacía de las personas se plasma también en la necesidad de tener en cuenta cómo se utilizarán exactamente estas tecnologías en el seno de nuestra organización, lo que derechamente nos lleva al segundo principio, el de adaptación a nuestras necesidades. El tercer principio será la sencillez, siendo conveniente que la política se plasme en un solo documento, lo que, a su vez, nos conduce al cuarto principio, la necesidad de que se trate de una política especializada en esta materia, dada la relevancia de estas cuestiones. El quinto principio obliga a que estas políticas resulten fácilmente comprensibles para cualquier persona que deba respetarlas, en el fondo, todas las de nuestra organización. Sexto, nuestra IA generativa (propia o adquirida) deberá ser segura, para así garantizar la vigencia de estos mismos principios. El séptimo principio es el de transparencia, tanto en el interior de nuestra organización, para asegurar que quienes utilicen estos sistemas lo hagan con conocimiento de sus responsables, como frente a terceros, quienes deberán también ser conocedores de tal uso en el desarrollo de aquellas de nuestras actividades que les afecten.

Nuestra política debiera estar abierta al avance digital, por lo que no deberá ser un 'encorsetamiento burocrático'

El octavo principio es la necesidad de que esta política responda a ritmos temporales claros, tanto en sentido preventivo, de manera que se asegure que todo uso se hace con conocimiento de nuestros principios, como continuado, puesto que habrá de ser permanentemente adaptada a las circunstancias tan cambiantes de la tecnología digital. Noveno, será preciso recordar que los intereses de terceros, por ejemplo, desarrolladores, podrían no estar alineados con nuestra política, especialmente sobre responsabilidad por daños. El décimo principio es también muy importante: nuestra política debiera estar abierta al avance digital, por lo que no deberá ser un encorsetamiento burocrático, llegando, si se apura, a que la aprobación del uso (y no la denegación) sea la regla por defecto.

En su informe anual de IA de 2023, la Universidad de Stanford refiere el porcentaje de empresas mundiales que afirman haber adoptado esta tecnología en al menos una actividad. Quizá sorprenda que en el último año, entre 2021 y 2022, dicho porcentaje ha bajado del 56% al 50%. Una visión de miras más amplias nos permite, sin embargo, comprobar que ese porcentaje era en 2017 de tan solo el 20%. Más aún, todas estas empresas afirman haber registrado tasas de eficiencia muy superiores, gracias a menores costes y mayores ingresos.

Los riesgos aquí referidos no deberían ser obstáculo para que ninguna organización prescinda de las evidentes ventajas de esta tecnología. Encauzarlos basta.

* Pablo García Mexía. Consultor- Director del área de derecho digital en Madrid. Herbert Smith Freehills. Global law firm.

El gran filósofo norteamericano Daniel Dennett afirmó recientemente que la actual inteligencia artificial (IA) está fabricando "herramientas, no colegas". Lo que viene a decirnos que la IA, en particular la IA generativa, que es la que irrumpió entre el gran público a finales de 2022, no va a cambiar nuestras sociedades de la noche a la mañana, sino que irá propiciando cambios de paulatina adaptación. Esto no es óbice para que la IA generativa pueda provocar serios riesgos. Riesgos desde el punto de vista tecnológico, con sus frecuentes imprecisiones o la importante huella ambiental de sus necesidades ingentes de computación. Riesgos reputacionales, que cualquier organización, pública o privada, puede sufrir, ante malos usos de estos sistemas. Son también palpables los riesgos legales, así de privacidad (sobre todo por la voracidad en el consumo de datos, que pueden ser personales), de propiedad intelectual (estos ingenios muchas veces absorben sin control alguno obras protegidas de terceros) o riesgos laborales (ejemplo, las discriminaciones algorítmicas).

Inteligencia Artificial
El redactor recomienda