Es noticia
Bots, tuits, RT’s y un entorno de desinformación
  1. España
  2. Intención de Voto
Equipo Intención de Voto

Intención de Voto

Por

Bots, tuits, RT’s y un entorno de desinformación

¿Por qué tememos hoy la desinformación más que nunca si siempre hemos vivido con engaños, falsedades y leyendas urbanas?

Si 'fake news' fue la palabra del año 2017 para Collins, su evolución más racional, 'desinformación', puede ser sólida candidata en 2018. Ya sabemos que vivimos en un universo potencial de fáciles relaciones causales y que cualquier asunto con fondo es tratado desde el más impactante titular, lo que abre las puertas en toda su amplitud a que una proposición falsa pero bien especiada llegue más lejos que toda la verdad recogida en un libro de, digamos, física.

La desinformación ha existido siempre. El ansia de trascender con un rumor o con un hecho falseado o de ganar adhesiones mediante el "yo sé algo que no sabes" y llevarlo tan lejos como sea preciso, no es nuevo. Desde la muerte de Mark Twain ("los informes sobre mi muerte han sido exagerados") a los grandes infames (intrigantes, tramposos o traidores al tiempo que atractivos personajes históricos) como Savonarola o Benedict Arnold y más recientes timadores como Madoff, hicieron de la información que afirmaban tener el motivo de su posición privilegiada y, al tiempo, el motivo de su caída en desgracia.

De hecho, todos hemos escuchado la frase de "si sale por TV es que debe ser verdad" y por la TV se habló del fin del mundo según los mayas hace no mucho, en algunos casos con descrédito y en otros citando otro famoso recurso que era el "no podemos mentir ni confirmar". Evidentemente ninguna de las anteriores, ya que tampoco los mayas sabían si iba a pasar.

El ansia de trascender con un rumor o con un hecho falseado o de ganar adhesiones mediante el "yo sé algo que no sabes" y llevarlo lejos no es nuevo

Entonces, ¿por qué tememos hoy la desinformación más que nunca si siempre hemos vivido con engaños, falsedades y leyendas urbanas? La base es la misma que antaño; es mucho más fácil de creer algo sonoro y/o perverso que algo normal y/o no doloso.

Hoy la desinformación es un problema acuciante por dos motivos principales: uno, la dispersión, ya que no es lo mismo que te lo diga una persona un día y quieras darle credibilidad, a que te lo hayan narrado 100 o 1.000 personas distintas en una hora.

Dos, la confianza; de forma consecutiva a la anterior, las redes sociales llevan inherentes relaciones de confianza, de tal forma que, no ya Facebook o Twitter a través de amigos y perfiles a los que seguimos, sino Telegram o WhatsApp como plataformas en las que hablamos con gente a la que conocemos y con los que tratamos en el día a día y que generan un ascendente difícil de quebrar.

Foto: Jan Koum, cofundador de WhatsApp. (Reuters)

Así que, con la tecnología, la artesanía ha muerto y ha sido sustituida por estructuras mixtas hombre–máquina que permiten, no ya solo una alta velocidad de difusión, sino una mayor incidencia por los canales de confianza desde los que llegan.

Como remate tenemos lo que podríamos plantear como la paradoja de la información: nunca hemos tenido tanta información a nuestra disposición y tan poca profundización sobre ella. Incluso si fuera la misma profundización que en otros tiempos (improbable), la relación respecto a la cantidad de información disponible hoy en día haría que la ratio se desplomase.

¿Cuál es la proporción de ese modelo mixto? Pew Research ha editado un estudio llamado 'Bots in the Twittersphere' realizado por Wojcik, Messing, Smith, Rainie y Hitlin en el que afirman en su entradilla que dos tercios de los 'links' publicados en Twitter hacia sitios webs populares son publicados de forma automática y no por humanos. En el estudio, de hecho, hacen una diferenciación para cuestiones políticas y a nivel de ideología, conservadora o de izquierdas, y la diferencia no es significativa, siendo en ambos casos algo superior al 40% de los 'links' publicados automáticamente hacia webs de una u otra orientación.

placeholder Twitter.
Twitter.

Como pueden imaginar, la cantidad de información publicada es tan ingente que el estudio se ha limitado a un periodo que puede parecer corto en el calendario, pero considerado suficiente como muestra. Se abrió a finales de julio de 2017 y se cerró a mediados de agosto del mismo año.

Pero vayamos al principio y veamos cuál es la proporción que concluye el estudio sobre la actividad de publicación de esos enlaces:

placeholder

Un 66% de todo lo que el contenido recogido en el estudio de Pew Research se ha podido constatar que es generado por bots o, lo que es lo mismo, procesos automáticos. Ojo, que estamos hablando de procesos sobre Twitter (no de Twitter) y que pueden ser "listos" o "tontos". "Tonto" es un proceso que simplemente lee literales y actúa. Por ejemplo; ¿que el tuit ha sido lanzado por Brian (un genérico cualquiera)? Pues hago un 'like', o un 'RT', o ambos. Un proceso tan básico no necesita nada adicional que no pueda casi mimetizarse con una acción poco más que espontánea.

Pero un bot "listo" busca palabras, términos… incluso construcciones y busca dar una respuesta humana, al menos aparentemente humana. Como muchos de ustedes sabrán, en sus compañías de gas, luz o telefonía, cuando llega su ciclo de facturación, un programa informático recoge su número de contrato (que contiene los datos que dieron a la hora de formalizarlo), con sus condiciones, con si quiere la factura en papel o por email, analiza su consumo, multiplica por el precio vigente, ajusta por promociones o descuentos y hace dos cosas: lanza un cargo al banco y les manda la factura.

Los "bots listos" miran el texto, extraen palabras clave, las comparan con grupos por temáticas

¿Complicado? No, tan solo se trata de tener claros los conceptos. Pues bien, los "bots listos" van más allá. Miran el texto, extraen palabras clave, las comparan con grupos mayores por temáticas. Si son muy, muy listos intentan discriminar el tono (enfadado, complaciente, satisfecho…) y, entonces, lanzan un mensaje programado en el que, o bien todo el texto está definido de antemano, o bien completan plantillas y contestan al tuit por el cual se ha provocado su activación.

El estudio de Pew Research no discrimina entre bots "listos" y "tontos", simplemente ha detectado un comportamiento en el que, en muchos casos, la respuesta puede considerarse automática (por no decir no-humana).

placeholder

Seamos sinceros: el acto va por delante del castigo y, por tanto, por delante del delito y, en paralelo a esta premisa, podríamos decir que el contenido para adultos va por delante de cualquier otro sector.

Y así lo demuestra el estudio que traemos hoy aquí. La mayor actividad automática se refiere a tuits que incluyen enlaces a páginas web que tratan este tipo de contenidos. Por encima de la media (66%) están los deportes y la promoción comercial y, apenas 4 puntos por debajo, temas de 'celebrities'.

Pero volvamos al comportamiento de los bots. Seguro que en algún momento han visto un gráfico de comportamiento de red. En muchas ocasiones, especialmente en política debido a su polarización, es fácil identificar posicionamientos, sobre todo en eventos como los debates o las campañas lanzadas en las noches electorales. Estos gráficos también son interpretables por bots. A ver, a lo mejor los gráficos no, pero sí los datos que subyacen detrás de ellos: usuarios, usuarios influyentes, seguidores por usuarios, usuarios que responden a usuarios influyentes… y, con todo ello, se pueden interceptar conversaciones y liberar temas, propuestas y… sí, desinformación.

El estudio de Pew (circunscrito a los EEUU) muestra cómo los elementos más compartidos son los publicados en medios teóricamente neutros

Así que aquí estamos; un bot "listo", un mensaje, un 'link' a una web (que da más prestancia que un mero tuit), una red sobre la que desplegar y ya tenemos un elemento a viralizar si hemos sabido acertar con la segmentación y el diseño o formato de lo que queremos mandar. ¿A que no parece complicado? Bueno, sí lo es si uno quiere hacerlo parecer humano, pero eso es otro tema.

El estudio de Pew (circunscrito a los EE.UU.) también muestra cómo los elementos más compartidos son aquellos publicados en medios teóricamente neutros, como Forbes o Business Insider. En este sentido más activos a la hora de compartir son los progresistas y algo menos (recuerden lo comentado al principio del artículo) los conservadores. Ahora, contenidos en medios claramente progresistas como Mother Jones son menos compartidos que los contenidos en medios conservadores como Fox News.

¿Por qué se comparten más los neutros? Imaginen que en su 'timeline' les llega un tuit de Pablo Iglesias. Si son de Podemos, será un objeto de peso en su abanico de decisiones. Si son de Ciudadanos será algo a descartar. Pero ¿y si lo que ha dicho Iglesias les llega en un artículo de un medio que consideran veraz? Al revisar su 'timeline' no verán el avatar de Iglesias, sino el del medio y eso ya genera una puerta a la confianza y, por tanto, mayor probabilidad de pinchar en el 'link'.

¿Legislar? ¿No legislar? ¿Responsabilidad del medio? ¿De la plataforma? El responsable último es el lector, el que decide aceptar lo recibido o no

Como habrán visto, las técnicas de dispersión son variadas e independientes del contenido. Imaginen ahora que el contenido no es veraz, que es en todo punto falso o que, acaso, genera una relación causa-efecto meramente nominal, pero sin nada detrás que lo verifique; ya tienen un ejemplo de desinformación en su bandeja de entrada, en su 'timeline' o en su WhatsApp con familia, amigos o compañeros de trabajo.

¿Legislar? ¿No legislar? ¿Responsabilidad del medio? ¿De la plataforma? El responsable último es el lector, el que decide aceptar lo recibido verificando y contrastando la información o no. El medio, muy especialmente la plataforma, es a la que podemos llamar responsable de avisar si el contenido es falso, potencialmente falso o si, incluso, no ha sido verificado. A partir de ahí es la cultura digital del usuario, por tanto el usuario, quién debe discriminar. No es una tarea fácil, pero hoy podemos deshacer la paradoja de la información de una manera ágil. En cualquier otro caso… Hic Sunt Dragones.

Si 'fake news' fue la palabra del año 2017 para Collins, su evolución más racional, 'desinformación', puede ser sólida candidata en 2018. Ya sabemos que vivimos en un universo potencial de fáciles relaciones causales y que cualquier asunto con fondo es tratado desde el más impactante titular, lo que abre las puertas en toda su amplitud a que una proposición falsa pero bien especiada llegue más lejos que toda la verdad recogida en un libro de, digamos, física.

Fake News