Loading...
Comentarios

-

Ha habido un error al recuperar los mensajes
Cargando mensajes...
Ha habido un error al recuperar los mensajes
Es noticia
  1. Tecnología
  2. Tribuna

Tribuna

Underwood tenía razón: el 'big data' marcará las elecciones en EEUU

Es una certeza casi absoluta que la campaña de Hillary Clinton está usando sistemas de 'big data' con fines de persuasión masiva. No es una sorpresa: ella misma los sufrió

Kevin Spacey, protagonista de 'House of Cards'.

No se puede negar que los guionistas de Netflix consiguen crear series de rabiosa actualidad. Una de mis favoritas es 'House of Cards', que nos introduce en la vida de Frank y Claire Underwood (Kevin Spacey y Robin Wright), políticos que no se detienen ante nada en su afán de poder. En los últimos capítulos, con su imagen pública seriamente deteriorada y enfrentándose por la reelección a un carismático líder republicano, Frank y Claire firman un pacto con el diablo: el programador Aidan McAllan crea para ellos un vasto sistema informático que, espiando en la vida digital de millones de americanos (conversaciones, SMSs, emails, páginas visitadas) para descubrir el impacto de cada noticia, cada frase, cada acción, es capaz de usar modelos predictivos para determinar la forma idónea de influenciar a la audiencia y cambiar el curso de la elección.

Una historia ingeniosa, sin duda, pero ¿cuánto de ello podría ocurrir en realidad? La respuesta es más de lo que en principio se imagina. Aunque no hay ninguna confirmación oficial, es una certeza casi absoluta que la campaña de Hillary Clinton está usando sistemas similares al descrito (sí, lo llaman 'big data'), con fines de persuasión masiva. Esta apuesta no es de extrañar: ella sufrió la efectividad de esos métodos en su propia persona.

Barack Obama en el 2008 abanderó el lema del cambio, y tal vez el aspecto más decisivo de dicha transformación fue la manera en la que ejecutó su campaña. Su arma secreta escondida en los sótanos de la universidad de Chicago era Rayid Ghani, el Chief Data Scientist de la organización 'Obama for America' que derrotó a Hillary Clinton.

Bajo sus órdenes se asignaron a cada votante del país dos puntuaciones según la probabilidad de que el votante efectuara dos acciones fundamentales: votar, en primer lugar, y por Obama, en segundo. Dichos valores se derivaron de un trabajo de campo sin precedentes: las centralitas de cada uno de los estados en disputa realizaron entre seis y once mil entrevistas por semana para evaluar las preferencias del votante. Los datos se trillaban mediante algoritmos diseñados por el equipo de Rayid para derivar predicciones a nivel individual, buscando patrones entre esas opiniones, las puntuaciones de cada votante, y su perfil, asignando hasta mil variables para cada individuo extraídas de los registros públicos de voto, los contactos de campañas anteriores e incluso bases de datos sobre consumidores compradas a terceros.

Una vez ganadas las primarias, su adversario republicano era el vetusto McCain, quien confiaba en externalizar ese trabajo a través de compañías como TargetPoint Consulting, empresa afincada en la lujosa y confortable vecindad de Alexandria, a un tiro de piedra de Washington. No en vano la firma había causado ondas sísmicas cuatro años antes al introducir en la arena política las técnicas de gestión relacional, las bases de datos y sistemas de CRM populares en el mundo corporativo, ofreciendo una ventaja significativa al W de la familia Bush en su campaña de reelección frente a John Kerry. Pero mientras las recetas de TargetPoint permanecían ancladas en sus métodos de marketing comercial, Rayid había traído para los demócratas una ambrosía considerablemente superior: técnicas derivadas de las ciencias sociales junto a la potente maquinaria de la analítica computacional, el 'data science'.

Los acólitos del senador McCain ejecutaron sus modelos estadísticos sólo una vez. Los modelos de Barack Obama se ajustaban semanalmente

Las diferencias eran marcadas. Mientras los acólitos de McCain ejecutaron sus modelos estadísticos sólo una vez, asignando los votantes a microfocos estáticos a lo largo de la campaña, los modelos de Obama se ajustaban semanalmente, recalculando probabilidades de forma dinámica en respuesta a nuevos eventos como el colapso de Lehman Brothers y su efecto mediático.

Esta información permitía dirigir los esfuerzos de los voluntarios para conversar con los votantes más valiosos y, por supuesto, todas las interacciones se volcaban dentro del sistema para refinar cada vez más la eficiencia del proceso. Dar cera. Pulir cera. Ganar elección.

Una vez llegó 2012 Obama se enfrentaba a un gran problema: el abanderado del cambio era ahora casta política. Sin embargo, gracias a sus sistemas de 'big data', el astuto presidente empezó los esfuerzos por la reelección con la confianza de que conocía a cada uno de los 69 millones y medio de Americanos cuyos votos le habían puesto en la Casa Blanca.

Por supuesto, los votos seguían siendo secretos como en cualquier democracia que se precie. Pero los analistas de Obama, ahora bajo la dirección del joven pero brillante Dan Wagner, podían mirar a los resultados agregados de cada precinto electoral y usar el sistema para identificar a las personas que con mayor probabilidad les habían dado apoyo. En los medios de comunicación se hablaba de "recrear la coalición de 2008"; pero dentro de la campaña el objetivo era literal: recrearla persona a persona, a través de esos contactos personales.

A pesar de ello en esta ocasión la batalla iba a ser más feroz, porque alguien estaba atento al otro lado. Desde su primera campaña a gobernador de Massachusetts en 2002, Mitt Romney, había sido cliente asiduo de TargetPoint Consulting, y durante las primarias republicanas pareció ser el único candidato con una estrategia organizada, acaparando votos de forma metódica en estados clave como Florida y Ohio antes de que sus oponentes hubiesen siquiera llegado. Una vez asegurada la nominación y consciente de sus carencias, Romney contrató a Alex Lundry, hasta la fecha vicepresidente de TargetPoint, con el objetivo de recrear para su campaña el equipo de expertos y las herramientas de su adversario y poder competir de igual a igual.

El Optimizador dividía cada día en 96 segmentos de un cuarto de hora, y evaluaba qué espacios ofrecían el mayor número de individuos influenciables

Lundry recorrió oficinas, departamentos universitarios, e hizo todo lo posible por reclutar al mejor talento. Con el poco tiempo disponible su unidad de 'data science' sólo llegó a ser, en su cénit, una décima parte de la de Wagner y, aunque lograron progresos significativos que les hubiesen dado una baza que jugar en el 2008, en el césped del 2012 el equipo de científicos demócrata se encontraba ya al nivel de la Champions League. Yendo más allá de las actividades de los voluntarios, sus ingenieros habían creado una plataforma de 'software' llamada Optimizador para dirigir toda su estrategia mediática global, incluyendo prensa, radio, televisión e internet, en base a modelos matemáticos. El Optimizador dividía cada día en 96 segmentos de un cuarto de hora cada uno, y evaluaba qué espacios ofrecían el mayor número de individuos influenciables por dólar gastado a lo largo de 60 canales diferentes. Metadona digital para el culto de 'big data'.

68 anuncios para 9.000 personas

Con semejante desproporción armamentística, los republicanos se vieron obligados a tomar una estrategia defensiva, y el equipo de Lundry empezó a rastrear dónde la campaña de Obama estaba focalizando sus esfuerzos, en términos de dólares y tiempo del presidente, intentando adivinar los cálculos detrás de las decisiones. Es decir, lo que los programadores llamamos un trabajo de ingeniería inversa, pero con resultados bastante pobres. En especial la estrategia televisiva de Obama les resultaba muy difícil de descifrar: una semana después de la convención demócrata aireó no uno, sino 68 anuncios en Dothan, Alabama, un pequeño pueblo cercano a la frontera con Florida con 9.000 votantes, de los cuales 7.000 habían votado por McCain en el 2008, mientras ignoraba otras cadenas de ámbito estatal.

Los asesores de Romney se desesperaban. ¿Por qué ahí? ¡Eso es terreno sólido republicano! Podían intuir que había una mano invisible detrás que dirigía todas estas iniciativas aparentemente inútiles e inconexas, algo en los algoritmos que husmeaba el terreno con un finísimo olfato y se lanzaba a la caza de pequeños rebaños de votantes influenciables. Pero no podían descubrir ni qué, ni como.

Todos conocemos el resultado de la historia: Romney perdió, si bien por un estrecho margen. Hillary ha heredado este auténtico tesoro analítico del partido demócrata, y puede apostar que le va a granjear muchos votos este año. Tal como ya sucedió en ocasiones anteriores, el 'big data' juega un papel crítico para la persuasión masiva de votantes durante la carrera presidencial. Al final del día es un juego de grandes números, y los sistemas de análisis predictivo permiten coordinar mejor las actividades de cada uno de los voluntarios que forman la campaña electoral.

Sin conocer aún el resultado de los comicios, ¿qué podemos atisbar en el lado republicano? Nada halagüeño. De hecho, su candidato se burla en público del tipo de sistemas analíticos que, como acabamos de ver, fueron capitales para la estrategia demócrata.

Poco antes de ganar la nominación, Donald Trump declaró que siempre le han parecido sobrevalorados: "Obama consiguió los votos por su carisma y no por un procesador de datos. Va a ser lo mismo conmigo". ¿Qué le va a enseñar una maquinita al gran Trump? En lugar de ello continuará poniendo el énfasis en baños de masas multitudinarios, algo muy a tono con su personalidad. El problema con ese tipo de eventos es que suelen atraer a los votantes que ya están convencidos, convirtiéndose en una cámara de resonancia inútil, un canto de sirena que resulta peligroso por cuanto es seductor. De hecho, hay quienes comentan que esta actitud no sólo va a dañar sus opciones de ganar la elección, sino también impedir que el partido republicano consiga poner al día su arsenal analítico en esta acelerada carrera armamentística, con serias consecuencias.

En definitiva, la consultoría que asiste a Hillary se llama BlueLabs en lugar de Pollyhop, pero podemos apreciar los otros grandes paralelismos con las intrigas que nos brinda House of Cards en la comodidad de nuestra sala de estar. Con una notable excepción: todos los datos que alimentan los modelos algorítmicos se han obtenido dentro de los márgenes de la legalidad, sea a través de registros públicos o bajo contrato con fuentes privadas, en lugar de las escuchas ilícitas a escala nacional que se ven en la serie. O al menos hasta ahí sabemos a día de hoy.

Y si bien tal vez no podemos cuestionar la legalidad de tales actividades, sí que nos queda espacio para cuestionar su moralidad. Porque, ¿hasta qué punto esa tarea de microfoco que llega, en su sumo refinamiento, a poder proporcionar un mensaje para cada individuo, no se convierte en un vacuo decirte lo que quieres oír para conseguir tu voto? No viene de hoy ni de ayer que los políticos de carrera tengan una reputación de maximizadores de votos, sin que les importe la sustancia de las tesis a defender mientras sean populares. Estas nuevas técnicas de analítica predictiva permiten aumentar la capacidad camaleónica de persuasión a niveles que no hemos conocido antes, algo bastante peligroso cuando los votantes son cada vez más incapaces de distinguir posiciones divergentes en el discurso político.

Como decía Groucho Marx: “Estos son mis principios. Si no le gustan, tengo otros”.

*Isaac de la Peña es partner y CTO de la firma Agora EAFI, Sloan Fellow del MIT, y especializado en 'inteligencia artificial', 'big data' y finanzas.

Ver comentarios
Big Data Hillary Clinton