Es noticia
Data crawling y escucha activa
  1. Mercados
  2. Tribuna Mercados
Tribuna EC10

Tribuna Mercados

Por

Data crawling y escucha activa

Las empresas no deberían utilizar estas herramientas sin contar con un asesoramiento experto en la protección de datos que garantice el respeto a la ley y a los derechos de las personas

Foto: (iStock)
(iStock)

El data crawling, o rastreo de datos, es la técnica de extraer datos masivos de Internet para obtener, tras tratarlos, conclusiones de alto valor para algún actor económico, social o gubernamental. Se trata del tratamiento inicial que alimenta los big data, el internet de las cosas y la inteligencia artificial para tomar decisiones estratégicas. Lo desarrollan robots de forma automatizada y metódica, que seleccionan los tipos de datos y las fuentes que interesan.

Cuando el data crawling se concentra en el análisis de datos personales, incluyendo opiniones, se denomina «escucha activa». En este caso, se siguen y analizan en tiempo real las publicaciones de los usuarios online para compararlas y valorar su presencia y peso relativos, o simplemente para conservarlos como un perfil del usuario «escuchado». De esta forma, es posible evaluar las tendencias de opinión sobre una situación o una marca, conocer en profundidad la situación social y sus diferentes actores e incluso predecir situaciones futuras y programar estrategias comerciales, políticas o de cualquier índole.

placeholder Javier Aparicio
Javier Aparicio

Son muchas las empresas que conservan archivados, para comercializarlas las opiniones y comentarios que publican los usuarios de las redes sociales junto al nombre o identificación. Y, dada su utilidad, aunque el usuario elimine el comentario en la red social, esas entidades lo conservan. Nunca desaparece. La sensación de que en Internet se es anónimo es totalmente falsa.

Un precedente importantísimo de escucha activa se encuentra en la ley de protección de datos de 2018, que atribuyó a los partidos políticos la capacidad de recopilar opiniones políticas de las personas en el marco de sus actividades electorales. Esta previsión la anuló finalmente el Tribunal Constitucional en su sentencia 76/2019.

Como puso de relieve el Tribunal Constitucional, la descarga, la recopilación y el tratamiento de datos están limitados por las garantías de protección de los datos de carácter personal, incluso cuando los datos no personales sirven para enriquecer una base de datos de carácter personal. El Reglamento General de Protección de Datos condiciona el tratamiento al respeto de ciertos límites.

Este reglamento establece el deber de transparencia frente a los interesados, y obliga a quien trata los datos a informar de las circunstancias y finalidades del tratamiento, a facilitar el acceso a los datos y a atender las solicitudes ejercicio de derechos de protección de datos.

placeholder Antonio Jiménez
Antonio Jiménez

Es más, la obligación de informar al interesado solo se excusa cuando: a) el interesado ya tiene esa información; b) la comunicación sea imposible o suponga un esfuerzo desproporcionado; c) los datos se hayan obtenido por mandato legal y establezca medidas adecuadas para proteger los intereses legítimos del interesado; o d) el tratamiento esté legalmente sometido a secreto profesional.

Además, la valoración de si concurre alguna de esas circunstancias excepcionales debe hacerla el responsable del tratamiento aplicando criterios muy estrictos, porque la conclusión infundada de que concurre una excepción daría lugar a la infracción de uno de los principios más importantes de la protección de datos.

En la mayoría de las circunstancias de la vida, la opinión individual de cada usuario tiene un valor muy limitado, es como una gota de agua en el océano. Pero esos contenidos pueden ser de gran valor en ciertos casos, por ejemplo, para empresas aseguradoras que, tras analizar las fotografías y comentarios de un usuario, podrían pedirle condiciones especiales en la póliza de un seguro.

En conclusión, el data crawling y la escucha activa son dos herramientas utilísimas para las decisiones sociales, políticas y comerciales, e inciden directamente en la privacidad de los ciudadanos. Por ello, las empresas no deberían utilizarlas sin contar con un asesoramiento experto en la protección de datos que garantice el respeto a la ley y a los derechos de las personas.

*Javier Aparicio Salom y Antonio Jiménez Gil son co-director y abogado senior en 'finReg'

El data crawling, o rastreo de datos, es la técnica de extraer datos masivos de Internet para obtener, tras tratarlos, conclusiones de alto valor para algún actor económico, social o gubernamental. Se trata del tratamiento inicial que alimenta los big data, el internet de las cosas y la inteligencia artificial para tomar decisiones estratégicas. Lo desarrollan robots de forma automatizada y metódica, que seleccionan los tipos de datos y las fuentes que interesan.

Ley de protección de datos Internet de las cosas Big Data Tendencias FinReg
El redactor recomienda