Es noticia
Contra la pederastia en la red
  1. Mundo
  2. Tribuna Internacional
Javier Zarzalejos

Tribuna Internacional

Por

Contra la pederastia en la red

Se necesitan nuevos esfuerzos, regulación clara, herramientas tecnológicas y ayuda a las víctimas para que sobrevivan a su tragedia, que es, también, una tragedia para todos nosotros

Foto: Foto: EFE.
Foto: EFE.

En el pasado año 2022, se registraron en la Unión Europea 1.500.000 informes/denuncias alertando de contenidos de abuso sexual de menores en la red, CSAM, por sus siglas en inglés. Tal número de denuncias significa que más de cinco millones de imágenes vídeos y fotografías de abuso y agresión sexual a menores han circulado por la red y que esta sigue siendo alimentada por los contenidos que aportan los pederastas, actuando a menudo como grupos de generación e intercambio de tales contenidos.

En su informe anual referido también al pasado año, una organización que lidera desde el Reino Unido la lucha contra los contenidos de abuso sexual de menores, la Internet Watch Foundation (IWF), arrojaba datos que dibujan con precisión la escalofriante dimensión que está alcanzado esta lacra. IWF procesó 375.230 informes/denuncias referidas a posible material pedófilo. De este número, IWF actuó sobre 255.571, en las que se comprobó que, efectivamente, incluían CSAM. El 59% de estos contenidos que IWF eliminó de la red se encontraba alojado en servidores de Estados miembros de la Unión Europea, algo que debe mover a una seria reflexión y a una actuación decidida.

El 78% de los informes confirmados de abuso sexual infantil contenía imágenes generadas por los propios menores tras el engaño

La gran mayoría de los menores víctimas en estas imágenes son niñas o adolescentes de sexo femenino (96%), pero el informe observa que los niños, aunque constituyan el 4% de las imágenes, son sometidos a abusos y agresiones de mayor dureza. Por otro lado, se observa una reducción en la edad de las víctimas. Si bien la mayoría de las víctimas se sitúa en una franja de edad entre 11 y 14 años, aumentan las que están en la franja de siete a 10 años. Y conviene saber que la brutalidad de los depredadores no conoce límites, tampoco cuando se trata de agredir a bebés y niños de cortísima edad.

El dato más llamativo, dentro del descenso al horror que supone afrontar este problema, radica en que el 78% de los informes confirmados de abuso sexual infantil, es decir, 199.363 denuncias, contenía imágenes generadas por los propios menores como resultado del engaño, la manipulación y, en último término, la coacción y la extorsión ejercidas sobre aquellos por los depredadores sexuales que entran en contacto con sus víctimas a través de diferentes servicios digitales. Obligados bajo extorsión a producir imágenes cada vez de mayor crudeza, las víctimas sufren un calvario que con frecuencia puede terminar en la agresión física por parte del extorsionador. No estamos hablando de imágenes generadas e intercambiadas en un círculo de amigos que llegan a terceros, sino de verdaderas extorsiones con amenazas cada vez más graves ante las que los menores se ven solos e impotentes.

La Unión Europea ha tomado conciencia de esta lacra. A partir de la propuesta de la Comisión de un proyecto de reglamento para prevenir y combatir los contenidos de abuso sexual infantil en la red, el Parlamento se encuentra ya en plena discusión de esta norma. Como ponente de esta propuesta legislativa, soy consciente de su complejidad jurídica. En este caso, como en tantos otros, se trata de encontrar el equilibrio adecuado entre la necesidad de proteger a los menores y sus derechos brutalmente arrancados por agresores sexuales y la garantía de los derechos fundamentales que pueden resultar afectados por la actividad de detección de CSAM en la red.

Análisis de riesgos y tecnología de detección

Para ello, la propuesta que estamos negociando parte de la obligación de que todas las compañías que ofrezcan servicios digitales en la UE lleven a cabo un análisis de riesgo de dichos servicios para determinar su posible vulnerabilidad ante la eventual difusión de contenidos pedófilos, valorando factores como la posibilidad de contactos no deseados entre adultos y menores, las salvaguardias que integran como, por ejemplo, procedimientos de verificación de edad, así como otras circunstancias que sean relevantes a estos efectos. De ese análisis, se derivarán las medidas de mitigación del riesgo que resulten adecuadas, y si estas medidas fueran insuficientes, sería la autoridad judicial, después de un proceso con máximas garantías, la que imponga sobre un determinado servicio, o un componente de este, obligaciones específicas de detección con la aplicación de las herramientas tecnológicas adecuadas para ello. Con todo, estas obligaciones especiales que conllevarían la utilización de tecnologías de detección serán limitadas en el tiempo, estarán claramente definidas y no privan a quienes puedan resultar injustamente afectados de sus medios de información, recursos y compensación. Es crucial, además, que tanto para la verificación de nuevos contenidos como para la identificación de situaciones de extorsión, la intervención humana será imprescindible, y constituirá por sí misma una garantía decisiva del funcionamiento correcto de esas tecnologías de detección de contenidos.

Estamos ante un problema de enormes dimensiones que hay que afrontar también mediante la prevención y la concienciación

Ningún derecho es absoluto, tampoco en el mundo digital. De hecho, todos los días asumimos restricciones razonables y necesarias en función de un interés superior. Cuando entramos en un aeropuerto para subirnos a un avión, tenemos que aceptar que nuestro equipaje sea examinado y que nosotros mismos podamos ser objeto de registro. Como ha establecido el propio Tribunal de Justicia de la Unión Europea, un aeropuerto es un espacio de riesgo y al utilizarlo establecemos una conexión con ese riesgo que justifica que seamos sometidos a determinadas restricciones. Pues bien, si esto es así en espacios físicos por razones evidentes de seguridad, de la misma forma tenemos que asumir que utilizar determinados espacios digitales cuyos riesgos han sido previamente identificados exige también que, como usuarios de los servicios digitales, aceptemos restricciones razonables, definidas y proporcionadas para prevenir y combatir la difusión de contenidos de abuso sexual infantil.

Estamos ante un problema de enormes dimensiones que hay que afrontar también mediante la prevención, la concienciación de familias y educadores y la cooperación entre la industria digital, las autoridades y las muchas organizaciones de la sociedad civil que actúan en defensa de los derechos de los menores. Toda agresión sexual a un menor que se difunde en la red, previamente, ha ocurrido en el mundo real. La difusión se convierte en una forma de revictimización, agrava la humillación y la vivencia traumática y destruye las posibilidades de sanación. Se necesitan nuevos esfuerzos, regulación clara, herramientas tecnológicas y ayuda a las víctimas para que sobrevivan a su tragedia, que es, también, una tragedia para todos nosotros.

* Javier Zarzalejos es diputado del Partido Popular en el Parlamento Europeo.

En el pasado año 2022, se registraron en la Unión Europea 1.500.000 informes/denuncias alertando de contenidos de abuso sexual de menores en la red, CSAM, por sus siglas en inglés. Tal número de denuncias significa que más de cinco millones de imágenes vídeos y fotografías de abuso y agresión sexual a menores han circulado por la red y que esta sigue siendo alimentada por los contenidos que aportan los pederastas, actuando a menudo como grupos de generación e intercambio de tales contenidos.

Pederastia Unión Europea Tribunal de Justicia de la Unión Europea (TJUE)
El redactor recomienda