Las leyes que quieren acabar con el abuso sexual «online» chocan con las tecnológicas

publicado
DURACIÓN LECTURA: 7min.

En el pasado año 2022, se registraron en la Unión Europea 1.500.000 denuncias que alertaban sobre contenidos de abuso sexual de menores en la red. En el mismo año, el Centro Nacional para Menores Desaparecidos y Explotados de Estados Unidos recibió más de 32 millones de informaciones sobre presuntos casos de explotación y abusos sexuales a menores a través de su canal online de denuncia. 

Son datos que revelan la magnitud de un problema que la inmensidad inabarcable de la red ha hecho imposible atajar. La situación provocó una petición de llamada a la acción de la Organización de las Naciones Unidas (ONU) en un manifiesto firmado por 71 Estados que hacía énfasis en la urgencia de tomar medidas para proteger a los menores. 

Sin embargo, los intentos por parte de los gobiernos de generar una legislación que detecte y denuncie el abuso se han visto confrontados por defensores de la privacidad, que señalan que, por muy loable que sea el objetivo de proteger a los menores, abre una brecha que puede ser utilizada para otros fines. 

El sistema de encriptación es el huevo de oro de la privacidad en internet. El cifrado de extremo a extremo garantiza que solo los destinatarios de los mensajes pueden acceder a sus datos. Esto excluye, no solo a usuarios terceros, sino también al propio proveedor del servicio de mensajería. 

Aunque los datos del abuso sexual online revelan la urgencia de encontrar una solución, la posibilidad de comprometer el sistema de cifrado tiene a las tecnológicas en contra

Lo que reivindican los defensores de la privacidad es que, cuando se trata del cifrado, no hay matices: o es completo o no es seguro. No se puede abrir una puerta en la encriptación solo para detectar el grooming (el acoso sexual virtual que se realiza a un menor de edad) o la distribución de material pornográfico. Una vez abierta, está abierta para todo. Y para todos. Si los servicios de seguridad pueden acceder, también podrán hacerlo otros agentes con intereses menos nobles. 

Por eso, cualquier propuesta que intente echar un vistazo al contenido que se distribuye en las aplicaciones que utilizan esta tecnología, es recibida con mucho escepticismo y a la defensiva. 

Propuestas polémicas sobre la mesa 

En Reino Unido está en disputa la “Online Safety Bill”, que incluye una cláusula en la que se permite a Ofcom, el organismo nacional independiente que regula la industria de las comunicaciones, requerir a las compañías que instalen tecnología para escanear los mensajes en busca de material de abuso infantil. 

Apple, Signal y WhatsApp son algunas de las tecnológicas que han mostrado públicamente su disconformidad con esta propuesta. Estas compañías han asegurado que prefieren dejar de prestar servicio antes que tener que cumplir con la regulación. 

En Estados Unidos, por su parte, la propuesta legislativa conocida como “EARN IT” ha generado una controversia similar al debatirse la posibilidad de poder considerar a las plataformas responsables de las consecuencias de un caso de abuso sexual infantil si se considera que no han hecho lo suficiente para proteger al menor. 

Las voces críticas denuncian que, si la responsabilidad recae sobre las plataformas, estas adoptarán cualquier medio necesario —como escanear y filtrar los contenidos de sus usuarios— para mitigar el riesgo. Al final, las propias aplicaciones invadirían constantemente la privacidad de sus usuarios, señalan. 

Por su parte, la Unión Europea trabaja en una propuesta similar a la de Reino Unido y que busca pasar de un marco en el que las acciones que tomen las plataformas sean voluntarias a un régimen de obligatoriedad con consecuencias para las que no cumplan con las medidas. 

Los borradores han provocado una reacción similar a la de los dos países anteriores. Más de 300 ingenieros de 33 países firmaron una carta abierta para pedir que la UE vuelva a replantearse cómo afrontar este tema. En la carta, los expertos aseguran que la tecnología actual no permite detectar el material de abuso infantil sin un número significativo de falsos positivos y, además, se compromete la seguridad y la privacidad de todos los demás usuarios. 

El sector tecnológico debe asumir su responsabilidad 

Teniendo en cuenta este contexto, la labor de los legisladores no es sencilla. Por un lado, las cifras del abuso sexual a menores son acuciantes. Por otro, la solución parece un rompecabezas al que siempre le falta la misma pieza: cómo proteger a los menores sin poner en riesgo la seguridad de todos los usuarios. 

Las tecnológicas y los defensores de la privacidad critican las propuestas, pero las plataformas también deberían asumir su responsabilidad como parte del problema

Un informe de la investigadora Laura Draper señala que, si bien es cierto que la privacidad es un derecho que no puede comprometerse, se deben tener en cuenta dos aspectos relevantes a la hora de discutir el papel que juega en la legislación. 

En primer lugar, aunque la privacidad del usuario general debe formar parte del análisis, el interés compensatorio de la privacidad del niño abusado también debe tenerse en cuenta. Es una grave invasión de su intimidad cuando los delincuentes publican estas imágenes en Internet y las redistribuyen.

En segundo lugar, el propio concepto de privacidad requiere un análisis más matizado, según la investigadora. La interpretación más estricta aplicada a las comunicaciones tiende a situar la privacidad como un valor absoluto que excluye la mirada de todas las partes, excepto el remitente y el destinatario.

Sin embargo, cabría una valoración más matizada que concibiera la privacidad como el derecho a estar protegido frente a una intervención excesiva por parte del gobierno o del acceso de actores maliciosos, como hackers criminales o empresas privadas. 

Cuando intenten equilibrar la privacidad de los usuarios con la lucha contra el abuso sexual online, los responsables políticos deben ser transparentes a la hora de definir la privacidad, concluye Draper. 

Quien defiende la última aproximación señala que hay diversos escenarios más allá del mundo online en los que la persona entiende que algunos derechos que ostenta pueden verse comprometidos en aras de la seguridad. Así lo expresan, por ejemplo, algunos abogados en declaraciones recogidas por el Departamento de Justicia de Estados Unidos, que señalan que los jueces tienen derecho a decidir cuando la protección de las víctimas es un interés superior al de la privacidad. 

Por ejemplo, cuando uno viaja, sabe que existe la posibilidad de que su equipaje sea registrado para evitar situaciones de riesgo en el aeropuerto. También, aunque el derecho a la propiedad privada está garantizado, una orden judicial puede permitir la entrada y el registro de esta por alguna situación excepcional. 

Los defensores de una legislación más intervencionista también señalan que si bien la tecnología no ha creado el crimen, sí que ha amplificado el abuso, por lo que es la propia tecnología la que debe contribuir a su solución. 

Algunos organismos defienden que la protección de la infancia y la garantía de la privacidad no son irreconciliables. La Internet Watch Foundation (IWF), por ejemplo, asegura que ya existen ejemplos de tecnologías que pueden desplegarse para garantizar que los materiales conocidos sobre abusos sexuales a menores no puedan compartirse en entornos cifrados de extremo a extremo.

La organización asegura que, aunque el proveedor de servicios de comunicación pueda perder la capacidad de “ver” el contenido que pasa por sus canales, sí que puede intervenir en el momento en el que alguien sube los contenidos. 

Al cargarse un archivo, se puede convertir en un flujo único de números en un código digital. Las compañías pueden comparar ese código con los códigos generados por imágenes y vídeos de abusos sexuales a menores en un proceso conocido como hashing. Es un proceso automatizado y que debería funcionar igual en los servicios encriptados, sostiene la IWF. 

“Cuando se suben archivos a una plataforma cifrada de extremo a extremo, no hay razón para que no se comprueben y bloqueen si coinciden con la huella digital o hash de imágenes conocidas de abuso sexual infantil. Sería automatizado y no intrusivo”, asegura. 

Lo que es seguro es que ante la distribución de cada vez más material de abuso sexual infantil y cada vez más extremo, urge tomar medidas. La investigación de la IWF recoge que en 2022 se alcanzó la cifra récord de 51.369 páginas web eliminadas o bloqueadas por la organización con material de categoría A sobre abusos sexuales a menores. Este es el tipo más grave de imágenes, y puede incluir los peores tipos de abuso sexual, incluyendo niños, bebés e incluso recién nacidos. 

Si bien los legisladores tendrán que encontrar la fórmula más segura, no se puede tampoco bajar los brazos y anclarse en una posición derrotista que asuma que nada puede hacerse. 

Contenido exclusivo para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.

Funcionalidad exclusiva para suscriptores de Aceprensa

Estás intentando acceder a una funcionalidad premium.

Si ya eres suscriptor conéctate a tu cuenta para poder comentar. Si aún no lo eres, disfruta de esta y otras ventajas suscribiéndote a Aceprensa.