“Señor Zuckerberg, tiene las manos manchadas de sangre. Su producto mata a la gente”. Así de contundente arrancó la mañana del 31 de enero, en la que un grupo de altos ejecutivos de las redes sociales testificaron ante el Comité Judicial del Senado estadounidense sobre los riesgos que sus productos representan para los más jóvenes.
Durante el interrogatorio, los directores ejecutivos de Meta, TikTok, Snap, Discord y X, anteriormente conocido como Twitter, se vieron acribillados a preguntas por los senadores, que no escondieron su postura en este asunto.
A lo largo de las tres horas que duró la sesión, quedó claro que las aplicaciones pueden convertirse en un callejón sin salida en el que se destrozan vidas de niños.
Entre el público se encontraban padres de adolescentes que se habían suicidado debido al porno de venganza distribuido en redes, que habían sufrido abuso sexual en las plataformas o que habían comprado droga a través de ellas.
En este interrogatorio se encuentran las claves para comprender cómo la sociedad está cambiando su percepción de las redes sociales, cómo las plataformas están intentando lidiar con esta crisis reputacional y qué obstáculos existen para la protección de los menores en internet.
El abuso sexual infantil en el centro del debate
Todas las declaraciones giraron en torno a una cuestión fundamental: la responsabilidad de las tecnológicas en los casos de abuso sexual infantil que se producen en el seno o con la colaboración de sus productos, y su fracaso a la hora de frenar la distribución de pornografía infantil.
«Discord ha sido usado para seducir, secuestrar y abusar de niños. Instagram, de Meta, ayudó a conectar y promover una red de pedófilos. Los mensajes que desaparecen de Snapchat han sido utilizados por criminales que extorsionan económicamente a jóvenes víctimas. TikTok se ha convertido en la plataforma preferida para los depredadores que buscan, atraen y seducen a niños, y la prevalencia de material de abuso sexual infantil en X ha aumentado a medida que la empresa ha reducido drásticamente su plantilla de seguridad», repasó Dick Durbin, presidente del comité, en su declaración de apertura. Por su parte, Facebook denunció 73,3 millones de publicaciones bajo la categoría de «desnudez infantil y explotación sexual» durante los tres primeros trimestres de 2022.
El problema es evidente. Pero entonces, ¿por qué es tan complicado de atajar?
Las plataformas no son responsables del contenido que circula y los depredadores sexuales se están convirtiendo en un problema del que nadie rinde cuentas.
La inmunidad de las tecnológicas, el principal obstáculo para la responsabilidad
El principal problema es que no hay un cuerpo legislativo que convierta a las tecnológicas en responsables del contenido que en ellas se distribuye.
De hecho, lo que existe es una ley que las ampara. En la sección 230 de la ley de Decencia de las Comunicaciones de Estados Unidos, las tecnológicas han encontrado el paraguas bajo el que refugiarse cuando llegan las denuncias.
Las plataformas tienen una serie de políticas internas –Discord y X, por ejemplo, sí que permiten contenido pornográfico en sus plataformas– y cuentan con equipos de moderación que eliminan el contenido que las viola.
Sin embargo, no asumen la responsabilidad de la distribución del contenido nocivo. El usuario que lo comparte es el culpable.
Por tanto, la obligación de las redes sociales queda reducida a su buena voluntad y no se les puede condenar por cómo sus usuarios decidan actuar o hacer uso de la red social.
La encriptación, un problema de difícil solución
Otro de los problemas es la encriptación, el sistema que utilizan la mayoría de las plataformas de mensajería instantánea para proteger la privacidad de las comunicaciones de los usuarios. Es un sistema seguro, pero también un paraíso para los depredadores que contactan a los menores a través de estos servicios.
La gran pregunta es, ¿deberían contar con encriptación las redes sociales usadas por menores?
En Discord, por ejemplo, no hay cifrado de extremo a extremo. Otras redes sociales están optando por vetar la posibilidad de enviar mensajes directos a los menores, o que solo puedan hacerlo sus contactos.
¿Quieren de verdad las plataformas proteger a los niños?
Una y otra vez, durante el interrogatorio, las plataformas se han defendido de las cifras de abuso, poniendo sobre la mesa sus políticas, sus medidas de protección y sus herramientas de control parental.
Sin embargo, la verdadera cuestión es si de verdad las tecnológicas están haciendo todo lo que pueden. Cuesta creerlo cuando vuelven a salir a la luz los informes internos de Meta en los que se revela que la compañía era consciente de los daños que estaba causando a los adolescentes, o lo interesante que resultaba captar al público preadolescente como futuros consumidores. Correos electrónicos de empleados de Meta señalaban que la falta de inversión por parte de la compañía estaba obstaculizando la protección de los menores.
También resultan sangrantes los casos, como los ocurridos en X, en los que un contenido de abuso sexual infantil es denunciado numerosas veces y, sin embargo, se mantiene circulando durante meses, arruinando la vida de la víctima.
Además de la pornografía infantil, las redes sociales han sido cuestionadas por otros problemas que perjudican a los menores, y que llevan a reivindicar más transparencia.
Salud mental, privacidad, propaganda política y drogas
Aunque el foco de la conversación fue el abuso sexual infantil, en su declaración inicial, Zuckerberg alegó que no había evidencia científica concluyente que relacione el uso de redes sociales con el empeoramiento de la salud mental de los adolescentes.
Fue una decisión de comunicación algo desacertada, porque abrió la veda para que fuese cuestionado por el impacto de sus plataformas en los menores.
“Si cree que Instagram no está haciendo daño a las niñas, no debería estar al mando”, escuchó Zuckerberg.
Otra cuestión discutida fue la siempre polémica relación de TikTok con China. La red social sigue acusada de compartir datos de usuarios estadounidenses, algo que la plataforma ha negado repetidamente.
Recientemente, The Wall Street Journal reveló que TikTok todavía está luchando por evitar que los empleados con base en China accedan a los datos de usuarios estadounidenses. Shou Zi Chew, el CEO de TikTok, negó la veracidad de la información durante la audiencia. También rechazó las acusaciones que sugieren que TikTok censura determinadas cuestiones en beneficio de los intereses políticos de China.
Por otro lado, durante el interrogatorio se recordó que el 30% de la gente que está consiguiendo fentanilo, lo está haciendo a través de estas plataformas. En concreto, son conocidos los casos de varios adolescentes que fallecieron tras adquirir pastillas en Snapchat.
Más transparencia
¿Tienen las redes sociales la culpa de todo esto? Los miembros del comité señalaron que el diseño de las plataformas, su fracaso a la hora de invertir en seguridad y la búsqueda constante de la interacción y de los beneficios por encima de la seguridad han puesto a los niños en riesgo grave.
El comité recordó que las redes sociales habían obtenido 11.000 millones de dólares en 2022 solo gracias a la publicidad dirigida a adolescentes, y señaló que, si las plataformas iban a seguir haciendo caja con los menores, debían ser más transparentes con el funcionamiento de sus productos.
En concreto, exigieron conocer el funcionamiento de los algoritmos y sus consecuencias, la cantidad total de contenido que viola las políticas de las plataformas y de casos de abuso cometidos a través de las redes.
El papel de los padres y el futuro de las redes sociales
Por último, la conversación volvió a poner sobre la mesa el papel de los padres. Las plataformas piden que las medidas vayan más en la línea de ayudarles a controlar lo que ven sus hijos que en cargarles a ellos esa responsabilidad.
Lo que sí está claro es que, gracias a la labor de los padres que siguen presionando, no se está permitiendo que las plataformas miren hacia otro lado.
Desde el comité, se les animó a que continuaran con su cruzada para conseguir cambios reales. La postura de los senadores es clara: “Nada cambiará hasta que las puertas de los juzgados estén abiertas para las víctimas de las redes sociales”.
La idea es que se pueda terminar con la inmunidad de la que han gozado las redes sociales hasta el momento. Enfrentadas a la posibilidad de tener que asumir las consecuencias (al menos las reputacionales) de lo que ocurre en sus plataformas con los adolescentes, es probable que las compañías opten por tomar medidas más contundentes.