¿Las redes sociales pueden ser responsables del deterioro de la salud mental de los menores? Una reciente investigación en Reino Unido ha dictaminado que, en parte, sí. Las plataformas deben asumir un compromiso para proteger a los usuarios menores y vulnerables, y la regulación tiene que exigir más medidas.
Molly Russell, una adolescente de Londres, se quitó la vida a los 14 años en 2017. Una revisión de sus redes sociales descubrió que la niña había sido succionada en un agujero negro online de publicaciones relacionadas con la depresión, la autolesión y la ansiedad.
El padre de Molly inició una campaña para reivindicar una mayor protección en las plataformas y un equipo forense presidido por el abogado y médico Andrew Walker acaba de dictaminar que los contenidos que la adolescente visualizó en Instagram y Pinterest contribuyeron a su muerte.
Es de los pocos reconocimientos oficiales –aunque las empresas no han sido llamadas a juicio, sino solo a unas sesiones forenses– sobre el impacto negativo que las redes sociales pueden tener en la salud mental, una realidad que muchos dan por sabida, pero que otros son cautelosos a la hora de establecer causalidad.
Un fenómeno complejo
¿Qué fue primero: el huevo o la gallina? Es la pregunta que parece que se formula cuando se habla del impacto de las redes sociales en los adolescentes, porque los problemas de salud mental –y en particular el suicidio– son un fenómeno complejo y multifactorial y en casi ningún caso se puede relacionar con una sola causa.
Por ejemplo, un estudio publicado en el New Media & Society Journal en 2019 encontró que las personas que vieron contenido de autoagresión en Instagram mostraron “más comportamientos relacionados con la autolesión y el suicidio”. El estudio no era concluyente respecto a la causa: puede deberse a la exposición en sí misma o a que las personas que ven este tipo de material ya corren un mayor riesgo y tienen más posibilidad de encontrar publicaciones de autolesión.
“No hay un estudio definitivo que vincule de forma concluyente las redes sociales con el riesgo de suicidio”, señala Matt Navarra, especialista y consultor, a Aceprensa. Navarra trabajó para el gobierno de Reino Unido como experto de comunicación digital. “Hay tantos elementos que contribuyen a ello que es difícil estar seguro del nivel de relación entre estas cosas”, reflexiona.
Sin embargo, “creo que se puede afirmar que las redes sociales pueden tener un efecto negativo en la salud mental de los usuarios jóvenes y vulnerables. Creo que hay suficientes ejemplos que sugieren que, por la forma en que las aplicaciones están diseñadas, el funcionamiento del algoritmo y cómo opera la psicología humana, hay un nivel de adicción en estas plataformas que en sí mismo puede ser peligroso para ciertos grupos de usuarios”.
“No hay un estudio definitivo que vincule de forma concluyente las redes sociales con el riesgo de suicidio”
Es decir, si tecleas la palabra suicidio en alguna red social, lo más probable es que te redirija o te muestre recursos de ayuda, lo cual es una herramienta muy positiva de estas plataformas.
Sin embargo, el algoritmo también está diseñado para atrapar al usuario y lo hace tejiendo una pequeña tela de araña con el contenido que cree que puede interesarle. No solo se mueve por los intereses que ha mostrado de forma explícita, sino por signos más sutiles que acaban llenando el feed del usuario de publicaciones cada vez más adictivas.
Y eso es lo que la investigación británica ha concluido que ocurrió en el caso de Molly Russell y que revela un problema más profundo y global de las redes sociales.
“El contenido que buscaba y que le recomendaban estas plataformas fue claramente un factor que contribuyó a su trágica muerte, que podría haberse evitado si no estuviera usando estas plataformas o hubiera más filtros para proteger a personas como Molly Russell. Creo que todavía hay que investigar mucho, pero lo cierto es que estas plataformas pueden y deben hacer más para proteger a todos sus usuarios, pero sobre todo a los más jóvenes y vulnerables”, concluye Navarra.
El contenido perjudicial es fácilmente accesible
La cuestión es que las publicaciones dañinas están al alcance de un clic. Una investigación de la Universidad de Georgia concluyó que las publicaciones en Instagram relacionadas con la autolesión aumentaron de 58.000 a principios de 2018 a más de 110.000 en diciembre.
“Ayer me metí en Instagram y quise ver lo rápido que podía llegar a una imagen gráfica con sangre o autolesiones evidentes”, explicó Amanda Giordano, autora principal del estudio y profesora asociada en la Facultad de Educación Mary Frances Early. “Me llevó aproximadamente un minuto y medio”.
¿Por qué ocurre esto? Además del funcionamiento del algoritmo, las plataformas también tienen un problema para saber si el usuario es menor.
“Uno de los muchos retos de estas plataformas es que la verificación de la edad es ineficaz a la hora de evitar que se registren usuarios menores de edad o permitir que las redes sepan la edad real que tiene alguien para que puedan bloquear ciertos tipos de contenido”, explica Navarra.
Por otro lado, los sistemas de moderación para evitar que sean mostrados determinados contenidos tampoco son del todo eficaces.
“Los sistemas que existen son una mezcla de moderadores humanos y tecnologías de inteligencia artificial, que no actúan con la eficacia que se necesitaría”, explica el experto.
El contenido perjudicial está a tan solo un clic por la forma en la que funciona el algoritmo y el fracaso de los sistemas de moderación y de verificación de la edad.
Esto no es una novedad. En septiembre de 2021, la filtración de unos informes internos escandalizaba a muchos usuarios tras conocerse que Facebook (hoy Meta) sabía que su red Instagram es “tóxica” para los adolescentes y que los protocolos de protección “están fallando”. Entre las conclusiones, un dato revelador: entre los adolescentes que declaraban tener pensamientos suicidas, el 13% de los usuarios británicos y el 6% de los estadounidenses atribuían el problema a dicha red social.
Responsabilidad de todos
A la luz de los descubrimientos sobre el caso Molly Russell, Elizabeth Lagone, responsable de la política de salud y bienestar de Meta, declaró: “Lamentamos que Molly viera contenido que violaba nuestras políticas, y no queremos eso en la plataforma”.
También un ejecutivo de Pinterest, otra plataforma en la que Molly pasó mucho tiempo antes de su muerte, dijo que el sitio no era seguro cuando la adolescente lo utilizaba.
Sin embargo, Navarra asegura que debe ser la regulación la que convierta la protección de los usuarios en una exigencia para las plataformas, con un régimen de sanciones que fuerce al cambio.
Aunque el dictamen forense sobre el caso Russell es reciente, su muerte ocurrió en 2017 y las plataformas aseguran haber hecho cambios con nuevas políticas, un incremento de determinados aspectos de los sistemas de moderación y, sobre todo, herramientas de gestión del tiempo que los usuarios pasan en las plataformas.
Sin embargo, Navarra cuestiona la efectividad real de estas medidas y asegura que se siguen necesitando un control de contenidos más estricto que prevenga casos como el de Molly Russell.
“Siguen existiendo los mismos algoritmos y sigue habiendo muchos usuarios menores de edad que no deberían poder acceder a ciertos tipos de contenido. No hay ninguna mejora en el ámbito de la verificación de la edad, así que creo que ha habido cambios, pero han sido pequeños y sutiles”, concluye.
Sin embargo, los padres tampoco pueden quedar absueltos de su responsabilidad de proteger a los menores: “Creo que los padres tienen un papel que desempeñar en lo que respecta a los usuarios más jóvenes en cuanto a la alfabetización digital y la capacidad de tener una relación sana con los dispositivos electrónicos y el uso de las redes sociales. No pueden confiar en que las plataformas sean completamente seguras todo el tiempo y que los reguladores protejan a sus hijos”.
Por último, Navarra también cree que la responsabilidad individual puede forzar el cambio: “Creo que la relación de la gente con las redes sociales ha cambiado y son más conscientes que nunca de los peligros y riesgos. El apetito por estas plataformas y lo que se espera de ellas está cambiando para bien y eso llevará a un ritmo de transformación más rápido que todo lo demás”.
Es ya difícil negar que las redes sociales pueden perjudicar la salud mental de los usuarios menores y más vulnerables. Es su responsabilidad asegurar que los niños estén protegidos en sus plataformas, pero también los es de la sociedad reflexionar cómo se ha llegado hasta aquí y exigir las medidas que impulsarán el cambio.