Actualización: el 25-08-2023 entraron en vigor las obligaciones que impone la DSA a las grandes plataformas.
El reglamento de la Ley de Servicios Digitales de la UE (DSA por sus siglas en inglés), recién aprobado, impone obligaciones a dueños de las redes sociales y demás plataformas, y los hace responsables del control de los contenidos y de luchar contra la desinformación y el odio. En teoría es una buena idea; llevarla a la práctica es mucho más complicado.
Cuando se supo que Elon Musk se haría definitivamente con Twitter y en un principio daba la impresión de que esa red social iba a convertirse en una selva –aún mayor– sin control de usuarios y contenidos, el comisario europeo de Mercado Interior, Thierry Breton, se apresuró a decir, en su propia cuenta de la red social, que “en Europa, el pájaro volará según nuestras propias reglas”, y añadía en el tuit la bandera azul de las doce estrellas. Hace unos días, la vicepresidenta de la Comisión, Margrethe Vestager, repetía exactamente la misma idea: “Twitter tendrá que cumplir con la legislación europea” para seguir operando en el continente.
¿Cuál es esa legislación europea a la que tendrá que someterse el hombre más rico del mundo? En las últimas semanas, la Comisión y el Parlamento Europeo han dado pasos decisivos para adaptar leyes y reglamentos a la sociedad digital, que cambia casi de un día para otro. En concreto, en octubre se publicó el reglamento de la Ley de Servicios Digitales, que modifica la ya obsoleta Directiva de Comercio Electrónico en el Mercado Interior del año 2000. Se trata de un reglamento, de obligado cumplimiento para los países miembros, que se une a la Ley de Mercados Digitales, también recién aprobada. El plan es que toda esta nueva legislación esté en pleno funcionamiento en enero de 2024.
La Comisión Europea y las autoridades de los países miembros podrán acceder a los algoritmos con los que trabajan las plataformas
Contra amenazas digitales
El fin de la DSA es combatir los fenómenos que pueden suponer una amenaza para la sociedad, como la desinformación o las fake news, o la difusión de contenidos ilegales, y afecta a los prestadores de servicios en Internet: sitios web, empresas de comercio electrónico, redes sociales, juegos online, archivos en la nube, plataformas de streaming, aplicaciones y servicios de mensajería instantánea. Para ello, impone a estas empresas nuevas obligaciones. Así, por ejemplo:
— La Comisión Europea y las autoridades de los países miembros podrán acceder a los algoritmos con los que trabajan los prestadores de servicios.
— Las plataformas deberán actuar para retirar el contenido ilícito y se habilitarán sistemas para que se puedan denunciar. El reglamento distingue entre contenido ilegal –propaganda terrorista, incitación al odio o contenido protegido por derechos de autor, por ejemplo– y contenido perjudicial, más difícil de delimitar porque depende de tradiciones socioculturales o de la regulación jurídica de los países.
Establece también que cualquiera de esos prestadores que llegue a más de 45 millones de usuarios en la UE tendrá una regulación específica por tratarse de empresas que pueden suponer un “riesgo sistémico” para la sociedad en caso de saltarse las normas. En esta categoría están, por ejemplo, Google, Meta, Amazon, Apple, Microsoft, el propio Twitter, Spotify y todas las grandes redes sociales.
La DSA considera que la “potencia de fuego” de estos grandes prestadores de servicios supone una serie de “riesgos sistémicos”, que especifica en tres grupos:
— Riesgos por la difusión de contenidos ilícitos: pornografía infantil, incitación al odio o venta de productos y servicios prohibidos.
— Riesgos para el ejercicio de los derechos fundamentales, como la libertad de expresión e información, el derecho a la vida, el derecho a la no discriminación.
— Manipulación deliberada con efectos para la salud, los procesos electorales, la seguridad pública o la protección de menores. Por ejemplo, por la creación de cuentas falsas, el uso de bots u otros comportamientos automatizados.
El reglamento pretende que las propias plataformas sean las responsables de vigilar y controlar los contenidos
Evaluación de riesgos
Esta es la principal aportación del reglamento recién aprobado, como han escrito en Le Monde Francis Donnat, socio de Baker McKenzie en Francia, y Winston Maxwell, director de Derecho y estudios digitales en el Instituto Politécnico de París: “Imponer a esas grandes plataformas (…) la realización de un análisis anual de los ‘riesgos sistémicos’ derivados del diseño o funcionamiento de sus servicios –ya sea en términos de los riesgos asociados con la difusión de contenido ilegal, o en términos de amenazas al ejercicio de los derechos fundamentales–, para luego proponer soluciones algorítmicas y recursos humanos para mitigar estos riesgos”.
En definitiva, la Comisión pretende que las propias compañías tecnológicas sean los responsables de vigilar y controlar los contenidos, los productos y los servicios que se ofrecen en sus plataformas y, por tanto, responderán ante los tribunales si en ellas se transgrede la ley. La consecuencia inmediata de este cambio legislativo será que estas grandes empresas se cuidarán muy mucho de tener limpias esas tuberías –las plataformas– por las que circulan la información y las opiniones y, por tanto, ejercerán un mayor control sobre las mismas. Esto debería ser muy positivo en el caso de la distribución de lo que la directiva denomina “contenido ilegal”.
Cualquier persona sensata está de acuerdo en que no se debe difundir por las redes bajo ningún concepto pornografía infantil o contenidos que discriminen a personas por su religión, raza o sexo, y a partir de ahora será la empresa que controla esa red la responsable si esto ocurre. Pero ¿qué pasa con lo que se denomina “contenido perjudicial”, pero que no es ilegal? Por ejemplo, en España está habiendo en los últimos meses un intenso debate político y social en torno a la denominada Ley Trans, a propósito del supuesto derecho de los menores a cambiar de sexo sin más criterio que su voluntad. ¿Deja de ser “perjudicial” un contenido que propugne ese nuevo derecho solo porque se puede convertir en ley? Y, por el contrario, ¿se va a considerar “perjudicial” cualquier contenido que se oponga a esa legislación y, por tanto, las plataformas tendrían la obligación de eliminarlo de la conversación global?
Hay otros ejemplos que pueden poner en entredicho una legislación, quizá bien pensada, pero que entra en un campo de arenas movedizas. ¿Qué pasa con la libertad de expresión si, por ejemplo, Apple o Google deciden eliminar de sus tiendas la aplicación de alguna red social simplemente para evitar responsabilidades legales?
Supervisión estatal
Además de dejar la responsabilidad del control de los contenidos a las plataformas, la DSA dice que cada Estado miembro deberá designar una o varias autoridades para la aplicación y supervisión del reglamento. Una de las autoridades será designada como Coordinador de Servicios Digitales. Deberá ser independiente del gobierno para desempeñar sus tareas de forma imparcial y transparente.
El reglamento asigna amplios poderes de investigación, ejecución y capacidad sancionadora al Coordinador de Servicios Digitales, por lo que será un elemento clave en la regulación de los servicios digitales en cada país. En España se piensa que ese coordinador debería ser la Comisión Nacional de los Mercados y la Competencia, de los pocos organismos oficiales que quedan realmente independientes del gobierno. Pero a esa Comisión se le suman tales poderes, que es un caramelo demasiado gustoso para cualquier Ejecutivo intervencionista.
El propósito de la Comisión Europea para evitar la difusión de mensajes socialmente perniciosos en los canales de comunicación actuales es loable, pero, a la vez, demuestra que es muy complicado –y peligroso para la libertad– poner unas puertas adecuadas a un campo casi infinito, como es el de la información que fluye en Internet.