El año pasado, la UE introdujo la Ley de Servicios Digitales (DSA), un proyecto ambicioso y reflexivo para frenar el poder de las grandes empresas tecnológicas y dar a los usuarios europeos de Internet más control sobre sus vidas digitales. Fue un momento emocionante, ya que el mayor bloque comercial del mundo parecía dispuesto a poner fin a una serie de regulaciones tecnológicas mal concebidas que eran tanto ineficaces como incompatibles con los derechos humanos fundamentales.

Éramos (cautelosamente) optimistas, pero no nos engañamos: los mismos malos pensadores que convencieron a la UE para que ordenara filtros de derechos de autor que bloquean en exceso, no funcionan y preservan el monopolio, también intentarían convertir el DSA en una excusa más para someter el discurso de los europeos al filtrado automático.

Teníamos razón en preocuparnos.

La DSA va ahora a toda velocidad en rumbo de colisión con aún más filtros algorítmicos, las "IAs" decididamente poco inteligentes que la Directiva de Derechos de Autor de 2019 acaba poniendo a cargo de la expresión digital de 500 millones de personas en los 27 estados miembros europeos.

Los filtros de derechos de autor ya se están abriendo camino en la legislación nacional de toda la UE a medida que cada país aplica la Directiva sobre derechos de autor de 2019. Años de experiencia nos han demostrado que los filtros automáticos son terribles a la hora de detectar infracciones de los derechos de autor, tanto si bloquean en exceso (permitiendo que las infracciones se cuelen) como si eliminan contenidos que no infringen los derechos de autor, y los filtros pueden ser fácilmente engañados por los malos actores para que bloqueen contenidos legítimos, incluyendo (por ejemplo) a los miembros del público que graban sus encuentros con los funcionarios de la policía.

Pero por muy malos que sean los filtros de derechos de autor, los filtros que podría exigir la DSA son mucho, mucho peores.

Filternet, Made in Europe

Las propuestas actuales de la DSA, recientemente respaldadas por una influyente comisión del Parlamento Europeo, exigirían a las plataformas en línea la rápida eliminación de contenidos potencialmente ilegales. Una de las propuestas convertiría automáticamente a cualquier "plataforma activa" en potencialmente responsable de las comunicaciones de sus usuarios. ¿Qué es una plataforma activa? Una que modera, clasifica, promueve o procesa de alguna manera el contenido de sus usuarios. Castigar a los servicios que moderan o clasifican contenidos ilegales es absurdo: ambas son formas responsables de abordar los contenidos ilegales.

Estos requisitos imponen a las plataformas la tarea imposible de identificar los contenidos ilegales en tiempo real, a una velocidad que ningún moderador humano podría alcanzar, con duras sanciones si se equivocan. Inevitablemente, esto significa un mayor filtrado automatizado, algo de lo que las plataformas suelen presumir en público, incluso cuando sus principales ingenieros envían en privado notas a sus jefes diciendo que estos sistemas no funcionanen absoluto.

Las grandes plataformas bloquearán, eliminando contenidos según las rápidas y contundentes determinaciones de un algoritmo, mientras que las apelaciones de los injustamente silenciados pasarán por un proceso de revisión que, como el algoritmo, será opaco y arbitrario. Esa revisión también será lenta: la expresión se eliminará en un instante, pero sólo se restablecerá después de días, o semanas, o 2,5años.

Pero al menos las plataformas más grandes podrían cumplir con la DSA. La situación es mucho peor para los servicios pequeños, gestionados por startups, cooperativas, organizaciones sin ánimo de lucro y otras organizaciones que quieren apoyar, no explotar, a sus usuarios. Estas empresas ("microempresas" en la jerga de la UE) no podrán operar en Europa en absoluto si no pueden reunir el dinero para pagar a los representantes legales y las herramientas de filtrado.

Así, la DSA establece normas que permiten a unos pocos gigantes tecnológicos estadounidenses controlar enormes franjas de la expresión en línea de los europeos, porque son los únicos que tienen los medios para hacerlo. Dentro de estos jardines amurallados gestionados por Estados Unidos, los algoritmos controlarán la expresión y la eliminarán sin previo aviso, y sin tener en cuenta si los oradores son acosadores que se dedican al acoso, o si son supervivientes del acoso que describen cómo fueron acosados.

No tenía que ser así

Las instituciones de la UE tienen un largo y admirable historial de atención a los principios de los derechos humanos. Lamentablemente, los legisladores de la UE que han revisado el DSA desde su introducción han dejado de lado las preocupaciones en materia de derechos humanos planteadas por los expertos de la UE y plasmadas en la legislación comunitaria.

Por ejemplo, la Directiva sobre Comercio Electrónico, la normativa tecnológica fundamental de Europa, equilibra la necesidad de eliminar los contenidos ilegales con la necesidad de evaluar los contenidos para determinar si su eliminación está justificada. En lugar de establecer un plazo breve e irrazonable para la retirada, la Directiva sobre comercio electrónico exige a los anfitriones de la web que retiren los contenidos "rápidamente" después de haber determinado que son realmente ilegales (lo que se denomina la norma de "conocimiento real") y "en observancia del principio de libertad de expresión".

Esto significa que si gestionas un servicio y te enteras de una actividad ilegal porque un usuario te lo notifica, debes retirarla en un plazo razonable. Esto no es genial: como hemos escrito, deberían ser los tribunales, y no los usuarios descontentos de los operadores de plataformas, los que decidieran qué es y qué no es ilegal. Pero, por imperfecta que sea, es mucho mejor que las propuestas en curso para la DSA.

Estas propuestas ampliarían los defectos de la Directiva sobre comercio electrónico, siguiendo los ejemplos catastróficos de la NetzDG alemana y el proyecto de ley de incitación al odio en línea de Francia (una ley tan mal elaborada que fue invalidada por el Consejo Constitucional francés), y establecerían unos plazos de retirada que impedirían cualquier control significativo. Una de las propuestas exige que se actúe en un plazo de 72 horas, y otra haría que las plataformas retiraran los contenidos en 24 horas o incluso en 30 minutos en el caso de los contenidos transmitidos en directo.

La Directiva de Comercio Electrónico también establece la prohibición de las "obligaciones generales de vigilancia", es decir, prohíbe a los gobiernos europeos ordenar a los servicios en línea que espíen a sus usuarios todo el tiempo. Los plazos breves para la retirada de contenidos incumplen esta prohibición y no pueden sino violar el derecho a la libertad de expresión.

Esta prohibición del espionaje se complementa con el histórico Reglamento General de Protección de Datos (RGPD) de la UE -un referente en la normativa mundial sobre privacidad-, que regula de forma estricta las circunstancias en las que un usuario puede ser sometido a una "toma de decisiones automatizada", es decir, prohíbe de hecho poner la participación de un usuario en la vida online a merced de un algoritmo.

En conjunto, la prohibición de la vigilancia general y de la toma de decisiones automatizada, perjudicial y no consentida, es una forma de salvaguardar los derechos humanos de los internautas europeos a vivir sin vigilancia ni juicio constantes.

Muchas propuestas de revisión de la DSA echan por tierra estos dos principios fundamentales, pidiendo que las plataformas detecten y restrinjan los contenidos que puedan ser ilegales o que hayan sido previamente identificados como ilegales, o que se parezcan a contenidos ilegales conocidos. Esto no puede lograrse sin someter al escrutinio todo lo que publica cada usuario.

 

No tiene por qué ser así

La DSA puede ser rescatada, respetando los derechos humanos y manteniendo la coherencia con la Directiva de Comercio Electrónico y el GDPR. Los regímenes de retirada de contenidos pueden equilibrarse con los derechos de expresión y privacidad, con plazos que permitan una evaluación cuidadosa de la validez de las demandas de retirada. La DSA puede equilibrarse para enfatizar la importancia de los sistemas de apelación para la retirada de contenidos, como algo equivalente al proceso de retirada en sí mismo, y las plataformas pueden estar obligadas a crear y mantener sistemas de apelación sólidos y oportunos.

La DSA puede contener una prohibición de las obligaciones de filtrado automatizado, respetando el GDPR y haciendo una evaluación realista sobre las capacidades de los sistemas de "IA" basada en expertos independientes, en lugar de la fantasía de las empresas que prometen un pastel algorítmico en el cielo.

El DSA puede reconocer la importancia de fomentar las pequeñas plataformas, no sólo por un fetiche de la "competencia" como cura para los males de la tecnología, sino como un medio por el que los usuarios pueden ejercer la autodeterminación tecnológica, agrupándose para operar o exigir espacios sociales en línea que respeten sus normas, intereses y dignidad. Este reconocimiento significaría garantizar que cualquier obligación que imponga el DSA tenga en cuenta el tamaño y las capacidades de cada actor. Esto está en consonancia con las recomendaciones de la evaluación de impacto del DSA de la Comisión Europea, recomendación que ha sido ignorada hasta ahora.

La UE y el resto del mundo

La normativa europea se utiliza a menudo como referencia para la elaboración de normas a nivel mundial. El GDPR creó un impulso que culminó con leyes de privacidad como la CCPA de California, mientras que NetzDG ha inspirado una regulación y propuestas aún peores en Australia, el Reino Unido y Canadá.

Los errores que cometan los legisladores de la UE al elaborar el DSA se extenderán por todo el mundo, afectando a las poblaciones vulnerables a las que no se ha tenido en cuenta en la elaboración y revisión del DSA (hasta ahora).

Los problemas que presentan las grandes tecnologías son reales, urgentes y globales. El mundo no puede permitirse una calamitosa regulación tecnológica de la UE que deje de lado los derechos humanos en busca de respuestas fáciles y falsas soluciones rápidas.