Como la Unión Europea se está preparando para una importante reforma de la normativa fundamental de Internet, estamos presentando los principios que guiarán nuestro trabajo político en torno a la Ley de Servicios Digitales (DSA). Creemos que la DSA es una oportunidad clave para cambiar Internet para mejor; para cuestionar el paradigma de captación de la atención de los usuarios que da forma a nuestros entornos en línea de manera tan fundamental, y para restaurar la autonomía y el control de los usuarios. En este artículo presentamos los principios de política que tienen por objeto fortalecer la autodeterminación informativa de los usuarios y, por consiguiente, promover comunidades en línea más sanas que permitan un discurso deliberativo.
Una oportunidad para reinventar la regulación de las plataformas
Dentro de unos meses, la Comisión Europea presentará su tan esperada propuesta de Ley de Servicios Digitales, la reforma más importante de la regulación de las plataformas europeas en dos décadas. La Ley, que modernizará la columna vertebral de la legislación de la UE sobre Internet - la Directiva sobre el comercio electrónico- establecerá nuevas responsabilidades y normas para las plataformas en línea.
La EFF apoya el objetivo de la Comisión de promover una sociedad digital inclusiva, justa y accesible. Creemos que dotar a los usuarios de más transparencia y autonomía para entender y dar forma a las fuerzas que determinan sus experiencias en línea es clave para lograr este objetivo. Actualmente, existe una asimetría significativa entre los usuarios y las poderosas plataformas gatekeeper que controlan gran parte de nuestro entorno online. Con la ayuda de herramientas algorítmicas opacas, las plataformas distribuyen y conservan el contenido, recogen grandes cantidades de datos sobre sus usuarios y los inundan con anuncios específicos. Mientras que las plataformas adquieren (y monetizan) un profundo conocimiento de sus usuarios, tanto a nivel individual como colectivo, los usuarios no saben cómo se recogen sus datos, se explotan con fines comerciales y se aprovechan para dar forma a sus entornos en línea. No sólo los usuarios no están informados de los intrincados algoritmos que rigen su discurso y sus acciones en línea, sino que las plataformas también formulan y modifican unilateralmente las directrices y condiciones de servicio de la comunidad, a menudo sin siquiera informar a los usuarios de los cambios pertinentes.
La DSA es una oportunidad crucial para consagrar la importancia del control de los usuarios y para impulsar las plataformas a ser más responsables ante el público. Pero también existe el riesgo de que la Ley de Servicios Digitales siga los pasos de los recientes avances normativos en Alemania y Francia. El proyecto de ley alemán NetzDG y el proyecto de ley francés Avia (que ayudamos a llevar a los tribunales) muestran una tendencia preocupante en la UE de obligar a las plataformas a vigilar el contenido de los usuarios sin contrarrestar estos nuevos poderes con más autonomía, elección y control por parte de los usuarios.
El EFF colaborará con las instituciones de la UE para luchar por los derechos de los usuarios, las salvaguardias de procedimiento y la interoperabilidad, preservando al mismo tiempo los elementos que hicieron de la reglamentación de Internet en Europa un éxito: responsabilidad limitada para las plataformas en línea de contenidos generados por los usuarios y una clara prohibición de las obligaciones de filtrado y vigilancia.
Principio 1: Dar a los usuarios el control del contenido
Muchos servicios como Facebook y Twitter presentaron originalmente una lista estrictamente cronológica de publicaciones de los amigos de los usuarios. Con el tiempo, la mayoría de las grandes plataformas han cambiado esa presentación cronológica por algoritmos más complejos (y opacos) que ordenan, curan y distribuyen el contenido, incluida la publicidad, y otros contenidos promocionados. Estos algoritmos, determinados por la plataforma, no se centran necesariamente en la satisfacción de las necesidades de los usuarios, sino que suelen perseguir el único objetivo de maximizar el tiempo y la atención que las personas dedican a un determinado sitio web. Se da prioridad a los mensajes con más "compromiso", incluso si ese compromiso está impulsado por emociones fuertes como la ira o la desesperación provocadas por el mensaje. Si bien los usuarios a veces pueden volver a la corriente cronológica, el diseño de las interfaces de las plataformas a menudo los empuja a volver a la corriente. Las interfaces que inducen a error o manipulan a los usuarios, incluidos los "patrones oscuros", suelen contravenir los principios básicos de las leyes europeas de protección de datos y deberían abordarse en la Ley de Servicios Digitales cuando proceda.
Las herramientas algorítmicas de las plataformas aprovechan su conocimiento íntimo de sus usuarios, reunido a partir de miles de puntos de datos aparentemente no relacionados. Muchas de las inferencias extraídas de esos datos resultan inesperadas para los usuarios: las plataformas tienen acceso a datos que se remontan más atrás de lo que la mayoría de los usuarios se dan cuenta, y son capaces de sacar conclusiones tanto del comportamiento individual como del colectivo. Así pues, las suposiciones sobre las preferencias de los usuarios se hacen a menudo haciendo inferencias a partir de puntos de datos aparentemente no relacionados entre sí. Esto puede configurar (y a menudo limitar) las formas en que los usuarios pueden interactuar con el contenido en línea y también puede amplificar la desinformación y la polarización de manera que puede socavar el intercambio transparente y deliberativo de información en el que se basan las sociedades democráticas.
Los usuarios no tienen que aceptar esto. Hay muchos plugins de terceros que reestructuran la apariencia y el contenido de las plataformas sociales según las necesidades y preferencias de la gente. Pero en este momento, la mayoría de estos plugins requieren conocimientos técnicos para descubrirlos e instalarlos, y las plataformas tienen un fuerte incentivo para ocultar y evitar que los usuarios adopten estas herramientas independientes. La DSA es la oportunidad de oro de Europa para crear un entorno legal más amigable que fomente y apoye este mercado orientado al usuario. El reglamento debe apoyar la interoperabilidad y permitir la compatibilidad competitiva, y debe establecer normas explícitas y aplicables contra las condiciones de servicio excesivamente agresivas que tratan de prohibir toda ingeniería inversa e interconexión. Más allá de la Ley de Servicios Digitales, la UE debe apoyar activamente los proyectos comerciales y de código abierto en Europa que ofrezcan front-ends localizados o que potencien al usuario a las plataformas, y ayudar a fomentar un mercado vibrante y viable para estas herramientas.
Dar a las personas - en contraposición a las plataformas - un mayor control sobre el contenido es un paso crucial para abordar algunos de los problemas más generalizados en línea que actualmente están mal gestionados mediante prácticas de moderación de contenidos. El control de los usuarios no debería exigir un umbral más alto de conocimientos tecnológicos necesarios para recorrer la web con seguridad. Por el contrario, los usuarios de las plataformas de medios sociales con un importante poder de mercado deberían estar facultados para elegir el contenido con el que desean interactuar - y filtrar el contenido que no desean ver - de manera sencilla y fácil de utilizar. Los usuarios también deberían tener la opción de decidir en contra de las recomendaciones algorítmicamente curadas en su totalidad, o de elegir otras heurísticas para ordenar el contenido.
Principio 2: Transparencia algorítmica
Además de tener más control sobre el contenido con el que interactúan, los usuarios también merecen más transparencia por parte de las empresas para entender por qué se les muestra el contenido o los resultados de la búsqueda, o se les oculta. Las plataformas en línea deberían proporcionar información significativa sobre los instrumentos algorítmicos que utilizan para la moderación del contenido (por ejemplo, sistemas de recomendación de contenido, instrumentos para marcar el contenido) y la curación del contenido (por ejemplo, en la clasificación o el descenso de la clasificación del contenido). Las plataformas deberían ofrecer también explicaciones fácilmente accesibles que permitan a los usuarios comprender cuándo, para qué tareas y en qué medida se utilizan los instrumentos algorítmicos. A fin de aliviar la carga que supone para los usuarios individuales dar sentido a la forma en que se utilizan los algoritmos, las plataformas con un importante poder de mercado deberían permitir a los investigadores independientes y a los organismos reguladores pertinentes auditar sus instrumentos algorítmicos para asegurarse de que se utilizan según lo previsto.
Principio 3: Gobierno responsable
Las plataformas en línea gobiernan a sus usuarios a través de sus términos de servicio, directrices de la comunidad o normas. Estos documentos a menudo conllevan las reglas fundamentales que determinan lo que los usuarios pueden hacer en una plataforma, y qué comportamiento está limitado. Las plataformas actualizan regularmente esos documentos, a menudo de forma menor, pero a veces de forma mayor, y por lo general sin consultar ni notificar a sus usuarios los cambios. Los usuarios de esas plataformas deben ser notificados cada vez que cambien las normas que las rigen, se les debe pedir su consentimiento y se les debe informar de las consecuencias de su elección. También se les debe proporcionar una explicación significativa de cualquier cambio sustancial en un idioma que comprendan. Además, las plataformas deben presentar sus condiciones de servicio en un formato legible por máquina y hacer que todas las versiones anteriores de sus condiciones de servicio sean fácilmente accesibles al público.
Principio 4: Derecho al anonimato en línea
Hay innumerables razones por las que los individuos pueden no querer compartir su identidad públicamente en línea. Si bien el anonimato solía ser común en Internet, cada vez es más difícil permanecer anónimo en línea. Con la esperanza de hacer frente a los discursos de incitación al odio o a las "noticias falsas", los encargados de la formulación de políticas de la Unión Europea y de otros países han propuesto que las plataformas se encarguen de imponer el uso de nombres legales.
Sin embargo, para muchas personas - incluidos los miembros de la comunidad LGBTQ+, los trabajadores del sexo y las víctimas de abusos domésticos - esas normas podrían tener efectos devastadores y dar lugar a hostigamiento u otras formas de atribución. Creemos que, como principio general, los Estados Miembros deben respetar la voluntad de las personas de no revelar sus identidades en línea. La Ley de servicios digitales debería afirmar la autodeterminación informativa de los usuarios también a este respecto e introducir el derecho europeo al anonimato en línea. Las condiciones de servicio que se desvíen deben estar sujetas a un control de equidad.