Daphne Keller, de Stanford, "es como una lista de las peores ideas del mundo". Y tiene razón.
Estas ideas incluyen:
- amplias categorías de "contenido perjudicial" que incluyen explícitamente el discurso legal pero potencialmente molesto o hiriente
- un requisito de retirada de 24 horas (demasiado corto para considerar razonablemente el contexto y los matices)
- un requisito de filtrado efectivo (la propuesta dice que los proveedores de servicios deben tomar medidas razonables que "pueden incluir" filtros, pero, en la práctica, su cumplimiento será necesario)
- sanciones de hasta el 3% de los ingresos brutos de los proveedores o de hasta 10 millones de dólares, lo que sea mayor
- la notificación obligatoria de contenidos potencialmente nocivos (y de los usuarios que los publican) a las fuerzas del orden y a los organismos de seguridad nacional
- bloqueo de sitios web (las plataformas que se consideren que infringen algunos de los requisitos de la propuesta con demasiada frecuencia podrían ser bloqueadas completamente por los ISP canadienses)
- obligaciones onerosas de conservación de datos
Todo esto es terrible, pero quizás el aspecto más aterrador de la propuesta es que crearía un nuevo zar de la expresión en Internet con amplios poderes para garantizar el cumplimiento, y redefinir continuamente lo que significa el cumplimiento.
Estos poderes incluyen el derecho a entrar e inspeccionar cualquier lugar (que no sea un domicilio):
"en los que crean, por motivos razonables, que existe cualquier documento, información o cualquier otra cosa, incluidos los algoritmos y programas informáticos, que sean pertinentes para verificar el cumplimiento y evitar el incumplimiento... y examinar el documento, la información o la cosa o retirarlos para su examen o reproducción"; celebrar audiencias en respuesta a las denuncias públicas, y, "realizar cualquier acto o cosa... necesaria para garantizar el cumplimiento".
Sin embargo, no se preocupe: los proveedores de servicios de Internet pueden evitar que sus puertas sean derribadas si acuerdan con las autoridades de la libre expresión, que les "aconsejarán" sobre las prácticas de moderación de contenidos. Siga sus consejos y puede estar a salvo. Ignórelos y prepárese para perder sus ordenadores y millones de dólares.
Los daños potenciales son enormes, y no harán más que aumentar porque gran parte de la normativa queda abierta. Por ejemplo, es probable que las plataformas se vean obligadas a recurrir a filtros automatizados para evaluar y descubrir contenidos "nocivos" en sus plataformas, y los usuarios atrapados en estos barridos podrían acabar fichados por la policía local, o por las agencias de seguridad nacional de Canadá, gracias a las obligaciones de información propuestas.
Las comunicaciones privadas están nominalmente excluidas, pero eso es un frío consuelo: el gobierno canadiense puede decidir, como otros países, que los grupos de chat de diversos tamaños no son "privados". De ser así, el cifrado de extremo a extremo se verá aún más amenazado, y las plataformas se verán presionadas a socavar la seguridad e integridad de sus servicios para cumplir con sus obligaciones de filtrado. Y es probable que los reguladores exijan a que para abordar las amplias categorías de "contenido nocivo" que contempla la propuesta.
En Estados Unidos y en otros países, hemos visto que este tipo de normas perjudican a los grupos marginalizados, tanto en línea como fuera de ella. Frente a obligaciones de moderación amplias y vagas, poco tiempo para el análisis y grandes consecuencias legales si se equivocan, las empresas inevitablemente censuran en exceso y los usuarios pagan el precio.
Por ejemplo, una ley estadounidense destinada a penalizar aquellos sitios que albergaban contenidos relacionados con el abuso sexual infantil y la trata de personas llevó a las plataformas de Internet, grandes y pequeñas, a censurar amplias franjas de contenidos para adultos. Las consecuencias de esta resultaron devastadoras para las comunidades marginadas y los grupos que las atienden, especialmente las organizaciones que prestan apoyo y servicios a las víctimas de la trata y el abuso infantil, los trabajadores del sexo y los grupos e individuos que promueven la libertad sexual. Por ejemplo, la ley impidió a los trabajadores del sexo organizarse y utilizar las herramientas que los han mantenido a salvo. Quitarles los foros en línea, la capacidad de selección de clientes, las listas de "malas citas" y otras recomendaciones de seguridad intracomunitarias significa exponer cada vez más a las trabajadoras a un mayor riesgo, lo que conduce a un aumento de la violencia y la trata. El impacto fue especialmente perjudicial para las de color, que se ven .
De hecho, incluso las moderación de contenidos "voluntarias" son peligrosas. Por ejemplo, las políticas contra la incitación al odio han cerrado las conversaciones en línea sobre el racismo y el acoso a las personas de color. Las ambiguas "normas comunitarias" han impedido a Black Lives Matter mostrar al mundo los mensajes racistas que reciben. Las normas contra las representaciones de la violencia han eliminado los informes sobre la y los . Estas voces, y las de las mujeres aborígenes de Australia, las de los manifestantes del oleoducto de Dakota y las de muchos otros, están siendo borradas en Internet. Sus historias e imágenes de detenciones masivas, ataques militares, racismo y genocidio están siendo marcadas para ser eliminadas.
Los impotentes luchan por ser escuchados en primer lugar; la censura de las plataformas garantiza que tampoco podrán aprovechar plenamente los espacios en línea.
El profesor Michael Geist, que ha realizado un trabajo crucial en la cobertura de esta y otras malas propuestas de Internet procedentes de Canadá, que el gobierno ha mostrado poco interés en escuchar lo que los canadienses piensan de los planes. Sin embargo, el gobierno dice que está recibiendo . Esperamos que los canadienses inunden al gobierno con respuestas.
Pero no sólo los canadienses deben preocuparse por esto. Las propuestas peligrosas en un país tienen una forma de inspirar a los responsables políticos de otras naciones a seguir su ejemplo, especialmente si esas malas ideas provienen de países democráticos ampliamente respetados como Canadá.
De hecho, parece que las personas que redactaron esta política se inspiraron en otros países, pero ignoraron las críticas que esas otras políticas han recibido de los defensores de los derechos humanos, de la ONU y de una amplia gama de grupos de la sociedad civil. Por ejemplo, las obligaciones de supervisión de contenidos se hacen eco de y que han sido ampliamente criticadas por la sociedad civil, por no hablar de . La propuesta canadiense pretende importar los peores aspectos de la , ("NetzDG"), que encarga a empresas privadas la vigilancia de Internet, siguiendo un calendario apresurado que impide cualquier esperanza de un análisis jurídico equilibrado, lo que lleva a la y . La ley ha sido muy criticada en Alemania y en el extranjero, y los expertos afirman que conflicto con la normativa central de Internet de la UE, la Directiva sobre comercio electrónico. La propuesta de Canadá también guarda una sorprendente similitud con la ley francesa de "incitación al odio", que fue de inconstitucional.
Esta normativa, al igual que la canadiense, se aleja significativamente del enfoque más sensato, aunque todavía imperfecto, que se contempla en la (DSA) de la Unión Europea. La propuesta establece límites a la retirada de contenidos y permite a los usuarios impugnar las decisiones de censura. Aunque contiene algunos que podrían dar lugar a un bloqueo excesivo de contenidos, la DSA no sigue los pasos de otras desastrosas legislaciones europeas sobre Internet que han puesto en peligro la libertad de expresión al obligar a las plataformas a vigilar y censurar lo que los usuarios dicen o suben a Internet.
Canadá también parece haber perdido de vista sus obligaciones comerciales. , Canadá, Estados Unidos y México finalizaron el , una versión actualizada del TLCAN. prohíbe tratar a las plataformas como los originadores del contenido a la hora de determinar la responsabilidad por los daños a la información. Pero esta propuesta hace precisamente eso: de múltiples maneras, el riesgo legal de las plataformas depende de si identifican y eliminan adecuadamente el contenido dañino en cuya creación no han participado.
Irónicamente, tal vez, la propuesta también afianzaría aún más el poder de los gigantes tecnológicos estadounidenses sobre las redes sociales, porque son los únicos que pueden permitirse cumplir con estas complejas y draconianas obligaciones.
Por último, el plan regulador se apartaría de las normas de derechos humanos establecidas. El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos en determinadas circunstancias, siempre que cumplan una prueba de tres pasos: estar prescritas por la ley; tener un objetivo legítimo; y ser necesarias y proporcionadas. Las limitaciones también deben interpretarse y aplicarse de forma estricta.
La propuesta de Canadá está muy lejos de cumplir estos criterios. El Relator Especial de la ONU sobre la libertad de expresión que reconozcan la legislación sobre derechos humanos como la norma mundial autorizada para la libertad de expresión en sus plataformas. Es profundamente decepcionante ver cómo Canadá obliga a las empresas a violar la legislación de derechos humanos en su lugar.
Esta ley es peligrosa para la libertad de expresión, la privacidad, la seguridad y la competencia en Internet. Esperamos que nuestros amigos del Gran Norte Blanco estén de acuerdo y