Imagina que tu jefe se inventara cientos de normas insignificantes y se negara a divulgarlas, pero que cada semana te descontara el sueldo en función de cuántas de esas normas rompieras. Cuando eres un creador online y tu "jefe" es una gigantesca plataforma de redes sociales, así es exactamente como funciona tu compensación.

"Algospeak" es un nuevo dialecto inglés surgido de los intentos desesperados de los usuarios de las redes sociales por "complacer al algoritmo": es decir, por evitar palabras y frases que hacen que los algoritmos de las plataformas de redes sociales supriman o bloqueen su comunicación.

El algospeak es practicado por todo tipo de usuarios de las redes sociales, desde individuos que se dirigen a sus amigos hasta comunicadores científicos y activistas que esperan llegar a un público más amplio. Pero los que más practican el algospeak son los creadores de redes sociales, que dependen directa o indirectamente de ellas para ganarse la vida.

Para estos creadores, tropezar accidentalmente con una valla lingüística invisible erigida por las empresas de redes sociales puede significar la diferencia entre pagar su renta o no. Cuando trabajas en un vídeo durante días o semanas -o incluso años- y luego "el algoritmo" decide no mostrarlo a nadie (ni siquiera a las personas que te siguen explícitamente o se suscriben a tu feed), eso tiene consecuencias reales.

Las plataformas de redes sociales argumentan que tienen derecho a establecer sus propias reglas y declarar algunos temas o conductas como prohibidos. También afirman que, al automatizar las recomendaciones, ayudan a sus usuarios a encontrar los mejores vídeos y otras publicaciones.

No se equivocan. En Estados Unidos, por ejemplo, la Primera Enmienda protege el derecho de las plataformas a moderar los contenidos que alojan. Además cada  espacio de conversación tiene sus propias normas y reglas. Estas reglas definen una comunidad. Parte de la libertad de expresión es el derecho de una comunidad a decidir libremente cómo se van a dirigir los unos a los otros. Además, las redes sociales -como todos los sistemas humanos- tienen su parte de depredadores y parásitos, estafadores y trolls y spammers, y por eso los usuarios quieren herramientas que les ayuden a filtrar el ruido para poder llegar a lo bueno.

Pero, dejando de lado las cuestiones legales, el argumento es mucho menos convincente cuando lo exponen los gigantes tecnológicos. Sus políticas de moderación no son "normas de la comunidad", sino un único conjunto de políticas que intenta regular uniformemente la expresión de miles de millones de personas en más de 100 países, que hablan más de 1.000 idiomas. No sólo es una tarea absurda, sino que además las grandes plataformas lo hacen bastante mal, cayendo muy por detrás de los objetivos en materia de expresión, transparencia, garantías procesales y derechos humanos.

El algospeak es la última de una larga serie de tácticas creadas por los usuarios de servicios en línea para evitar la ira de las herramientas de moderación automática. En los primeros tiempos del chat en línea, los usuarios de AOL utilizaban grafías creativas para eludir los filtros de blasfemia, creando una carrera armamentística con muchos daños colaterales. Por ejemplo, los usuarios vietnamitas de AOL no podían hablar de amigos llamados "Phuc" en las salas de chat de la empresa.

Pero aunque siempre ha habido soluciones creativas a la moderación en línea, Algospeak y los algoritmos de moderación que lo han engendrado representan una nueva fase en el conflicto sobre la moderación automatizada: abordar la moderación como un ataque a los nuevos creadores que ayudan a estas plataformas a prosperar.

la Asociación de Creadores en Línea (OCA) que pidió a TikTok que explique sus políticas de moderación. Como la cofundadora de la OCA, Cecelia Gray told del Washington Post, Taylor Lorenz: "La gente tiene que atenuar su propio lenguaje para no ofender a estos dioses de TikTok que todo lo ven y todo lo saben".

Para los creadores de TikTok, los juicios del algoritmo de recomendación del servicio son enormemente importantes. Los feeds de los usuarios de TikTok no presentan necesariamente las nuevas obras de los creadores que siguen. Esto significa que tú, como usuario de TikTok, no puedes suscribirte a un creador y estar seguro de que sus nuevos vídeos te llamarán la atención automáticamente. En cambio, TikTok considera el hecho de que te hayas suscrito explícitamente al feed de un creador como una mera sugerencia, una de las muchas señales incorporadas a su sistema de clasificación.

Para los creadores de TikTok -y los de otras plataformas en las que no hay garantía de que tus suscriptores reciban realmente tus vídeos- entender "el algoritmo" es la diferencia entre cobrar o no por tu trabajo.

Pero estas plataformas no explican cómo funcionan sus algoritmos: qué palabras o frases desencadenan el downranking. Como escribe Lorenz, "los creadores de TikTok han creado documentos de Google compartidos con listas de cientos de palabras que creen que los sistemas de moderación de la aplicación consideran problemáticas. Otros usuarios llevan un recuento de los términos que creen que han estrangulado ciertos vídeos, tratando de revertir el sistema" (el sitio web Zuck Got Me For hace una crónica de los contenidos inocuos que los filtros de Instagram han bloqueado sin explicación).

Las personas que crean los materiales que hacen valiosas a plataformas como YouTube, Facebook, Twitter, Snap, Instagram y TikTok han ideado un montón de formas de convertir la atención en comida y dinero para el alquiler, y han convencido a miles de millones de usuarios de las plataformas para que se suscriban para recibir sus creaciones cuando se suban. Pero esos suscriptores solo pueden prestar atención a esas creaciones si el algoritmo decide incluirlas, lo que significa que los creadores solo consiguen comer y pagar el alquiler si complacen al algoritmo.

Por desgracia, las plataformas se niegan a revelar cómo funcionan sus sistemas de recomendación. Dicen que revelar los criterios por los que el sistema decide cuándo promocionar o enterrar una obra permitiría a los spammers y estafadores abusar del sistema.

Francamente, este es un argumento extraño. En la práctica de la seguridad de la información, "seguridad mediante la oscuridad" se considera una tontería. El estándar de oro para un sistema de seguridad es aquel que funciona incluso si su adversario lo entiende. La moderación de contenidos es el único ámbito importante en el que "si te dijera cómo funciona, dejaría de funcionar" se considera una propuesta razonable.

Esto es especialmente molesto para los creadores que no recibirán compensación por su trabajo creativo cuando un fallo algorítmico lo entierre: para ellos, "no puedo decirte cómo funciona el sistema o podrías hacer trampas" es como si tu jefe te dijera "no puedo decirte cuál es tu trabajo, o podrías engañarme y pensar que eres un buen empleado".

Ahí es donde entra Tracking Exposed: Tracking Exposed es un pequeño colectivo de ingenieros y diseñadores europeos que examinan sistemáticamente los algoritmos de las redes sociales para reemplazar las teorías populares que informan la jerga de Algos con datos concretos sobre lo que las plataformas suben y bajan de rango.

Tracking Exposed pide a los usuarios que instalen complementos del navegador que analicen de forma anónima los sistemas de recomendación de Facebook, Amazon, TikTok, YouTube y Pornhub (porque el trabajo sexual es un trabajo). Estos datos se mezclan con los obtenidos de las pruebas automatizadas de estos sistemas, con el objetivo de comprender cómo el sistema de clasificación intenta hacer coincidir los gustos inferidos de los usuarios con los materiales que los creadores fabrican, para hacer este proceso legible para todos los usuarios.

Pero entender el funcionamiento de estos sistemas de recomendación es sólo el principio. En la siguiente fase, la de permitir a los usuarios modificar el sistema de recomendación, es donde las cosas se ponen realmente interesantes.

YouChoose es otro complemento de Tracking Exposed: sustituye las recomendaciones de YouTube en tu navegador por recomendaciones de muchos servicios de todo Internet, seleccionadas según los criterios que tú elijas (de ahí el nombre).

El conjunto de herramientas de Tracking Exposed es un gran ejemplo de la interoperabilidad adversa contemporánea (también conocida como "compatibilidad competitiva" o "comcom"). Dar a los usuarios y a los creadores el poder de entender y reconfigurar los sistemas de recomendación que producen su alimentación -o alimentan a sus familias- es una visión profundamente empoderadora.

Los beneficios de sondear y analizar los sistemas de recomendación no se limitan a ayudar a los creativos y a sus audiencias. Otros trabajos de gran repercusión de Tracking Exposed incluyen un estudio sobre cómo TikTok está promoviendo el contenido proguerra y degradando el contenido antiguerra en Rusia y cuantificar el papel que desempeñó la desinformación política en Facebook en el resultado de las elecciones de 2021 en los Países Bajos.

Las plataformas nos dicen que necesitan reglas de la casa para que sus espacios de conversación prosperen, y eso es absolutamente cierto. Pero luego ocultan esas reglas y castigan a los usuarios que las incumplen. ¿Recuerdas cuando la cofundadora de OCA, Cecelia Gray, dijo que sus miembros se atan de pies y manos "para no ofender a estos dioses de TikTok que todo lo ven y todo lo saben"?

No son dioses, aunque actúen como tales. Estas empresas deben hacer que sus políticas sean legibles para el público y los creadores, adoptando The Santa Clara Principles.

Pero los creadores y el público no deberían tener que esperar a que estas corporaciones que se creen dioses desciendan de los cielos y se dignen a dar explicaciones a los pobres mortales que utilizan sus plataformas. Herramientas de comunicación como Tracking Exposed nos permiten exigir una explicación a los dioses, y extraerla nosotros mismos si los dioses se niegan.