A principios de esta semana, cuando Meta anunció cambios en sus procesos de moderación de contenidos, estábamos esperanzados de que algunos de esos cambios -que abordaremos con más detalle en este post- permitirían una mayor libertad de expresión en las plataformas de la , algo por lo que hemos abogado durante muchos años. Aunque el anuncio inicial de Meta se refería principalmente a los cambios en sus políticas de desinformación e incluía la retirada de herramientas automatizadas y de aplicación excesiva que hemos criticado durante mucho tiempo, expresamos nuestra esperanza de que "Meta también examine de cerca sus prácticas de moderación de contenidos con respecto a otros temas comúnmente censurados, como el discurso LGBTQ+, la disidencia política y el trabajo sexual".
Facebook tiene un historial claro y preocupante de silenciar y marginar aún más a los pueblos ya oprimidos, y de no ser muy franco sobre su política de moderación de contenidos.
Sin embargo, poco después de la publicación de nuestra declaración inicial, nos enteramos de que, en lugar de abordar esos temas históricamente sobre-moderados, Meta estaba tomando el camino opuesto y -como informó el Independent - estaba haciendo cambios específicos a su política de conducta de odio que permitiría hacer declaraciones deshumanizantes sobre ciertos grupos vulnerables.
Fue nuestro error formular nuestras respuestas y expectativas en lo que es esencialmente un vídeo de marketing para los próximos cambios de política antes de que ninguno de esos cambios se reflejara en su documentación. Preferimos centrarnos en las consecuencias reales de la censura en línea que sufren las personas, que suelen estar más alejadas de las políticas establecidas en las directrices de la comunidad y los documentos de las condiciones de servicio. Facebook tiene un historial claro y preocupante de silenciar y marginar aún más a los pueblos ya oprimidos, y luego ser menos que franco acerca de su política de moderación de contenidos. Estos primeros cambios que aparecen en el documento de normas comunitarias de Facebook parecen ir en la misma línea.
En concreto, la política de conducta de odio de Meta contiene ahora lo siguiente:
- A veces se utiliza un lenguaje que excluye el sexo o el género cuando se habla del acceso a espacios a menudo limitados por el sexo o el género, como el acceso a baños, a escuelas específicas, a funciones militares, policiales o docentes específicas, y a grupos sanitarios o de apoyo. Otras veces, piden la exclusión o utilizan un lenguaje insultante en el contexto de la discusión de temas políticos o religiosos, como cuando se habla de los derechos de los transexuales, la inmigración o la homosexualidad. Por último, a veces la gente maldice a un género en el contexto de una ruptura romántica. Nuestras políticas están diseñadas para dar cabida a este tipo de expresiones.
Pero la aplicación de esta política muestra que se centra en permitir más discursos de odio contra grupos específicos, con un enfoque notable y particular en permitir más discursos que cuestionen la legitimidad de los derechos LGBTQ+. Por ejemplo,
- Aunque las acusaciones de enfermedad mental contra personas basadas en sus características protegidas siguen siendo una infracción de nivel 2, la política revisada permite ahora "acusaciones de enfermedad o anormalidad mental cuando se basan en el género o la orientación sexual, dado el discurso político y religioso sobre la transexualidad [sic] y la homosexualidad".
- La política revisada especifica ahora que Meta permite discursos que defiendan la exclusión por motivos de género y orientación sexual de empleos militares, policiales y docentes, así como de ligas deportivas y baños.
- La política revisada también eliminó las prohibiciones anteriores de comparar a las personas con objetos inanimados, heces y suciedad en función de sus características protegidas.
Estos cambios revelan que Meta parece menos interesada en la libertad de expresión como principio y más centrada en apaciguar a la administración estadounidense entrante, una preocupación que mencionamos en nuestra declaración inicial con respecto al anunciado traslado del equipo de política de contenidos de California a Texas para abordar las "apariencias de parcialidad." Meta dijo que introduciría algunos cambios para reflejar que estos temas son "objeto de frecuentes discursos y debates políticos" y pueden decirse "en la televisión o en el pleno del Congreso". Pero si esa es realmente la nueva norma de Meta, nos sorprende lo selectiva que está siendo su aplicación, y en particular que permita más discursos anti-LGBTQ+.
Seguimos oponiéndonos firmemente a que los contenidos de odio contra los transexuales permanezcan en las plataformas de Meta, y condenamos enérgicamente cualquier cambio de política directamente dirigido a permitir el odio contra comunidades vulnerables, tanto en Estados Unidos como en el resto del mundo.
Una reforma real y sincera de la moderación de contenidos puede promover la libertad de expresión y proteger a los usuarios marginados.
En su anuncio inicial, Meta también dijo que cambiaría la forma de aplicar las políticas para reducir los errores, dejaría de depender de sistemas automatizados para marcar cada contenido y añadiría personal para revisar las apelaciones. Creemos que, en teoría, se trata de medidas positivas que deberían dar lugar a una menor censura de la expresión por la que Meta ha sido criticada durante mucho tiempo por la comunidad mundial de derechos digitales, así como por artistas, grupos de defensa de los trabajadores sexuales, defensores de LGBTQ+, defensores de Palestina y grupos políticos, entre otros.
Pero somos conscientes de que estos problemas, en una empresa con un historial de moderación sesgada y perjudicial como Meta, necesitan una solución cuidadosa, bien pensada y sincera que no socave objetivos más amplios de libertad de expresión.
Durante más de una década, la EFF ha criticado el impacto que la moderación de contenidos a escala -y moderación automatizada de contenidos en particular- tiene en diversos grupos. Si Meta está realmente interesada en promover la libertad de expresión a través de sus plataformas, renovamos nuestros llamamientos para priorizar las siguientes mejoras tan necesarias en lugar de permitir más discursos de odio.
Meta debe invertir en su base mundial de usuarios y cubrir más idiomas
Meta lleva mucho tiempo sin invertir en proporcionar competencia cultural y lingüística en sus prácticas de moderación, lo que a menudo conduce a la eliminación inexacta de contenidos, así como a una mayor dependencia de herramientas de automatización (defectuosas). Esto nos resulta evidente desde hace mucho tiempo. Tras las revueltas árabes de 2011, en documentamos nuestra preocupación por los procesos de denuncia de Facebook y su efecto en los activistas de Oriente Medio y el Norte de África. Más recientemente, la necesidad de competencia cultural en la industria en general se puso de relieve en la revisión de los Principios de Santa Clara .
A lo largo de los años, las deficiencias globales de Meta se hicieron aún más evidentes cuando sus plataformas se utilizaron para promover el odio y el extremismo en varios lugares. Un ejemplo clave es el fracaso de la plataforma a la hora de moderar el sentimiento anti-rohingya en Myanmar, resultado directo de contar con muy pocos moderadores que hablaran birmano (en 2015, cuando la violencia extrema y el sentimiento violento hacia los rohingya estaban en pleno apogeo, solo había dos de estos moderadores).
Si Meta realmente va a reducir el uso de la automatización para marcar y actuar sobre la mayoría de los contenidos y garantizar que los sistemas de apelación funcionen eficazmente, lo que resolverá algunos de estos problemas, también debe invertir globalmente en personal cualificado de moderación de contenidos para asegurarse de que los contenidos procedentes de países fuera de Estados Unidos y en idiomas distintos del inglés sean moderados de forma justa.
Confiar en la automatización para marcar contenidos extremistas permite una moderación defectuosa
Llevamos mucho tiempo criticando la excesiva vigilancia de Meta sobre el discurso terrorista y extremista, en concreto sobre el impacto que tiene en los contenidos de derechos humanos de . Parte del problema es la excesiva confianza de Meta en la moderación para señalar los contenidos extremistas. Un documento de 2020 en el que se analizaba la moderación en Oriente Medio y el Norte de África afirmaba que los algoritmos utilizados para detectar contenidos terroristas en árabe marcan incorrectamente los mensajes el 77% de las veces .
Más recientemente, lo hemos visto con la moderación automatizada de Meta para eliminar la frase "del río al mar". Tal y como argumentamos en una presentación de al Consejo de Supervisión -con la que el Consejo también estuvo de acuerdo - las decisiones de moderación deben tomarse de forma individualizada porque la frase tiene un uso histórico significativo que no es odioso ni infringe de otro modo las normas de la comunidad de Meta.
Otro ejemplo de este problema que se ha solapado con las deficiencias de Meta en materia de competencia lingüística es el relativo al término "shaheed", cuya traducción más aproximada es "mártir" y que utilizan los arabófonos y muchos musulmanes no arabófonos de otras partes del mundo para referirse principalmente (aunque no de forma exclusiva) a personas que han muerto en pos de causas ideológicas. Como argumentamos en nuestra presentación conjunta con ECNL al Consejo de Supervisión de Meta en , el uso del término depende del contexto, pero Meta ha utilizado la moderación automática para eliminar indiscriminadamente los casos de la palabra. En su dictamen consultivo sobre políticas, el Consejo de Supervisión señaló que cualquier restricción a la libertad de expresión que pretenda prevenir la violencia debe ser necesaria y proporcionada, "dado que la eliminación indebida de contenidos puede ser ineficaz e incluso contraproducente".
Las comunidades marginadas que sufren persecución fuera de Internet a menudo se enfrentan a una censura desproporcionada en Internet. Es imperativo que Meta reconozca las responsabilidades que tiene con su base mundial de usuarios en la defensa de la libertad de expresión, en particular de comunidades que de otro modo podrían sufrir censura en sus países de origen.
Los contenidos de temática sexual siguen siendo objeto de una censura excesiva y discriminatoria
Nuestra crítica a la eliminación de contenidos de temática sexual por parte de Meta se remonta a más de una década . Las políticas de la empresa sobre actividad sexual adulta y desnudez afectan a un amplio abanico de personas y comunidades, pero sobre todo a personas LGBTQ+ y profesionales del sexo. Estas políticas, cuyo objetivo suele ser mantener los sitios "aptos para familias" o "proteger a los niños", se aplican a menudo de forma desigual, clasificando a menudo el contenido LGBTQ+ como "adulto" o "perjudicial" cuando el contenido heterosexual similar no lo es. Estas políticas se redactan y aplican a menudo de forma discriminatoria y a expensas de los hablantes de género fluido y no binario. Nos unimos a la campaña We the Nipple para poner remedio a esta discriminación.
En medio de las continuas divisiones políticas, cuestiones como ésta tienen un grave impacto en los usuarios de las redes sociales.
La mayoría de los contenidos de desnudos son legales, y la participación en este tipo de material en línea proporciona a las personas un marco seguro y abierto para explorar sus identidades , abogar por una mayor aceptación social y contra el odio, crear comunidades , y descubrir nuevos intereses . Con la intervención de Meta para convertirse en árbitro de la forma en que la gente crea y se relaciona con la desnudez y la sexualidad -tanto fuera de línea como en el espacio digital- se ha eliminado una forma crucial de compromiso para todo tipo de usuarios y se han apagado regularmente las voces de las personas con menos poder.
La eliminación excesiva de contenidos sobre el aborto impide el acceso de los usuarios a información esencial
La eliminación de publicaciones relacionadas con el aborto en las plataformas Meta que contenían la palabra "matar" no han cumplido los criterios para restringir el derecho de los usuarios a la libertad de expresión. Meta ha suprimido regularmente contenidos relacionados con el aborto, obstaculizando la capacidad de sus usuarios para expresar sus convicciones políticas. El uso de herramientas automatizadas para la moderación de contenidos conduce a la eliminación sesgada de este lenguaje, así como de información esencial. En 2022, Vice informó a de que un post de Facebook en el que se afirmaba que "las píldoras abortivas pueden enviarse por correo" fue marcado a los pocos segundos de su publicación.
En un momento en que se están presentando proyectos de ley en todo Estados Unidos para restringir el intercambio de información relacionada con el aborto en línea, la justicia reproductiva y el acceso seguro al aborto, como tantos otros aspectos de la gestión de nuestra atención sanitaria, están fundamentalmente ligados a nuestra vida digital. Y con las corporaciones decidiendo qué contenido se aloja en línea, el impacto de esta eliminación se exacerba.
Lo que antes eran datos benignos en línea ahora son pruebas potencialmente delictivas. Esta creciente amenaza a los derechos digitales es especialmente peligrosa para las personas BIPOC, de bajos ingresos, inmigrantes, LGBTQ+ y otras comunidades tradicionalmente marginadas, así como para los proveedores de atención sanitaria que atienden a estas comunidades. Meta debe adherirse a su responsabilidad de respetar el derecho internacional de los derechos humanos, y garantizar que cualquier eliminación de contenido relacionado con el aborto sea necesaria y proporcionada.
El traslado simbólico de Meta de su equipo de contenidos de California a Texas, un estado que pretende ilegalizar la distribución de información sobre el aborto , también suscita serias dudas de que Meta retroceda en esta cuestión -en línea con la ley estatal texana que prohíbe el aborto- en lugar de introducir mejoras.
Meta debe esforzarse más por ofrecer transparencia a los usuarios
La EFF lleva mucho tiempo criticando la falta de transparencia de Facebook. En lo que respecta a la moderación de contenidos, los informes de transparencia de la empresa carecen de muchos de los elementos básicos : ¿cuántos moderadores humanos hay y cuántos cubren cada idioma? ¿Cómo se forma a los moderadores? El informe de cumplimiento de las normas comunitarias de la empresa incluye estimaciones aproximadas de cuántos contenidos de qué categorías se eliminan, pero no nos dice por qué ni cómo se toman estas decisiones.
Meta gana miles de millones con la explotación de nuestros datos y, con demasiada frecuencia, antepone sus beneficios a nuestra privacidad: opta por recopilar el máximo posible mientras niega a los usuarios el control intuitivo sobre sus datos. En muchos sentidos, este problema subyace al resto de los perjuicios de la empresa, ya que su principal modelo de negocio depende de recopilar tanta información sobre los usuarios como sea posible y utilizarla para dirigir anuncios, así como para dirigirse a la competencia .
Es por eso que la EFF, junto con otros, lanzó los Principios de Santa Clara sobre cómo las corporaciones como Meta pueden obtener mejor transparencia significativa y rendición de cuentas en torno a la moderación cada vez más agresiva de contenido generado por el usuario. Y a medida que plataformas como Facebook, Instagram y X continúan ocupando un papel aún mayor en el arbitraje de nuestra expresión y el control de nuestros datos, hay una mayor urgencia para asegurar que su alcance no sólo se reprime, sino que se reduce.
Un enfoque erróneo para moderar la desinformación con
La desinformación ha proliferado en las plataformas de medios sociales, incluida Meta. Como dijimos en nuestra declaración inicial, y hemos escrito antes, Meta y otras plataformas deben utilizar una variedad de herramientas de verificación y comprobación de hechos a su disposición, incluyendo tanto notas de la comunidad como verificadores de hechos profesionales, y contar con sistemas sólidos para comprobar cualquier señalamiento que resulte de ello.
Meta y otras plataformas también deberían emplear herramientas de alfabetización mediática, como animar a los usuarios a leer los artículos antes de compartirlos, y proporcionar recursos para ayudar a sus usuarios a evaluar la fiabilidad de la información en el sitio. También hemos pedido a que Meta y otras plataformas dejen de privilegiar a los funcionarios gubernamentales ofreciéndoles más oportunidades de mentir que a otros usuarios.
Aunque el martes expresamos cierta esperanza, el cinismo expresado por otros parece ahora justificado. A lo largo de los años, la EFF y muchos otros han trabajado para presionar a Meta para que introduzca mejoras. Hemos tenido cierto éxito con su política de "nombres reales", por ejemplo, que afectaba desproporcionadamente a la comunidad LGBTQ y a los disidentes políticos. También luchamos por , y conseguimos mejoras, en la política de Meta sobre permitir imágenes de lactancia materna, en lugar de marcarlas como "contenido sexual". Si Meta valora realmente la libertad de expresión, le instamos a que reoriente su enfoque hacia la potenciación de los portavoces históricamente marginados, en lugar de potenciar sólo a sus detractores.