Las elecciones federales de Brasil están programadas para el 7 de octubre de 2018, pero el temor de que las "noticias fraudulentas" en línea puedan interferir injustamente en el proceso electoral ha estado asomando sobre el país durante mucho más tiempo que la campaña de este año.  En junio, el Presidente del Tribunal Superior Electoral declaró que tal interferencia podría llevar a la anulación de las elecciones. Ese mismo mes, la entidad y los representantes de los partidos políticos se acogieron a un convenio de colaboración en el que se comprometían a no difundir contenidos falsos por sí mismos. A su vez, empresas, legisladores y sociedad civil han todos intentado enfrentar el problema.

El parlamento brasileño ha propuesto más de 15 proyectos de ley que tratan de abordar las noticias fraudulentas, cada uno de ellos contiene sus propias amenazas únicas a la libertad de expresión. La gran mayoría de estos proyectos de ley tratan las noticias falsas como un delito penal. Un proyecto de ley propone penas de hasta ocho años de prisión por "crear, divulgar o compartir noticias fraudulentas que puedan modificar o tergiversar la verdad sobre una persona física o jurídica que afecte al interés público pertinente" en Internet. Otro apunta a responsabilizar a las plataformas de medios sociales de "difundir información falsa, ilegal o incompleta en detrimento de los individuos o las empresas". Establece una multa de R$ 50 millones (cerca de USD 12,8 millones) para las empresas que no eliminen esos mensajes en 24 horas y propone que las empresas creen filtros y herramientas para evitar la difusión de noticias falsas. Muchos de los proyectos de ley amenazarían profundamente la regla general establecida en el Marco Civil (Ley n. 12.965/2014 artículo 19, sección principal) -el marco de derechos civiles de Brasil para Internet- que afirma que los intermediarios no deben ser considerados responsables por el contenido de terceros, salvo en caso de incumplimiento de una orden judicial que ordene la remoción del contenido.

Gracias a la presión de la sociedad civil y a otras iniciativas, incluyendo una recomendación del Consejo Nacional de Derechos Humanos, no se ha aprobado ninguno de estos proyectos de ley. Pero el ambiente político de Brasil es impredecible y no hay garantías de que algunas de estas leyes preocupantes no sean aprobadas para fin de año, especialmente si la desinformación en línea durante las elecciones federales se vuelve en contra de los políticos que actualmente están en el poder.

Anticipándose a las presiones y juicios, las plataformas asumen el papel de árbitros del habla en línea.

Las plataformas en línea en Brasil desean protegerse de acusaciones de parcialidad y evitar insinuaciones de estar influyendo indebidamente en las elecciones federales. Desde la aplicación local de sus políticas globales hasta acciones específicas relacionadas con las elecciones brasileñas, las empresas están tomando medidas que afectan a quién y qué se puede encontrar en línea.                                

Por ejemplo: Google estableció un conjunto de Directrices de Clasificación de Calidad para evaluar el rendimiento de su motor de búsqueda. La empresa contrata a "evaluadores de calidad de búsqueda" que siguen estas directrices para evaluar los resultados de búsqueda de modo que Google pueda mejorar los algoritmos de su motor de búsqueda. Las directrices reflejan lo que Google considera como contenido de calidad y pueden afectar a la visibilidad del contenido en los resultados de búsqueda. En julio, las directrices fueron actualizadas globalmente para tener en cuenta la reputación del creador del contenido y si los títulos de los enlaces son chocantes o exagerados en comparación con contenido real. Incluso si la intención de Google es establecer objetividad, dejar que los evaluadores de calidad de búsqueda juzguen la exactitud del contenido en línea es una práctica peligrosa para aplicar a las noticias políticas, especialmente durante las elecciones. Estas decisiones tienen el potencial de afectar lo que los votantes verán o no en Google, que representa casi el 97% de la cuota de mercado de los motores de búsqueda en Brasil.

Google - junto a Facebook, Twitter y el Proyecto First Draft (Primer Borrador) - también está implementando una iniciativa en Brasil llamada Comprova.  Comprova reúne a asociaciones de prensa y medios de comunicación para verificar la información con el fin de frenar la difusión de contenidos fraudulentos a través de dispositivos móviles y aplicaciones para ellos. Se alienta a los brasileños a enviar el contenido a Comprova para su verificación y también pueden inscribirse para seguir su análisis de verificación de hechos. Una vez verificado el contenido, su confirmación o contra-evidencia se publica en el sitio web de Comprova y se difunde a través de las plataformas y salas de redacción asociadas. Sin embargo, los medios de comunicación que cooperan con Comprova, con pocas excepciones, están vinculados a los principales grupos de medios de comunicación, lo que suscita preocupación por el posible sesgo de sus evaluaciones.

Vale la pena recordar que los medios tradicionales, al menos en América Latina, tienen una larga trayectoria difundiendo la desinformación por sí mismos. Y ni siquiera el “fact-checking” es inmune a las controversias en Brasil.

Recientemente, una agencia de verificación asociada a Facebook clasificó como fraudulenta una historia en la que una persona cercana al Papa había intentado visitar al ex presidente Lula en la cárcel y darle un rosario bendecido. Como resultado, la plataforma envió una notificación de que la historia era fraudulenta a los usuarios que habían compartido la historia. Después de dos días de ajetreo, el Vaticano actualizó la declaración oficial en su sitio web y confirmó que la historia era cierta, pero que el daño ya se había hecho a la reputación del sitio web que publicó la noticia.

En otro caso, Facebook eliminó 196 páginas y 87 cuentas de su plataforma que, según la empresa, violaban sus políticas de autenticidad y spam. Según Facebook, las páginas y las cuentas formaban parte de una red coordinada que se escondía detrás de perfiles falsos y engañaba a la gente para sembrar división y difundir información errónea. Esta red estaba vinculada a un grupo político ultraconservador brasileño que clasificó esta remoción como un acto de censura y lo impugnó ante el Tribunal Supremo. Su protesta pública también dio lugar a una solicitud de información por parte de un Fiscal Federal para que Facebook detallara las páginas y cuentas eliminadas. Aunque su pretensión constitucional de restaurar el contenido ha sido denegada, el caso provocó acalorados debates sobre las políticas de las plataformas para frenar la conducta en sus entornos, dada su relevancia en el alojamiento y la promoción del debate público. La lucha contra los perfiles falsos y la difusión automatizada de contenidos es también una de las diversas medidas que Twitter está tomando en Brasil de cara a las elecciones.

Incluso cuando se dirigen ostensiblemente al spam y a los abusos, estas normas y directrices generales pueden tener un efecto en conversaciones legítimas. La política de nombres reales de Facebook, por ejemplo, puede exponer a los activistas a ataques y poner en peligro a las personas en situaciones vulnerables. Del mismo modo, las medidas contra el spam podrían obstaculizar las acciones coordinadas que promueven causas importantes. Si las empresas están intensificando la vigilancia de los contenidos a la luz de las elecciones, estas acciones requieren un verdadero monitoreo público, una verdadera transparencia y el debido proceso para los afectados, como se subraya en los principios de Santa Clara.

Al margen de la moderación del contenido, la transparencia es importante cuando los candidatos y los partidos políticos usan contenidos contratados para dirigirse a los usuarios. Los intereses políticos y otros datos personales relevantes influyen en los anuncios y propuestas de la campaña que aparecen en las plataformas. Proporcionar a los usuarios herramientas que les muestren quiénes los tienen como objetivos (y porqué ) ayudar a evitar el engaño y la manipulación. Del mismo modo, el listado de todos los anuncios pagados que una campaña política está ejecutando en una plataforma proporciona una imagen clara de lo que los candidatos difunden a través de sus redes. Facebook trató de responder a estas preocupaciones desplegando herramientas específicas en previsión de las elecciones. En Brasil, los partidos políticos, los candidatos y las coaliciones de partidos no están autorizados a publicar anuncios políticos pagados en línea, aparte de impulsar sus publicaciones como contenido patrocinado en las principales plataformas. Esto refuerza el papel que desempeñan estas empresas y la importancia de la transparencia para la difusión en línea de la publicidad y la información política.

Una muestra de las herramientas de la sociedad civil

Siguiendo de cerca este delicado tema están las organizaciones civiles y activistas brasileñas, decididas a contrarrestar las amenazas a la libertad de expresión, sensibilizar a la opinión pública y entablar un diálogo directo con los legisladores, jueces y otras autoridades públicas para evitar soluciones perjudiciales a las noticias fraudulentas. En cuanto a la transparencia, ellos también traen sus herramientas:

Você na Mira es un proyecto de InternetLab en colaboración con WhoTargetsMe, que permite a los usuarios a controlar el microtargeting de los anuncios políticos en Facebook. Es una extensión de navegador para Mozilla Firefox y Google Chrome que recopila datos sobre los anuncios políticos patrocinados que muestran. La información también se comparte anónimamente con el equipo del proyecto que analiza los resultados. Aquí está el  reporte más reciente.

Fuzzify.me es – también – una extensión para Firefox y Chrome que crea una línea de tiempo donde los usuarios pueden ver todos los anuncios patrocinados que se han dirigido a ellos en Facebook. Además de compilar los anuncios y las razones por las que se dirigió a un usuario en particular, la extensión permite a los usuarios limpiar sus categorías de anuncios para que el algoritmo no pueda ver un perfil de usuario con claridad. Fue implementado por Coding Rights con el apoyo de Mozilla Foundation.

Pegabot, de ITS Rio y el Institute of Equity & Technology, es una herramienta que verifica la actividad de una cuenta para evaluar la probabilidad de que el perfil sea un bot. Cuanto más alto sea el valor, tanto mayor será la probabilidad de que se trate de uno. Por ahora, la plataforma está integrada con Twitter, pero pronto será compatible con otras plataformas de medios sociales. El proyecto se encuentra actualmente en fase de prueba.

Intervozes está reportando sobre la naturaleza y el impacto de estas acciones a lo largo del período electoral, haciendo un monitoreo de la manera en que los diferentes actores están enfrentándose a la desinformación. Y como resultado de los debates entre las diversas entidades interesadas, el Comité Directivo de Internet de Brasil lanzó una guía dirigida a los funcionarios públicos y a los usuarios con recomendaciones sobre cómo contrarrestar la desinformación y consejos prácticos para evitar ser engañados por contenidos falsos.

En medio de todas las preocupaciones enredadas en el proceso electoral, el tema de las noticias fraudulentas ha dejado una huella clara en las elecciones brasileñas de 2018. Una multitud de iniciativas han surgido y, en la actualidad, en medio de peligros, zonas grises e ideas interesantes, se hace evidente que las soluciones fáciles, apresuradas y dispersas no son las correctas. Cualquier solución sólida debe tener en cuenta los derechos de los usuarios – y sus posibles implicaciones para la censura y la libertad de expresión.

Tags