

A decisão da Meta de encerrar o programa de checagem de fatos nos Estados Unidos gerou preocupações sobre a disseminação de fake news e seus impactos, especialmente sobre grupos minorizados. Embora essa mudança ainda não tenha sido implementada no Brasil, Natália Leal, CEO da Agência Lupa, alerta que não há garantia de que a política não será adotada no país, que ainda carece de um marco regulatório para as redes sociais.
Atualmente, a Lupa é uma das agências de checagem de fatos parceiras da Meta no Brasil. A agência monitora o ambiente digital, identifica conteúdos potencialmente falsos e verifica sua veracidade. Com base nessas avaliações, a Meta pode barrar conteúdos falsos e punir usuários que atuem de má-fé.
Leal destaca que a desinformação está diretamente ligada ao aumento dos discursos de ódio contra a população LGBTQIA+. Além disso, as recentes mudanças nas diretrizes de moderação de conteúdo em todo o mundo, inclusive no Brasil, podem criar um ambiente digital mais permissivo para ataques e fake news.
Uma das mudanças mais preocupantes é a flexibilização das regras sobre discurso de ódio. Antes, publicações que associavam a população LGBTQIA+ a doenças mentais eram classificadas como prejudiciais e removidas das plataformas. Com a nova política, esse tipo de discurso deixou de ser considerado violação das diretrizes, o que pode amplificar narrativas falsas e aumentar a discriminação.
Em entrevista à Diadorim, a CEO da Lupa explica como funcionava a checagem de fatos antes da decisão da Meta, os riscos dessa mudança e a importância da verificação para proteger minorias e evitar a manipulação política de informações falsas.
DIADORIM — Como funciona o trabalho de checagem de fatos nas plataformas da Meta?
NATÁLIA LEAL — O trabalho de checagem que a gente faz para a Meta funcionava e ainda funciona de acordo com a nossa metodologia de checagem, que é baseada na transparência, na imparcialidade e em uma política de correção pública e sempre aplicada. Essa metodologia está disponível no site da Lupa.
A gente monitora o ambiente digital por meio de diferentes ferramentas, algumas desenvolvidas pela própria Lupa e outras em parceria com outras empresas. Além disso, temos acesso a ferramentas específicas da Meta devido à parceria. Com esse monitoramento, analisamos as publicações que estão viralizando e avaliamos como elas impactam o debate público, verificando se podem ter efeitos nocivos. Também acompanhamos o potencial de viralização dessas informações.
Essas informações podem chegar até nós de diversas formas: pelo monitoramento, por sugestões de leitores via WhatsApp e outras redes sociais ou por meio das notificações e denúncias feitas pelos próprios usuários dentro das plataformas, sinalizando conteúdos potencialmente falsos. Ao receber essas informações, analisamos o que se encaixa na nossa metodologia de checagem e, quando aplicável, seguimos com o processo de verificação. Em seguida, entregamos essa avaliação para a Meta, que decide quais medidas tomar em relação às publicações.
A Meta pode, por exemplo, reduzir o alcance de um conteúdo para evitar sua disseminação, punir usuários ou impedir a monetização de determinadas contas. No entanto, todas essas decisões são exclusivas da Meta; os checadores apenas monitoram o ambiente, avaliam publicações potencialmente falsas, realizam a checagem de acordo com sua metodologia e devolvem esse conteúdo ao ambiente digital, adicionando contexto ou esclarecendo qual é a informação correta e por que determinada publicação é falsa.
No Brasil, esse trabalho continua sendo realizado da mesma forma. Os contratos da Meta com as agências de checagem não foram interrompidos no país, e o programa segue ativo. Assim, muitas pessoas ainda verão as avaliações e classificações feitas pelos “fact-checkers” em suas “timelines”. O encerramento do programa de checagem de fatos ocorreu apenas nos Estados Unidos. Além disso, o programa de Notas da Comunidade ainda não está 100% implementado por lá, onde está sendo testado inicialmente.
DIADORIM — Qual o impacto da desinformação e das fake news na vida da população LGBTQIA+? Há casos concretos analisados pela Lupa?
NATÁLIA LEAL — A desinformação está diretamente ligada ao discurso de ódio contra a população LGBTQIA+. Isso é especialmente visível no ambiente político, onde muitas parlamentares trans, como deputadas e vereadoras, são alvos constantes tanto de ataques quanto de desinformação.
De forma geral, a desinformação impede que as pessoas tenham acesso a informações corretas sobre diversos temas. Conceitos como identidade de gênero, “kit gay” e banheiros sem gênero são frequentemente distorcidos, alimentando narrativas enganosas. Esse tipo de discurso, baseado em desinformação, impacta diretamente a população LGBTQIA+. Além disso, há casos de ódio motivados por informações falsas direcionadas a essa comunidade.
Já produzimos diversas matérias sobre o tema, incluindo a série Arco-Íris Sob Ataque, que mostra como a desinformação tem sido usada para atacar o público LGBTQIA+. Durante essa investigação, identificamos uma estratégia coordenada para disseminar projetos de lei anti-LGBT+ no Brasil. Políticos conservadores replicavam textos idênticos e os protocolavam em diferentes cidades, numa ação organizada por bancadas e partidos conservadores.
Outra narrativa desinformativa recorrente opõe educação sexual e segurança infantil, como se a primeira levasse à sexualização de crianças, quando, na realidade, acontece o oposto. Muitos discursos baseados em gênero e sexualidade são distorcidos, atingindo diretamente essa população.
DIADORIM — Com as mudanças na Meta, quais riscos concretos você prevê para a disseminação de “fake news” sobre minorias?
NATÁLIA LEAL — É importante diferenciar dois aspectos dessa mudança. De um lado, há a suspensão do programa de checagem de fatos, que ocorreu apenas nos Estados Unidos e afeta diretamente o trabalho dos checadores. De outro, há as mudanças na moderação de conteúdo, que não são realizadas pelos checadores, mas por equipes internas ou terceirizadas da Meta.
A moderação de conteúdo está relacionada a questões criminais e ao cumprimento das diretrizes da comunidade, abrangendo, por exemplo, discursos de ódio. Antes, as políticas da Meta estabeleciam regras claras contra discursos homofóbicos, transfóbicos, de intolerância religiosa e de cunho racista. No entanto, com as novas diretrizes, esses tipos de discurso deixaram de ser considerados violações das regras da plataforma.
Já conhece nossos canais no Telegram e WhatsApp? Acompanhe as nossas notícias também por mensagem. É de graça!
entrarNa prática, isso significa que ataques contra minorias e populações minorizadas tendem a aumentar, uma vez que não serão mais moderados da mesma forma. Não é que a moderação tenha deixado de existir, mas sim que conteúdos que antes eram removidos agora permanecerão na plataforma. Com essa flexibilização, há uma grande possibilidade de aumento nos discursos de ódio, colocando grupos vulneráveis ainda mais expostos a ataques.
DIADORIM – Qual a importância da verificação de fatos para evitar que mentiras sobre pessoas LGBTQIA+ sejam usadas politicamente?
NATÁLIA LEAL — A importância da checagem de fatos é imensa, especialmente para a população LGBTQIA+, assim como para qualquer grupo minorizado. Como mencionei antes, quando circulam narrativas desinformativas, estamos privando as pessoas da informação correta, de qualidade e verificada. Muitas vezes, elas baseiam suas defesas, opiniões e decisões nessas informações equivocadas que consomem em ambientes como as redes sociais. O papel da checagem e da verificação é fornecer esse contexto, oferecendo mais informações de qualidade para que as pessoas possam tomar decisões mais bem informadas.
Quando olhamos para populações minorizadas, esse papel é ainda mais fundamental, pois suas realidades são muito distintas da população média. Por isso, a verificação de fatos e o jornalismo, de maneira geral, têm um papel crucial em evitar o uso político da informação falsa, especialmente quando se trata dessas populações.
DIADORIM — Existe alguma movimentação das agências de checagem para tentar reverter essa decisão nos EUA ou minimizar seus efeitos?
NATÁLIA LEAL — A decisão de acabar com o programa de checagem de fatos, como mencionei, ainda não chegou ao Brasil. O que foi anunciado nos Estados Unidos como substituto à checagem, o programa de notas da comunidade, ainda não foi implementado. Portanto, ainda não temos dados sobre como isso acontecerá, se ocorrerá, ou se será eficaz. Sabemos, com base na experiência de outras plataformas, que essa não é uma boa ferramenta para conter a desinformação, mas ainda não temos dados conclusivos sobre isso, o que nos impede de medir o impacto de maneira precisa.
O que temos feito no Brasil, como organização, é dialogar e, claro, ressaltar a necessidade de uma regulação. É importante que as pautas relacionadas à regulação e responsabilização das plataformas voltem a ser discutidas no legislativo, para que as plataformas se responsabilizem pelo conteúdo que circula nelas. Precisamos também trazer para dentro dessas plataformas o que já é considerado crime no mundo real, de modo que o ambiente digital siga as regras da sociedade, o que nem sempre ocorre atualmente. Essa questão é urgente, e temos nos empenhado para que essa discussão avance.
No entanto, não podemos ignorar que as plataformas de redes sociais são empresas. Essa é uma decisão tomada por uma empresa, ainda que seja ruim para a sociedade, mas vantajosa para ela própria. As empresas de tecnologia estão, neste momento, apostando na proteção que o governo Trump pode oferecer contra a regulação, não só no Brasil, mas também na União Europeia, na Austrália, no Reino Unido e em outros países que estão discutindo e aprovando leis para responsabilizar as plataformas. Esse movimento é, sem dúvida, político, e não vejo essa decisão sendo revertida nos Estados Unidos no momento, a partir das ações dos checadores de fatos.
Como a decisão ainda não chegou ao Brasil, não temos esse movimento de reversão por aqui, mas sabemos que o ambiente das redes sociais, esse ambiente digital que vivemos, precisa de regulação. Com uma regulação robusta e uma responsabilização verdadeira das plataformas, talvez essa decisão não chegue ao Brasil, e assim não precisaremos ter essa discussão.