

Seguindo os passos do X, onde discursos transfóbicos cresceram 62%, empresa de Mark Zuckerberg facilita disseminação de discurso de ódio
Em meados de 2021, o ativista Diego Xavier, 36, e o ex-marido dele foram fotografados para uma campanha publicitária da Volkswagen. Ele lembra que quando recebeu o convite, ficou lisonjeado, mas desde que a foto foi veiculada nas redes sociais da marca, em alusão ao mês do Orgulho LGBT+, foram muitas noites sem dormir.
O ex-casal foi alvo de ataques LGBTfóbicos massivos na internet, que os alcançaram, também, fora das telas. Após a repercussão, familiares de Xavier foram agredidos nas ruas de Cambé, no interior do Paraná, cidade onde ele nasceu e viveu boa parte da vida, antes de se mudar para Curitiba. “Dois sobrinhos meus foram atacados. Os agressores disseram que o tio deles era uma vergonha para a cidade. Também foram tirar satisfação com a minha irmã”, relembra o ativista.
Hoje, ele mora em Cork, na Irlanda, e atua como voluntário na Gay Project ONG, instituição que celebra a diversidade sexual e de gênero, além de defender os direitos humanos e políticas de proteção para a comunidade LGBTQIA+. Apesar da mudança de vida, Xavier sente que os efeitos da violência ainda estão muito presentes em seu cotidiano. “Sofremos ataques tão intensos que, em determinado momento, a gente foi parar na delegacia, em Curitiba, para registrar os crimes virtuais. Foi um processo que abalou nossa saúde mental e nos fez repensar os limites da exposição digital. O processo ainda corre na Justiça Federal”, conta.
A violência online também faz parte da rotina de Gabrielle Weber, 40, professora de Engenharia da USP e criadora do canal de divulgação científica pró-LGBTQIA+ “Mamutes na Ciência”. Ela enfrenta ataques constantes desde 2014, ano em que o movimento Escola Sem Partido ganhou notoriedade no Brasil. Para Weber, o discurso de ódio contra a população LGBTQIA+ se intensificou nos últimos anos.
“Tem comentários bem pesados – você posta algo sobre diversidade e, de repente, surge aquele comentário absurdo dizendo que ‘mulheres trans não são mulheres’, por exemplo. Esses ataques não ficam restritos à internet; eles transbordam para a vida cotidiana, causando insegurança e exclusão para nós, travestis”, afirma Weber.
Casos como os de Xavier e Weber se tornam ainda mais preocupantes diante das recentes mudanças anunciadas pela Meta, empresa responsável pelo Facebook, Instagram e WhatsApp. Em janeiro, a companhia encerrou seu programa de checagem de fatos nos Estados Unidos e flexibilizou as políticas de moderação de conteúdo no mundo todo, permitindo maior circulação de discursos que estigmatizam a população LGBTQIA+.
As mudanças foram anunciadas logo após Donald Trump reassumir a Casa Branca. A decisão de Mark Zuckerberg, CEO da empresa e um dos maiores apoiadores do presidente republicano, está alinhada à nova política americana de ataques a grupos historicamente vulneráveis.
Na prática, discursos que associam orientação sexual e identidades de gênero a doenças, por exemplo, passaram a ser tolerados pela plataforma. Além disso, nos EUA, a Meta pretende substituir os verificadores de fatos independentes por um sistema de notas criadas pelos próprios usuários – semelhante ao implementado no X (ex-Twitter) –, o que pode ampliar a desinformação.
Imagem da campanha publicitária que o ativista Diego Xavier participou, em 2021
ReproduçãoNo Brasil, por enquanto, a Meta ainda não encerrou o Programa de Verificação de Fatos Independentes, como fez nos Estados Unidos. Em resposta a um pedido de explicações da Advocacia-Geral da União, a empresa disse que, “no momento”, o serviço segue funcionando no país. O que não se sabe, porém, é até quando.
O trabalho de checagem é feito a cargo de organizações independentes, que monitoram conteúdos virais que possam conter desinformação, avaliam sua veracidade e fornecem contexto aos usuários. Caso uma publicação seja classificada como falsa ou enganosa, a Meta pode aplicar medidas como a redução de alcance e a desmonetização da página responsável pela postagem.
As organizações de checagem têm contratos com a Meta e são pagas pelo serviço prestado. Atualmente, seis organizações fazem esse trabalho no Brasil.
A suspensão do serviço nos Estados Unidos anunciada agora é parte de uma estratégia articulada pela Meta ao longo de muito tempo, na opinião de Polinho Mota, que atua como coordenador de dados do data_labe, laboratório de dados e narrativas na favela da Maré, no Rio de Janeiro.
Fonte: Human Rights Watch
“Muitos dos escritórios de moderação de conteúdo estão concentrados em países africanos e na Índia. E esses moderadores são muito mal pagos – recebem, em média, 2 a 3 dólares a hora de trabalho. Essa pessoa mal remunerada também é exposta a muito conteúdo violento, fatores capazes de reduzir drasticamente sua dedicação à moderação”, conta. “Isso significa que a moderação é feita de forma errada, propositalmente, para que a gente consiga aceitar, enquanto sociedade, o discurso de que a moderação contratada pela própria rede não funciona.”
A nova política transfere a responsabilidade da verificação de fatos para os próprios usuários, sem garantir que o processo seja justo, diz ele. “A mudança pode permitir ataques coordenados contra conteúdos de ativistas LGBTQIA+, o que aumenta o risco de discursos de ódio permanecerem nas plataformas enquanto publicações legítimas são removidas”, explica.
Para Natália Leal, CEO da Lupa, uma das agências que fazem checagem nas plataformas da Meta no Brasil, a tentativa de substituir a verificação tradicional por um novo sistema (o programa de notas da comunidade) “dificilmente se mostrará eficaz para conter a desinformação”.
Segundo Leal, o cenário exige atenção e mobilização da sociedade civil por uma regulação eficaz das redes sociais no Brasil. “O ambiente digital em que vivemos hoje precisa de regulação e, se tivermos uma estrutura robusta, com a devida responsabilização das plataformas, essa decisão talvez nem chegue aqui”, fala.
Donald Trump e Mark Zuckerberg em evento na Casa Branca, em 2019
Foto: Joiyce N. Boghosian/Casa BrancaAs mudanças nas políticas da Meta ocorrem em um cenário já marcado pela disseminação de desinformação e discursos de ódio contra a população LGBTQIA+. Um levantamento realizado pela Diadorim em 2024, a partir de dados da Biblioteca de Anúncios da Meta, revelou que, em um ano, políticos brasileiros pagaram mais de cem anúncios para impulsionar desinformação sobre crianças e adolescentes trans.
Embora o impacto das alterações nas políticas da Meta ainda não tenha sido mensurado, um precedente de 2022, com a mudança nas políticas do X após a compra da rede por Elon Musk, revelou um aumento de 58% nos discursos homofóbicos e 62% em mensagens transfóbicas, conforme levantamento do CCDH (Center for Countering Digital Hate).
Polinho Mota observa que a lógica algorítmica de redes sociais, como as da Meta, prioriza o engajamento, intensificando um fenômeno que sempre existiu, mas que antes era fragmentado. “A desinformação sempre esteve presente na sociedade, mas antes se espalhava de forma desconectada, sem a rapidez que a internet proporciona. Empresas como a Meta estão comprometidas apenas com o lucro”, comenta.
Um estudo realizado pelo data_labe durante as eleições de 2022 revelou que oito a cada 10 pessoas negras e LGBTQIA+ foram vítimas de discurso de ódio.
Entre os entrevistados:
Além disso, 36 pessoas foram ouvidas em entrevistas e grupos focais, e grande parte delas relatou ter sentido medo de sair para votar e sofrer violência física, sexual ou psicológica.
Autor de estudos sobre LGBTfobia na internet, o pesquisador de mídias digitais na FGV Comunicação Rio, Renato Contente, afirma que a violência digital tem efeitos diretos no aumento da intolerância e da violência fora das telas.
“Os crimes contra a comunidade LGBTQIA+ muitas vezes recebem aprovação coletiva online, mostrando como esses espaços podem alimentar agressões fora da internet. A banalização do ódio corroi o debate público e mina os esforços para a garantia de direitos”, analisa.
Contente acrescenta que a polarização política contribui para a propagação desses discursos ao enquadrar pautas LGBTQIA+ como questões morais, em vez de direitos civis. “O discurso de ódio busca deslegitimar as reivindicações dessa população, apresentando-as como ‘ideologia’ ou ameaça à família, o que reforça o pânico moral e amplia o espaço para discursos extremistas”, conclui.
Lideranças, entidades e coletivos LGBTQIA+ brasileiras expressam preocupação com o possível aumento de discursos de ódio e mensagens LGBTfóbicas no Facebook e Instagram após mudanças nas regras das plataformas.
Em 8 de fevereiro, a deputada federal Erika Hilton (Psol-SP) denunciou à ONU as mudanças nas diretrizes das redes sociais. No mesmo dia, a Antra (Associação Nacional de Travestis e Transexuais) protocolou representação no Ministério Público Federal (MPF).
No dia seguinte, a Aliança Nacional LGBTI+ e a ABRAFH (Associação Brasileira de Famílias Homotransafetivas) defenderam a revisão da atuação da Meta no Brasil e a aplicação de sanções, se necessário, para evitar retrocessos democráticos e violações de direitos.
A justiça americana tende a ver a liberdade de expressão de forma quase absoluta, o que difere da abordagem no Brasil. O STF (Supremo Tribunal Federal) e organismos internacionais, como a Corte Interamericana de Direitos Humanos, adotam uma interpretação mais restritiva, equilibrando a liberdade de expressão com outros direitos fundamentais, como a proteção à dignidade, à honra e à intimidade.
Por isso, mesmo com a tolerância da Meta, o direito de se expressar nas redes sociais tem limites. “Mudanças na política de moderação da Meta que facilitem a propagação de discursos de ódio e desinformação podem resultar em ações civis públicas do Ministério Público e da Defensoria Pública, visando responsabilizar a empresa pelos danos coletivos causados”, afirma o advogado Paulo Iotti, especialista em direitos humanos.
As vítimas de desinformação ou ataques nas redes sociais têm o direito de buscar reparação, podendo ajuizar ações civis contra os responsáveis pelas publicações. Essas ações podem resultar em condenações por danos morais ou até punições criminais, dependendo da gravidade da infração. Também é possível exigir que as plataformas removam conteúdos danosos e sejam responsabilizadas.
“A mudança pode permitir ataques coordenados contra conteúdos de ativistas LGBTQIA+, o que aumenta o risco de discursos de ódio permanecerem nas plataformas enquanto publicações legítimas são removidas”Polinho Mota, coordenador de dados do data_labe.
No entanto, para Iotti, as redes sociais ainda carecem de uma regulação mais rigorosa no país. “Ao lucrar com conteúdos que viralizam, como fake news e discursos de ódio, elas devem ser responsabilizadas de forma mais efetiva”, diz.
O debate sobre a responsabilidade das redes sociais na moderação de discursos de ódio e fake news tem ganhado destaque no STF, que discute até que ponto as empresas podem se isentar de responsabilidades. O Marco Civil da Internet, que até agora prevê punições para as plataformas apenas em caso de descumprimento de ordens judiciais, é alvo de contestação.
Outro ponto importante é a falta de transparência nas decisões das empresas. Humberto Ribeiro, cofundador do Sleeping Giants Brasil, destaca que não se sabe exatamente como funcionam os sistemas de inteligência artificial e algoritmos das plataformas, e a Meta não oferece dados suficientes para que pesquisadores, acadêmicos e o público compreendam a lógica por trás das remoções e recomendações de conteúdos. A falta de clareza gera um ambiente de incerteza e risco, especialmente para os mais vulneráveis.
No final do ano passado, o Senado aprovou o PL 2338/23, que trata do uso de Inteligência Artificial. “O relatório inicial propunha que as recomendações algorítmicas de conteúdos fossem incluídas entre os serviços de IA de alto risco. Porém, o dispositivo foi retirado do texto após a pressão das big techs, e o projeto foi aprovado no Senado – agora tramita na Câmara – sem que essa questão fosse abordada”, afirma Ribeiro.
Já conhece nossos canais no Telegram e WhatsApp? Acompanhe as nossas notícias também por mensagem. É de graça!
entrarEle cobra dos deputados um olhar mais criterioso e reivindica que incluam as recomendações de conteúdos entre os serviços de IA de alto risco, forçando os provedores de aplicativos a adotar medidas de governança para esses sistemas de inteligência artificial.
O projeto original exigia que os desenvolvedores de serviços de IA de alto risco submetessem seus sistemas a testes de segurança, fornecessem informações sobre seu funcionamento e adotassem medidas para mitigar vieses discriminatórios, entre outras obrigações, cita Ribeiro.
Ele também defende que a Câmara retome as discussões do PL 2630/20, que busca criar a Lei de Responsabilidade e Transparência da Internet. “O projeto está parado há mais de seis meses em um Grupo de Trabalho que nunca se reuniu, após o ex-presidente da Câmara, Arthur Lira (PP-AL), retirar a relatoria do deputado Orlando Silva (PCdoB-SP). É crucial que a Câmara dos Deputados priorize o relatório do deputado Orlando Silva, que é resultado de mais de cinco anos de intenso diálogo com a sociedade civil e a academia”, conclui.