O avanço da inteligência artificial e a mudança de postura política das big techs tornarão a desinformação nas eleições de 2026 um problema ainda mais difícil de ser monitorado e combatido do que nos pleitos anteriores. A constatação é de organizações integrantes do Programa Permanente de Enfrentamento à Desinformação, criado em 2021 pelo TSE (Tribunal Superior Eleitoral).
Plataformas de redes sociais encerraram programas que garantiam mais transparência sobre a circulação de conteúdo, mudaram suas políticas —em alinhamento a ideais defendidos pelo governo de Donald Trump— e têm se mobilizado para barrar regulações que estabeleçam obrigações, alertam especialistas.
Essas alterações, dizem os parceiros do TSE, terão impacto direto no monitoramento de desinformação nas redes. Procurado, o TSE não se manifestou. As informações são da Folha de S. Paulo.
Leia maisAs empresas Meta, Google e X (ex-Twitter) foram procuradas, mas não se manifestaram.
Em janeiro de 2025, o CEO da Meta, Mark Zuckerberg, publicou um video em que afirmou que se aproximaria do governo dos Estados Unidos para resistir às tentativas de regulação das redes e ao que chamou de censura. Disse ainda que haveria “tribunais secretos” em “países da América Latina” que estariam ordenando que “empresas removam conteúdos de forma silenciosa”.
Nas eleições de 2024, quando a Justiça Eleitoral obrigou as redes a manter um repositório de anúncios políticos que mostrasse, por exemplo, valores investidos e quantidade de pessoas atingidas, o Google e o X proibiriam o impulsionamento de conteúdo político argumentando que não conseguiriam cumprir a norma. A Folha revelou, entretanto, que o Google descumpriu sua própria decisão e manteve a veiculação dos conteúdos sem a transparência ordenada.
Para a pesquisadora Débora Salles, coordenadora geral de pesquisa no Netlab, o Laboratório de Estudos de Internet e Redes Sociais da UFRJ (Universidade Federal do Rio de Janeiro), o encerramento das ferramentas de transparência das redes dificulta o monitoramento.
Uma das ferramentas retiradas pela Meta em 2024 é o CrowdTangle, que permitia a análise dos conteúdos compartilhados na rede. Foi substituído pela Meta Content Library, alternativa “bem pior” por dificultar o acesso a pesquisadores independentes e jornalistas e restringir a extração e exportação de dados, de acordo com a pesquisadora.
O X também encerrou o acesso gratuito à sua API, ferramenta que permite a terceiros se conectar à plataforma e era muito usada em estudos sobre desinformação. O usuário pode pagar de acordo com os dados que acessar, mas, de acordo com o X, o custo mensal estimado é de US$ 215, ou seja, mais de R$ 1.100.
“É cada vez mais difícil conseguir coletar dados sobre publicações e comentários das plataformas, ainda que sejam públicos”, afirma Heloisa Massaro, diretora do InternetLab.
Luis Fakhouri, co-fundador da Palver, acrescenta que, se a diretriz da empresa “não está alinhada com algum tipo de enfrentamento à desinformação, fica muito difícil criar mecanismos externos”.
“A gente está muito desarmado”, conclui o professor Marco Ruediger, diretor da Escola de Comunicação, Mídia e Informação da FGV (Fundação Getúlio Vargas). Ele defende que a “mudança de política das plataformas” tornará o combate à desinformação na eleição de 2026 muito mais difícil do que em outros anos.
Os especialistas também destacam a ascensão da inteligência artificial como um desafio adicional para as eleições de 2026. Massaro aponta que não há transparência sobre que critérios são utilizados por modelos generativos, como o ChatGPT, para citar candidatos quando questionados por eleitores.
Já Salles acrescenta que a produção de mídias com aparência profissional, feita a baixo custo por ferramentas de IA, pode permitir que novos atores atuem para “influenciar o debate” com conteúdo falso.
O TSE determina que toda postagem feita com IA seja identificada, mas a coordenadora do NetLab destaca que há pouca fiscalização sobre o tema.
Marco civil possibilita responsabilização
Apesar de a decisão do STF (Supremo Tribunal Federal) em julgamento do artigo 19 do Marco Civil da Internet ter ampliado a possibilidade de responsabilização das redes, o Supremo estabeleceu uma ressalva ao tratamento de conteúdos eleitorais, que são regidos pela Justiça Eleitoral.
Ainda assim, Massaro ressalva que o Marco Civil pode impactar as eleições em casos de “discussões que não são explicitamente eleitorais e que não vão entrar necessariamente no escopo da Justiça Eleitoral, mas que podem influenciar o ecossistema de debate público”.
Já Ruediger destaca que a dificuldade de responsabilização segue, pois em um cenário de falta de transparência há dificuldade de “caracterizar claramente que alguma coisa está acontecendo com a aquiescência ou omissão [das redes]”.
Os representantes das organizações consultadas pela Folha ainda não sabem se serão convidados a atuar nas eleições neste ano. Até o momento, com exceção da Palver, que envia relatórios semanais ao TSE sobre questionamentos ao sistema eleitoral, as outras entidades disseram não estar em contato com o tribunal.
Durante a eleição, o TSE será presidido pelo ministro Kássio Nunes Marques, que foi indicado por Jair Bolsonaro ao Supremo em 2020. Ele será responsável por definir os focos da Justiça durante o pleito.
No dia 19 de janeiro, o tribunal publicou a primeira versão das resoluções que orientarão as eleições. A minuta atual de publicidade eleitoral define que “deepfakes” e conteúdo “fabricado ou manipulado” para disseminar mentiras são proibidos. As resoluções ainda estão em processo de elaboração e serão depois votadas pelos ministros.
Leia menos

















