O dilema das redes: promover IA para fotos e vídeos e conter deepfakes nas eleições
O volume de conteúdo falso criado com IA no Brasil triplicou entre 2024 e 2025, com crescimento de 308%, segundo o Observatório Lupa. O dado dimensiona um problema que avança mais rápido do que os mecanismos de controle. Mais de três quartos desse material mapeado no ano passado exploraram a imagem ou a voz de figuras públicas, com destaque para Lula (36 casos), Bolsonaro (33) e Alexandre de Moraes (30).
Para o pleito de 2026, espera-se um cenário ainda mais intenso durante o mês de campanha. O Observatório IA nas Eleições, grupo de observação feito em parceria entre Aláfia Lab, Data Privacy Brasil e o Desinformante, monitora em tempo real violações às regras do TSE, Tribunal Superior Eleitoral. Antes da largada eleitoral, o grupo já aponta que 73% dos conteúdos sintéticos políticos circulam sem qualquer identificação que possa ajudar a entender se a IA está sendo usada como material oficial ou, no caso permitido, como sátira ou conteúdo humorístico, contrariando exigências já em vigor.
O cenário revela uma contradição estrutural do setor. As mesmas empresas que assumem compromissos públicos contra a desinformação durante as eleições são também responsáveis por desenvolver e distribuir as ferramentas que tornam esse conteúdo mais barato, rápido e sofisticado.
No centro dessa equação está a Meta, dona de Facebook, Instagram e WhatsApps, as redes listadas como as mais usadas pelos brasileiros. Ainda em 2024, a empresa anunciou a rotulagem de conteúdos gerados por IA como avanço em transparência. Um ano depois, como mostrado pela EXAME, a empresa Mark Zuckerberg anunciiu um plano de ter 100% da criação de anúncios com IA até o fim deste ano.
Na prática, isso transforma o sistema publicitário em uma máquina integrada com IA, aprendizado de máquina, capaz de gerar textos, vídeos e segmentações de público a partir de poucos dados. O ponto sensível é que conteúdos políticos não estão, necessariamente, fora desse ecossistema.
Enquanto áreas institucionais dialogam com autoridades eleitorais, áreas de produto ampliam o acesso a ferramentas capazes de criar peças hiper-realistas em segundos, muitas vezes sem qualquer mediação especializada.
Outras plataformas seguem caminhos semelhantes, com níveis variados de controle. O TikTok firmou acordo com o TSE para adotar o padrão C2PA, protocolo que autentica a origem de conteúdos digitais, além de exigir identificação de material gerado por IA e proibir anúncios políticos pagos.
Contudo, a empresa está no momento de expansão do seu modelo de vídeos realistas Seedance, hoje considerado um dos melhores do mercado dada a fidelidade nos vídeos que cria sinteticamente.
No Google e no YouTube, que vendem o poderoso modelo gerador de vídeos Veo, há exigência de autodeclaração sobre uso de IA em conteúdos políticos, além de restrições a anúncios. O modelo, porém, depende da honestidade do próprio criador, o que limita sua efetividade.
Já o X, antigo Twitter, combina compromissos formais com uma estrutura de moderação mais enxuta após cortes internos. Em episódios recentes, o chatbot Grok, da xAI, chegou a reproduzir informações eleitorais falsas nos Estados Unidos por dias antes de correção.
A OpenAI, por sua vez, proíbe o uso do ChatGPT para campanhas políticas ou simulação de candidatos, mas a aplicação dessas regras ocorre majoritariamente via termos de uso, sem mecanismos preventivos robustos.
A virada regulatória
Diante desse cenário, o TSE adotou uma abordagem mais dura. A Resolução nº 23.755 estabelece que plataformas devem atuar de forma preventiva, e não apenas reativa.
Entre as exigências estão planos de conformidade com metas objetivas, sistemas de detecção proativa, relatórios periódicos e a inversão do ônus da prova, ou seja, cabe às plataformas demonstrar que um conteúdo não foi manipulado.
Os dados atuais, no entanto, indicam um descompasso entre regra e prática. Mesmo fora do período eleitoral, a maioria dos conteúdos sintéticos segue sem identificação, o que sugere baixa efetividade dos acordos voluntários firmados até aqui.
Chatbots entram no radar eleitoral
Outro ponto de atenção são os próprios sistemas de IA conversacional. O TSE proibiu que ferramentas como ChatGPT, Gemini e Copilot recomendem candidatos ou expressem preferências eleitorais, direta ou indiretamente.
A preocupação é menos com respostas isoladas e mais com o efeito cumulativo. Pequenas distorções, replicadas em milhões de interações, podem influenciar o eleitorado sem transparência ou rastreabilidade.
Especialistas apontam, porém, uma lacuna relevante: ainda não está claro como essas restrições estão sendo implementadas tecnicamente, nem se há mecanismos independentes de auditoria capazes de verificar seu cumprimento.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: