O dilema das redes: promover IA para fotos e vídeos e conter deepfakes nas eleições

Por André Lopes 6 de Maio de 2026 👁️ 0 visualizações 💬 0 comentários
O dilema das redes: promover IA para fotos e vídeos e conter deepfakes nas eleições

O volume de conteúdo falso criado com IA no Brasil triplicou entre 2024 e 2025, com crescimento de 308%, segundo o Observatório Lupa. O dado dimensiona um problema que avança mais rápido do que os mecanismos de controle. Mais de três quartos desse material mapeado no ano passado exploraram a imagem ou a voz de figuras públicas, com destaque para Lula (36 casos), Bolsonaro (33) e Alexandre de Moraes (30).

Para o pleito de 2026, espera-se um cenário ainda mais intenso durante o mês de campanha. O Observatório IA nas Eleições, grupo de observação feito em parceria entre Aláfia Lab, Data Privacy Brasil e o Desinformante, monitora em tempo real violações às regras do TSE, Tribunal Superior Eleitoral. Antes da largada eleitoral, o grupo já aponta que 73% dos conteúdos sintéticos políticos circulam sem qualquer identificação que possa ajudar a entender se a IA está sendo usada como material oficial ou, no caso permitido, como sátira ou conteúdo humorístico, contrariando exigências já em vigor.

O cenário revela uma contradição estrutural do setor. As mesmas empresas que assumem compromissos públicos contra a desinformação durante as eleições são também responsáveis por desenvolver e distribuir as ferramentas que tornam esse conteúdo mais barato, rápido e sofisticado.

No centro dessa equação está a Meta, dona de Facebook, Instagram e WhatsApps, as redes listadas como as mais usadas pelos brasileiros. Ainda em 2024, a empresa anunciou a rotulagem de conteúdos gerados por IA como avanço em transparência. Um ano depois, como mostrado pela EXAME, a empresa Mark Zuckerberg anunciiu um plano de ter 100% da criação de anúncios com IA até o fim deste ano.

Na prática, isso transforma o sistema publicitário em uma máquina integrada com IA, aprendizado de máquina, capaz de gerar textos, vídeos e segmentações de público a partir de poucos dados. O ponto sensível é que conteúdos políticos não estão, necessariamente, fora desse ecossistema.

Enquanto áreas institucionais dialogam com autoridades eleitorais, áreas de produto ampliam o acesso a ferramentas capazes de criar peças hiper-realistas em segundos, muitas vezes sem qualquer mediação especializada.

Outras plataformas seguem caminhos semelhantes, com níveis variados de controle. O TikTok firmou acordo com o TSE para adotar o padrão C2PA, protocolo que autentica a origem de conteúdos digitais, além de exigir identificação de material gerado por IA e proibir anúncios políticos pagos.

Contudo, a empresa está no momento de expansão do seu modelo de vídeos realistas Seedance, hoje considerado um dos melhores do mercado dada a fidelidade nos vídeos que cria sinteticamente.

No Google e no YouTube, que vendem o poderoso modelo gerador de vídeos Veo, há exigência de autodeclaração sobre uso de IA em conteúdos políticos, além de restrições a anúncios. O modelo, porém, depende da honestidade do próprio criador, o que limita sua efetividade.

Já o X, antigo Twitter, combina compromissos formais com uma estrutura de moderação mais enxuta após cortes internos. Em episódios recentes, o chatbot Grok, da xAI, chegou a reproduzir informações eleitorais falsas nos Estados Unidos por dias antes de correção.

A OpenAI, por sua vez, proíbe o uso do ChatGPT para campanhas políticas ou simulação de candidatos, mas a aplicação dessas regras ocorre majoritariamente via termos de uso, sem mecanismos preventivos robustos.

A virada regulatória

Diante desse cenário, o TSE adotou uma abordagem mais dura. A Resolução nº 23.755 estabelece que plataformas devem atuar de forma preventiva, e não apenas reativa.

Entre as exigências estão planos de conformidade com metas objetivas, sistemas de detecção proativa, relatórios periódicos e a inversão do ônus da prova, ou seja, cabe às plataformas demonstrar que um conteúdo não foi manipulado.

Os dados atuais, no entanto, indicam um descompasso entre regra e prática. Mesmo fora do período eleitoral, a maioria dos conteúdos sintéticos segue sem identificação, o que sugere baixa efetividade dos acordos voluntários firmados até aqui.

Chatbots entram no radar eleitoral

Outro ponto de atenção são os próprios sistemas de IA conversacional. O TSE proibiu que ferramentas como ChatGPT, Gemini e Copilot recomendem candidatos ou expressem preferências eleitorais, direta ou indiretamente.

A preocupação é menos com respostas isoladas e mais com o efeito cumulativo. Pequenas distorções, replicadas em milhões de interações, podem influenciar o eleitorado sem transparência ou rastreabilidade.

Especialistas apontam, porém, uma lacuna relevante: ainda não está claro como essas restrições estão sendo implementadas tecnicamente, nem se há mecanismos independentes de auditoria capazes de verificar seu cumprimento.

Comentários

Deixe seu comentário abaixo: