IA turbina deepfakes e preocupa em ano eleitoral

Por Luiz Anversa 7 de Março de 2026 👁️ 0 visualizações 💬 0 comentários
IA turbina deepfakes e preocupa em ano eleitoral

O Tribunal Superior Eleitoral (TSE) anunciou novas regras para o uso de inteligência artificial nas eleições deste ano.

O texto, sob relatoria do ministro Nunes Marques, estabelece que, nas 72 horas anteriores ao pleito e nas 24 horas posteriores ao encerramento da votação, fica proibida a publicação, republicação ou impulsionamento de novos conteúdos gerados ou modificados por inteligência artificial. A vedação atinge materiais que utilizem imagem, voz ou qualquer manifestação de candidatas, candidatos ou pessoas públicas.

A medida responde ao avanço dessa tecnologia, que permite a criação de imagens, áudios e vídeos falsos praticamente indistinguíveis da realidade, as chamadas deepfakes.

O debate ganhou urgência diante do potencial dessas ferramentas de influenciar a opinião pública, manipular informações e comprometer a integridade do processo eleitoral.

“Se, na eleição presidencial anterior, a de 2022, a preocupação era com as fake news, o alerta se volta agora, em 2026, para as deepfakes”, diz Carlos Lopes, sóocio da Codeminer42, empresa de desenvolvimento de softwares com atuação no Brasil e no exterior.

"A utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de inteligência artificial ou tecnologia equivalente para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons, impõe ao responsável pela propaganda o dever de informar, de modo explícito, destacado e acessível, que o conteúdo foi fabricado ou manipulado e qual tecnologia foi utilizada", diz a resolução do TSE.

O especialista cita, como termômetro da gravidade da situação, declaração recente à imprensa do diretor do Instagram, Adam Mosseri. “‘Você não pode mais confiar nos seus olhos para dizer o que é real’, ele disse. Porque é exatamente isso: não basta mais ‘ver para crer’; é preciso ter outros meios para separar o joio do trigo, identificar o que é ou não real".

Em caso de descumprimento, a norma do TSE prevê a retirada imediata do conteúdo ou a indisponibilidade do serviço, por iniciativa do provedor ou mediante decisão judicial. O texto ainda autoriza a inversão do ônus da prova em processos que discutam manipulação digital, quando a comprovação da irregularidade se mostrar excessivamente onerosa para o autor da ação. Nesses casos, caberá ao responsável demonstrar como a tecnologia foi aplicada e comprovar a veracidade da informação divulgada.

Ferramentas

Até existem softwares e plataformas para detectar se um conteúdo é fruto de inteligência artificial ou não. Entretanto, na prática, essa verificação não é simples nem acessível à maioria das pessoas. Em um cenário eleitoral marcado por uma avalanche de vídeos, áudios, imagens e textos, torna-se quase inviável para o eleitor comum fazer esse trabalho de checar o conteúdo que recebe.

“Além disso, uma parcela significativa da população, possivelmente a maioria, não possui conhecimento técnico, familiaridade com essas ferramentas ou tempo disponível para utilizá-las de forma adequada”, afirma Lopes.

O especialista também chama atenção para outro ponto crítico: a limitação das próprias tecnologias de detecção. “As ferramentas que tentam identificar conteúdo gerado por IA ainda apresentam falhas relevantes. Em muitos casos, classificam conteúdos legítimos como artificiais e, em outros, deixam passar materiais produzidos por inteligência artificial sem qualquer alerta. Isso cria um ambiente de incerteza, no qual nem sempre é possível confiar plenamente na análise automática”, explica.

Para Lopes, a atuação da Justiça Eleitoral, estabelecendo regras, monitoramento e estimulando o eleitor a participar, comunicando e denunciando conteúdos falsos, é um esforço importante e válido. “Porque, além dos materiais de campanha oficiais, mais fáceis de fiscalizar, haverá a circulação das deepfakes, como vídeos, áudios e imagens adulterados com uso de IA, capazes de simular falas e situações que nunca aconteceram".

O especialista diz que, uma alternativa seria a possibilidade de equipamentos como câmeras ou até mesmo smartphones contare com uma espécie de "assinatura digital". Ela criaria um identificador para cada imagem produzida. “Essa assinatura ou ID seria um meio de confirmar que o conteúdo é legítimo e não feito por IA", diz.

Comentários

Deixe seu comentário abaixo: