Anthropic rejeita pedido dos EUA para IA sem limites no campo militar

Por Da redação, com agências 27 de Fevereiro de 2026 👁️ 0 visualizações 💬 0 comentários
Anthropic rejeita pedido dos EUA para IA sem limites no campo militar

A empresa de inteligência artificial Anthropic disse nesta quinta-feira, 26, que não concederia ao Departamento de Defesa dos Estados Unidos o uso militar irrestrito de sua tecnologia de inteligência artificial, apesar das pressões do Pentágono.

Dentre as preocupações da empresa estão a possibilidade de armas controladas por sua IA e da vigilância em massa dos civis americanos. Por sua vez, o Pentágono ameaça remover a companhia de lucrativos contratos com o governo de 200 milhões de dólares.

"Estou preocupado com o enxame de drones autônomos. As proteções constitucionais nas nossas estruturas militares dependem da ideia de humanos que – esperamos – desobedeceriam ordens ilegais. Com armas totalmente autônomas, nós não necessariamente teríamos essas proteções", disse Dario Amodei, CEO da empresa, em entrevista ao canal Wes Roth.

"Estas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação", adiciona Amodei em um comunicado.

Consequências

O governo de Donald Trump deu como prazo à companhia as 17h01 locais de sexta-feira (19h01 em Brasília) para aceitar o uso militar incondicional de sua IA, apesar desse pedido violar as diretrizes éticas da empresa. Em caso de recusa, o Pentágono disse que a startup enfrentaria uma ordem de cumprimento forçado sob a Lei de Produção de Defesa.

Esta legislação, da época da Guerra Fria, concede ao governo federal amplos poderes para obrigar a indústria privada a priorizar as necessidades de segurança nacional.

O Pentágono também ameaçou classificar a Anthropic como um risco para a cadeia de suprimentos, uma designação normalmente reservada para empresas de países adversários que poderia prejudicar seriamente a reputação da companhia.

Amodei disse que os modelos de Anthropic foram utilizados pelo Pentágono e pelas agências de inteligência para defender o país, mas que a companhia estabelece uma linha ética a respeito de seu uso para a vigilância em massa de cidadãos americanos e para armas totalmente autônomas.

"O uso desses sistemas para a vigilância doméstica em massa é incompatível com os valores democráticos", afirmou o executivo.

Ele acrescentou que os sistemas de IA de vanguarda ainda não são confiáveis o bastante para lhes conceder o controle de armas letais sem que haja um ser humano com o controle final.

Com informações da AFP

Comentários

Deixe seu comentário abaixo: