Juíza barra tentativa do Departamento da Guerra de tratar Anthropic como risco à segurança
Uma juíza federal dos Estados Unidos impôs um freio temporário à ofensiva do Departamento de Defesa contra a Anthropic. Em decisão preliminar, Rita F. Lin, do Tribunal Distrital do Norte da Califórnia, impediu o governo de seguir tratando a empresa de inteligência artificial como um risco de cadeia de suprimentos, classificação que, na prática, funcionaria como uma espécie de lista negra para contratos públicos. A medida não encerra o caso, mas dá fôlego à companhia enquanto o processo continua.
No texto da decisão, a juíza adotou tom duro ao avaliar a conduta do governo. Segundo Lin, o histórico do caso sustenta a interpretação de que a Anthropic estaria sendo punida por criticar publicamente a posição do Pentágono em negociações contratuais. A magistrada também indicou que a empresa demonstrou alta probabilidade de êxito ao argumentar que o Estado não pode usar seu poder para retaliar discurso de que discorda.
O conflito nasceu de uma disputa sobre um contrato de US$ 200 milhões e, mais amplamente, sobre os limites do uso de IA, inteligência artificial, em contexto militar. A Anthropic queria restrições para aplicações de seus modelos em vigilância e em armas autônomas, enquanto o Pentágono sustentava que um fornecedor privado não poderia impor esse tipo de trava sobre o uso da tecnologia pelo governo. Foi nesse contexto que o secretário de Defesa, Pete Hegseth, enquadrou a empresa no termo, em inglês, "supply chain risk", categoria normalmente associada a ameaças de segurança nacional e que pode inviabilizar negócios com órgãos federais.
A Anthropic reagiu com ações judiciais e alegou que a classificação foi usada de forma imprópria para puni-la por razões ideológicas e por sua posição pública sobre segurança em IA. A empresa também afirmou que vinha sofrendo dano irreparável à operação e à reputação, com risco de perder contratos e clientes. Lin acolheu esse argumento ao dizer que houve base suficiente para considerar a conduta do governo "arbitrária e caprichosa", expressão jurídica usada quando uma decisão pública aparenta carecer de justificativa consistente.
A ordem judicial barra, por ora, a medida editada em 27 de fevereiro por Hegseth e também suspende efeitos de uma orientação separada que havia levado agências federais a interromper o uso da tecnologia da Anthropic. O efeito prático imediato é preservar a capacidade da companhia de seguir atuando com o governo enquanto o litígio avança. O Pentágono ainda pode recorrer, e a própria decisão prevê uma janela de sete dias para apelação antes de entrar plenamente em vigor.
Disputa vai além da Anthropic e testa limites do poder do governo sobre fornecedores de IA
O caso ganhou peso porque não trata apenas de uma briga contratual. Ele abre uma discussão sobre até onde o governo dos Estados Unidos pode ir ao pressionar empresas de tecnologia que discordam do uso de seus produtos em áreas sensíveis, como guerra, vigilância e automação letal.
Esse ponto ajuda a explicar por que o processo atraiu apoio de nomes relevantes do setor, com Microsoft e grupos ligados a funcionários de OpenAI e Google apresentando manifestações favoráveis à Anthropic.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: