IA da Anthropic ajudou a furar segurança do MacOS; Apple analisa caso
Pesquisadores da Calif, empresa de segurança sediada em Palo Alto, conseguiram contornar uma das proteções mais robustas do MacOS usando uma versão inicial do Claude Mythos, modelo de IA da Anthropic voltado para cibersegurança.
A façanha levou cinco dias e combinou duas falhas do sistema com técnicas de corrupção de memória para acessar áreas restritas do dispositivo. O tipo de ataque é conhecido como escalada de privilégios, que, encadeado com outras brechas, poderia dar a um invasor controle total da máquina.
O alvo era o Memory Integrity Enforcement (MIE), tecnologia anunciada pela Apple em setembro do ano passado como resultado de cinco anos de desenvolvimento em hardware e software. A Big Tech confirmou que está avaliando o relatório de 55 páginas entregue pessoalmente pelos pesquisadores em sua sede em Cupertino. "Segurança é nossa prioridade máxima", disse uma porta-voz da empresa ao The Wall Street Journal.
IA acelerou o ataque, mas não o inventou
Thai Duong, CEO da Calif, disse ao WSJ o Mythos foi eficiente em reproduzir padrões de ataques já documentados, mas a novidade da técnica exigiu a experiência humana dos próprios pesquisadores. A IA não criou o caminho, apenas acelerou a execução.
O pesquisador independente Michał Zalewski, ex-funcionário do Google, validou a pesquisa e reconheceu que as ferramentas atuais já permitem "pesquisas de vulnerabilidade e auditoria de código significativas".
O caso reforça um padrão que a Anthropic vem construindo desde o lançamento do Mythos. Em abril deste ano, a empresa revelou o Project Glasswing, iniciativa que reúne 40 companhias — entre elas Google, Amazon e Apple — para uso controlado do modelo na identificação de falhas críticas. Segundo a Anthropic, o Mythos já mapeou milhares de vulnerabilidades de alta gravidade em sistemas amplamente utilizados.
O poder da ferramenta também gerou tensão política. A Casa Branca inicialmente resistiu à liberação gradual do Mythos e o governo Trump chegou a proibir agências federais de usar produtos da Anthropic pela recusa da empresa em permitir o uso da tecnologia para o Departamento de Defesa, classificando-a como um "risco à segurança nacional".
O episódio levou o governo a reconsiderar sua postura em relação à IA de fronteira e discutir um decreto que prevê supervisão federal sobre modelos mais avançados.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: