A Anthropic criou uma IA que hackeou todos os sistemas operacionais do mundo. E decidiu não lançar ela
Claude Mythos Preview achou milhares de vulnerabilidades em todos os grandes sistemas operacionais e navegadores. A Anthropic não vai liberar o modelo.
A Anthropic anunciou na terça-feira que construiu um novo modelo de inteligência artificial chamado Claude Mythos Preview. A empresa diz que ele é capaz demais pra ser liberado ao público. Antes de revirar os olhos, vale ouvir os números.
O Mythos Preview encontrou e explorou vulnerabilidades zero-day - falhas desconhecidas até pelos próprios desenvolvedores do software - em todos os principais sistemas operacionais e em todos os principais navegadores do mercado. Milhares de falhas. Algumas existiam há décadas sem que ninguém percebesse.
O que o Mythos faz, exatamente
O modelo anterior da Anthropic, o Claude Opus 4.6, tinha uma taxa de sucesso em desenvolvimento de exploits de praticamente zero. O Mythos Preview? 72,4%. Em termos práticos: de cada dez vulnerabilidades que o modelo tenta explorar, ele consegue em mais de sete.
Uns exemplos concretos. O Mythos criou sozinho um exploit remoto para o servidor NFS do FreeBSD que dava acesso root (controle total da máquina) a qualquer pessoa sem autenticação, encadeando 20 gadgets de código em múltiplos pacotes de rede. Encontrou um bug de 27 anos no OpenBSD, um sistema operacional famoso por ser difícil de hackear e usado em roteadores e firewalls mundo afora. E montou uma cadeia de ataque para navegadores que combinava quatro vulnerabilidades diferentes, escapando das proteções de sandbox do renderizador e do sistema operacional.
Engenheiros da Anthropic sem treinamento em segurança pediram ao Mythos pra procurar vulnerabilidades de execução remota de código durante a noite. De manhã, encontraram um exploit funcional pronto.
Por que não liberar
Segundo o New York Times, a Anthropic não tem planos de liberar o Mythos ao público. Em vez disso, criou o Project Glasswing, uma coalizão com mais de 40 empresas que terão acesso ao modelo pra encontrar e corrigir falhas nos seus próprios sistemas antes que modelos com capacidades similares cheguem ao mercado aberto.
A lista de parceiros é pesada: Apple, Amazon, Microsoft, Google, Nvidia, Broadcom, Cisco, CrowdStrike, JPMorgan Chase, Palo Alto Networks e a Linux Foundation. A Anthropic está oferecendo até US$ 100 milhões em créditos de uso e US$ 4 milhões em doações diretas.
Logan Graham, líder da equipe de testes de segurança da Anthropic, foi direto: “este é o ponto de partida pro que acreditamos ser uma mudança na indústria, um acerto de contas com o que precisa acontecer agora.” Jared Kaplan, cientista-chefe da empresa, completou: “o objetivo é dar aos atores bem-intencionados uma vantagem no processo de proteger infraestrutura crítica e código.”
O contexto que importa
Não é a primeira vez que uma empresa de IA segura um modelo. Em 2019, a OpenAI fez a mesma coisa com o GPT-2, alegando que ele poderia ser usado pra gerar propaganda em massa. Depois liberou o modelo. Muitos dos líderes daquele projeto saíram da OpenAI e fundaram a Anthropic.
A diferença é que o GPT-2 gerava texto convincente. O Mythos hackeia sistemas reais. A escala de risco é outra.
Como Simon Willison observou: “dizer que ‘nosso modelo é perigoso demais pra lançar’ é uma ótima forma de criar hype em torno de um modelo novo, mas nesse caso eu acho que a cautela é justificada.” Nicholas Carlini, pesquisador de segurança que testou o Mythos, resumiu: “encontrei mais bugs nas últimas duas semanas do que encontrei no resto da minha vida inteira.”
Nikesh Arora, CEO da Palo Alto Networks, colocou o cenário de forma mais assustadora: “imagine uma horda de agentes catalogando metodicamente cada fraqueza na sua infraestrutura tecnológica, constantemente.”
O que isso significa
A Anthropic anunciou também que sua receita anual projetada mais que triplicou em 2026, passando de US$ 9 bilhões pra mais de US$ 30 bilhões. O crescimento veio em boa parte do uso do Claude como ferramenta de programação. E um modelo bom em escrever código é, inevitavelmente, bom em encontrar falhas nele.
A pergunta que Logan Graham faz é incômoda: “existem muitos sistemas críticos no mundo, seja infraestrutura física ou coisas que protegem seus dados pessoais, que rodam versões antigas de código. Se antes eles eram seguros porque atacá-los exigia muito esforço humano, esse paradigma de segurança ainda funciona?”
Se o Mythos é o modelo mais fraco que a indústria vai ter daqui pra frente, como Kaplan sugeriu, o recado é claro. Não é se os sistemas vão ser hackeados por IA. É quando, e se os defensores vão estar prontos.
A Anthropic apostou que a resposta é dar as ferramentas pros defensores primeiro. Se a aposta está certa, o Project Glasswing vai ser lembrado como um dos movimentos mais inteligentes da história da tecnologia. Se está errada, vai ser lembrado como marketing de medo de uma empresa que fatura US$ 30 bilhões vendendo a mesma tecnologia que diz ser perigosa demais pra soltar.
Lucas Ferreira
Gamer desde o PS1, cético desde sempre
Jornalista de tecnologia e games. Cobre a indústria tech e gaming há mais de 10 anos.
LEIA TAMBEM
Sam Altman teve a casa atacada com coquetel molotov, respondeu a uma investigação que o chama de "sociopata" e publicou foto da família no mesmo post
A internet destruiu a capacidade humana de detectar mentira e o Brasil é o pior país do mundo nisso