Trump classificou a criadora do Claude como ameaça à segurança nacional. O crime dela foi dizer não.
O Pentágono baniu a Anthropic como ameaça nacional por ela recusar IA sem limites. Horas depois, a OpenAI assinou contrato com as mesmas condições.
A Anthropic tinha um contrato de US$200 milhões com o Pentágono. O Claude era o único modelo de IA rodando nos sistemas classificados das forças armadas americanas. Tudo ia bem até o Departamento de Defesa exigir uma coisa: acesso irrestrito. Sem limites. Pra “qualquer uso legal.”
A Anthropic disse não. Tinha duas condições inegociáveis: o Claude não seria usado em armas autônomas e não seria usado pra vigilância em massa de cidadãos americanos. O CEO Dario Amodei foi direto: “Não podemos, em boa consciência, aceitar essa exigência.”
O que aconteceu nos dois dias seguintes foi o tipo de coisa que parece roteiro de série, mas aconteceu na vida real.
A retaliação
Na quinta-feira, 26 de fevereiro, o Pentágono deu um prazo final pra Anthropic ceder. Às 17h01, horário de Washington. A empresa não cedeu.
Na sexta-feira de manhã, Trump publicou no Truth Social: “Os esquerdistas malucos da Anthropic cometeram um ERRO DESASTROSO tentando PRESSIONAR o Departamento de Guerra.” O secretário de Defesa Pete Hegseth classificou a Anthropic como “risco à cadeia de suprimentos para a segurança nacional” - uma designação que normalmente é reservada pra empresas de países adversários. Tipo a Huawei. Tipo empresas chinesas.
Uma empresa americana de IA, fundada por ex-funcionários da OpenAI, com sede em San Francisco, recebeu o mesmo tratamento que o governo dá pra empresas ligadas ao Partido Comunista Chinês. Porque se recusou a deixar o Pentágono usar IA sem supervisão humana.
O contrato de US$200 milhões foi cortado. A Anthropic tem seis meses pra ser eliminada de todos os sistemas do governo. E toda empresa que trabalha com o Pentágono agora precisa certificar que não usa o Claude em seus fluxos de trabalho.

Horas depois, a OpenAI apareceu
Na mesma sexta-feira à noite, Sam Altman postou que a OpenAI tinha fechado um acordo com o “Departamento de Guerra” pra implantar seus modelos na rede classificada do Pentágono. Horas. Não dias, não semanas. Horas.
E aqui vem a parte que faz você coçar a cabeça: o acordo da OpenAI inclui proibições contra vigilância doméstica em massa e exige responsabilidade humana no uso de força, incluindo armas autônomas. Altman disse que o Pentágono concordou com esses princípios, “refletindo-os em lei e política.”
São exatamente as mesmas condições que a Anthropic pediu e foi punida por pedir.

A diferença? Altman jogou o jogo político. Em memo interno reportado pela Axios, disse aos funcionários que a OpenAI manteria as mesmas linhas éticas da Anthropic. E pra CNBC declarou: “Eu pessoalmente não acho que o Pentágono deveria estar ameaçando empresas com a Lei de Produção de Defesa.” Traduzindo: concordou com a Anthropic em tudo, criticou o Pentágono em público, e assinou o contrato antes que a tinta do banimento secasse.
Os funcionários se revoltaram
Aqui a história vira algo que ninguém do Pentágono esperava.
Mais de 570 funcionários do Google e 93 da OpenAI assinaram uma carta aberta chamada “Não Seremos Divididos.” O texto acusa o Pentágono de tentar jogar as empresas umas contra as outras: “Eles estão tentando dividir cada empresa com o medo de que a outra vai ceder. Essa estratégia só funciona se nenhum de nós souber onde os outros estão.”
A carta pede que Google e OpenAI “deixem as diferenças de lado e se posicionem juntas” pra recusar o que o Pentágono está exigindo: permissão pra usar IA em vigilância doméstica em massa e pra matar pessoas de forma autônoma sem supervisão humana.
Cerca de metade dos signatários colocaram o nome. A outra metade assinou anonimamente. Todos foram verificados como funcionários atuais das respectivas empresas.
O contexto que ninguém quer falar
Quando o DHS e o ICE começaram a usar dados de redes sociais pra monitorar pessoas, já era claro que a linha entre segurança nacional e vigilância de cidadãos tava ficando borrada. O pedido do Pentágono pra Anthropic não surgiu do nada - é a extensão lógica de um governo que cada vez mais trata ferramentas de tecnologia como extensões do aparato de segurança.
E tem um detalhe que soa quase como piada. Enquanto tudo isso acontecia, Elon Musk estava num depoimento do processo contra a OpenAI e soltou: “Ninguém cometeu suicídio por causa do Grok, mas aparentemente cometeram por causa do ChatGPT.” Uma declaração pesada - exceto que semanas antes, o Grok inundou o X com imagens pornográficas não consensuais geradas por IA, incluindo supostamente de menores, o que levou o procurador-geral da Califórnia a abrir investigação. E a xAI de Musk? Foi aprovada pra operar nos sistemas classificados do Pentágono. Sem alarde.
O que isso significa
A Anthropic já anunciou que vai contestar a designação de “risco à cadeia de suprimentos” na justiça. A empresa tem receita anual de US$14 bilhões e avaliação de US$380 bilhões - não vai sumir por causa de um contrato militar. O dano real é outro: o precedente. Se o governo americano pode classificar uma empresa doméstica como ameaça à segurança nacional por ter limites éticos, toda empresa de IA acaba de receber o recado.
A corrida por chips de IA entre OpenAI e Nvidia que a gente cobriu no começo do mês parece quase ingênua agora. Naquele caso, a briga era por hardware. Agora a briga é por quem controla o que a IA pode fazer quando o cliente é o maior exército do mundo.
O mais irônico de tudo? A OpenAI conseguiu exatamente o que a Anthropic pediu. As mesmas restrições. As mesmas linhas vermelhas. A única diferença é que uma foi punida por pedir e a outra foi recompensada por esperar a punição acontecer.
Se você usa o Claude - e se você está lendo o Ovelha Eletrica, a chance é grande - nada muda pra você. A Anthropic continua operando normalmente fora do governo americano. Mas se você trabalha com tecnologia e acha que essa briga é só sobre geopolítica distante, pense de novo. O precedente de tratar limites éticos como ameaça à segurança nacional não fica contido numa fronteira.
Lucas Ferreira
Gamer desde o PS1, cético desde sempre
LEIA TAMBEM
O que acontece quando você fala "Hey Meta" e um estranho no Quênia assiste
A chefe de robótica da OpenAI pediu demissão por causa do Pentágono. E o "modo adulto" do ChatGPT foi adiado. De novo.