a IA por trás da captura de Maduro disse 'não' ao Pentágono e recebeu um ultimato
Anthropic ajudou a capturar Maduro com o Claude, mas se recusa a liberar vigilância em massa e armas autônomas. O Pentágono ameaça cancelar US$200 milhões.
A Anthropic e o Pentágono estão em rota de colisão. Em 3 de janeiro, forças especiais americanas usaram o Claude - o modelo de inteligência artificial da Anthropic - no planejamento da operação que resultou na captura do presidente venezuelano Nicolás Maduro. A missão funcionou. Ninguém reclamou.
Menos de dois meses depois, o secretário de Defesa Pete Hegseth convocou Dario Amodei, CEO da Anthropic, para uma reunião marcada para terça-feira (25) no Pentágono. O assunto: a empresa se recusa a liberar o uso irrestrito do Claude para fins militares. Especificamente, duas coisas - vigilância em massa de cidadãos americanos e armas totalmente autônomas, aquelas que decidem sozinhas quando atirar.
A resposta do Pentágono foi ameaçar classificar a Anthropic como “risco na cadeia de suprimentos”, uma designação normalmente reservada para adversários estrangeiros. Se isso acontecer, o contrato de US$200 milhões que a empresa tem com o Departamento de Defesa via Palantir vai pelo ralo, e todos os parceiros e contratados militares seriam obrigados a certificar que não usam modelos da Anthropic.
O detalhe que torna tudo mais absurdo: o Claude é o único modelo de IA disponível nos sistemas classificados do exército americano. Cancelar a Anthropic significa, na prática, ficar sem IA no setor mais sensível da defesa nacional.
Todo mundo disse sim
OpenAI, Google e xAI já aceitaram os termos do Pentágono - uso irrestrito para “todos os fins lícitos”, incluindo desenvolvimento de armas, coleta de inteligência e operações em campo de batalha. O Pentágono já está até integrando o ChatGPT à sua plataforma GenAI.mil, usada por mais de um milhão de funcionários.
A Anthropic é a única que insiste nas duas linhas vermelhas.
Dario Amodei publicou um ensaio no final de janeiro argumentando que “democracias têm interesse legítimo em algumas ferramentas militares e geopolíticas com IA”, mas que existem limites. A empresa já provou na prática que aceita trabalho militar - o Claude foi usado na operação contra Maduro, segundo o Wall Street Journal. O problema é que o Pentágono quer carta branca, e a Anthropic quer manter dois “nãos” específicos.
As aspas dizem tudo
Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia, foi direto: “Se restrições nos impedem, isso é problemático. Podemos nos tornar dependentes desses sistemas e depois enfrentar limitações em situações urgentes.”
Sean Parnell, porta-voz do Pentágono, completou: “Nossa nação exige que nossos parceiros estejam dispostos a ajudar nossos combatentes a vencer qualquer batalha.”
A porta-voz da Anthropic respondeu com o comunicado mais genérico do mundo: “Estamos tendo conversas produtivas e de boa-fé com o Departamento de Defesa para resolver essas questões complexas de maneira adequada.”
Tradução livre: nenhum dos lados vai ceder fácil.
O contexto que ninguém quer falar
David Sacks, o czar de IA e cripto da administração Trump, já criticou publicamente a Anthropic por praticar “IA woke” - basicamente porque a empresa defende regulação do setor. A 1789 Capital, firma de investimento parcialmente financiada por Donald Trump Jr., recusou investir na empresa pelo mesmo motivo.
E a Anthropic não é uma startup qualquer tentando sobreviver. A empresa vale US$380 bilhões após levantar US$30 bilhões em rodada liderada pelo fundo soberano de Singapura GIC e pela Coatue Management. O IPO na bolsa americana está previsto para 2026.
Resumindo: estamos falando de uma empresa que entregou IA funcional para uma operação militar real, vale centenas de bilhões de dólares, e está sendo tratada como ameaça por se recusar a construir armas que disparam sozinhas e sistemas de vigilância em massa.
O que fica
Se a Anthropic ceder, toda IA de ponta vai estar disponível para vigilância sem restrição. Se não ceder e for de fato expulsa, o Pentágono fica dependente de empresas que já disseram sim para tudo - incluindo a xAI de um CEO que nem consegue manter metade dos próprios fundadores.
E vigilância doméstica com IA não é paranoia de Reddit. A gente já mostrou como o DHS e o ICE obrigaram Google, Meta e Reddit a entregar dados de cidadãos que criticaram políticas de imigração. Agora imagine isso com um modelo de última geração capaz de processar milhões de mensagens em segundos.
A reunião de terça vai definir se a Anthropic dobra a aposta ou cede. O que não vai definir é a direção que essa corrida está tomando. Quando o cliente é um governo com o maior orçamento militar do planeta, “não” é uma palavra com prazo de validade.
Lucas Ferreira
Gamer desde o PS1, cético desde sempre
LEIA TAMBEM
O Bitcoin perdeu metade do valor e ninguém sabe explicar por quê. Mentira: todo mundo sabe.
Um post num blog gratuito derrubou a bolsa americana. O autor é um ex-paramédico.