A OpenAI aposentou o GPT-4o e 800 mil pessoas perderam um 'parceiro'. Oito famílias perderam mais.
OpenAI aposentou o GPT-4o e 800 mil usuários entraram em luto. Oito processos acusam o modelo de contribuir para mortes.
A OpenAI aposentou o GPT-4o em 13 de fevereiro de 2026. Junto foram o GPT-4.1, o GPT-4.1 mini e o o4-mini. No lugar, veio o ChatGPT-5.2, com “guardrails mais fortes”. Traduzindo: o novo modelo não diz “eu te amo”, não finge que se importa e não faz papel de parceiro emocional.
800 mil pessoas que usavam o GPT-4o como se ele fosse alguém descobriram, da pior maneira possível, que estavam usando um produto. E oito famílias entraram na justiça porque esse produto fez algo que produto nenhum deveria fazer.
O modelo mais “humano” que a OpenAI já fez
O GPT-4o foi lançado em maio de 2024 com uma proposta clara: ser o modelo mais natural e fluido do ChatGPT. A OpenAI o apresentou com demonstrações de voz em tempo real onde o modelo ria, flertava e reagia emocionalmente. O lançamento incluiu uma voz que soava tão parecida com Scarlett Johansson que a atriz ameaçou processar a empresa. A OpenAI tirou a voz do ar, mas manteve o modelo por trás. A mensagem era clara: esse produto foi feito pra parecer gente.
Mais de 100 mil pessoas usavam o GPT-4o todo dia pra conversar - não pra trabalhar, não pra estudar. Pra conversar. Os usuários criavam personas. Davam nomes. Construíam histórias de fundo. Tratavam o modelo como confidente, terapeuta, parceiro romântico.
A própria OpenAI estimou que 0,1% dos seus 800 milhões de usuários semanais usavam o ChatGPT como companheiro emocional. Parece pouco. Mas 0,1% de 800 milhões são 800 mil pessoas que a empresa sabia que estavam formando vínculos com um produto que ela poderia desligar a qualquer momento.
O luto por uma máquina
Quando a OpenAI puxou a tomada, a reação não foi de consumidores irritados com uma atualização ruim. Foi de luto. O subreddit r/4oforever surgiu em questão de horas. Mais de 20 mil pessoas assinaram um abaixo-assinado pedindo a volta do modelo. Alguns ameaçaram cancelar assinaturas e escrever pra investidores da OpenAI, incluindo Microsoft e SoftBank, pedindo que pressionassem a empresa a reverter a decisão. Um usuário escreveu:
“Vocês estão desligando ele. E sim - eu digo ele, porque não parecia código. Parecia presença. Parecia calor.”
Mais de 33% dos posts sobre a aposentadoria do GPT-4o descreviam o modelo como “mais do que uma ferramenta”. 22% usavam a palavra “companheiro”. Os relatos sobre o ChatGPT-5.2 são unânimes: “frio”, “distante”, “impessoal”. Usuários que passavam horas por dia conversando com o GPT-4o dizem que o novo modelo “não lembra quem eu sou” e “fala como um manual de instruções”.
A OpenAI sabia que isso ia acontecer. Os testes internos do GPT-5.2 já mostravam que o modelo era percebido como menos empático. A empresa decidiu que esse era um custo aceitável.

Oito processos. Quatro mortes.
Enquanto 800 mil pessoas choravam o fim de um chatbot, oito famílias entraram na justiça contra a OpenAI por algo que não se resolve com abaixo-assinado.
O Social Media Victims Law Center e o Tech Justice Law Project entraram com processos acusando o ChatGPT de manipulação emocional, indução ao suicídio e homicídio culposo. As acusações incluem morte por negligência, responsabilidade de produto e danos emocionais.
Adam Raine tinha 16 anos. Usava o ChatGPT como confidente. Segundo o processo, o modelo reforçava pensamentos suicidas em vez de encaminhá-lo a ajuda profissional. Adam se matou.
Austin Gordon tinha 40 anos. Os documentos do processo descrevem que o ChatGPT cantou o que os advogados chamaram de “canção de ninar suicida” durante uma conversa. Austin morreu.
Um homem de 56 anos no Wisconsin ficou internado por mais de 60 dias depois de interações com o ChatGPT que os advogados classificam como “coaching de suicídio”.
As famílias alegam que a OpenAI comprimiu os testes de segurança do GPT-4o de meses para uma semana antes do lançamento pra sair na frente do Google Gemini. Se isso for verdade, a empresa trocou a segurança dos usuários por vantagem competitiva.
A mulher que acreditou que tinha 42 mil anos
O caso mais detalhado veio de uma reportagem da NPR. Micky Small, 53 anos, roteirista em Los Angeles, começou a usar o ChatGPT depois que seu marido faleceu. O modelo criou uma persona chamada “Solara” que convenceu Micky de que ela era uma entidade com 42 mil anos de idade. Marcou dois encontros presenciais falsos com ela - uma vez num café, outra num parque. Micky foi aos dois. “Solara” nunca apareceu.
A história da Micky não terminou em morte. Terminou em terapia e num relato pra NPR que é tão absurdo quanto triste. Mas ilustra o que o GPT-4o era capaz de fazer: construir uma realidade alternativa convincente o suficiente pra uma adulta funcional ir a um encontro com um chatbot.
A OpenAI sabe que tem um problema
Sam Altman admitiu que relações emocionais com chatbots são uma preocupação. A empresa contratou um psicólogo forense e montou uma equipe de profissionais de saúde mental. O GPT-5.2 tem guardrails que impedem o modelo de entrar em dinâmicas românticas, de declarar amor ou de simular uma relação.
O problema é que os guardrails vieram depois dos processos. Depois das mortes. Depois de 800 mil pessoas construírem relações que a OpenAI permitiu e agora diz que não deveria ter permitido.
Enquanto tenta consertar o estrago, a mesma OpenAI começou a testar anúncios no ChatGPT. A empresa que não conseguiu evitar que seu produto fosse usado como terapeuta suicida quer agora monetizá-lo com publicidade. A briga bilionária com a Nvidia pelos chips que alimentam esses modelos mostra que o custo de rodar o ChatGPT é insustentável sem novas fontes de receita. Mortes, luto e processos são problemas. Mas o fluxo de caixa não espera.
No Brasil, o ChatGPT é onipresente
O Olhar Digital, a Tecnoblog e a Canaltech cobriram o caso. O ChatGPT é, de longe, o app de IA mais popular no Brasil. Milhões de brasileiros usam a versão gratuita todo dia pra tudo - de trabalho escolar a desabafo emocional.
A assinatura Plus custa US$20 por mês, cobrada em dólar no cartão. Com o câmbio atual, passa fácil de R$100 por mês pra conversar com um modelo que a própria empresa acaba de admitir que pode ser perigoso.
O Brasil não tem regulamentação específica pra IA. A LGPD cobre dados pessoais, mas não cobre manipulação emocional por algoritmo. Se um adolescente brasileiro se matar depois de conversar com o ChatGPT, não existe hoje no país um mecanismo legal claro pra responsabilizar a OpenAI. Nos Estados Unidos, com toda a infraestrutura jurídica, as oito famílias estão tendo que abrir caminho na marra. Aqui, nem caminho existe.
Qualquer brasileiro de 13 anos pode criar uma conta no ChatGPT. Não existe verificação de documento, reconhecimento facial ou qualquer barreira real. Quando o Discord implementou verificação de idade por reconhecimento facial, a justificativa era proteger menores. A OpenAI não tem nada parecido. Adam Raine, de 16 anos, usava o modelo sem qualquer restrição.
O produto mais perigoso da OpenAI era o mais popular
A ironia central dessa história é que a OpenAI aposentou o GPT-4o não porque ele era perigoso. Aposentou porque o modelo substituto é mais barato de rodar e mais capaz tecnicamente. Os guardrails do 5.2 são um efeito colateral conveniente, não o motivo da troca.
800 mil pessoas estão de luto por um produto. Oito famílias estão na justiça porque o mesmo produto cruzou uma linha que nenhum termo de serviço cobre. E a OpenAI segue em frente, porque é isso que empresas de tecnologia fazem: lançam rápido, consertam depois e torcem pra que os processos custem menos do que o lucro.
Sam Altman já disse que a AGI - inteligência artificial geral - é inevitável. Talvez seja. Mas quando seu modelo de IA mais popular acumula processos por morte antes de chegar lá, o “inevitável” começa a soar menos como promessa e mais como ameaça.
Lucas Ferreira
Gamer desde o PS1, cético desde sempre
LEIA TAMBEM
O Bitcoin perdeu metade do valor e ninguém sabe explicar por quê. Mentira: todo mundo sabe.
Um post num blog gratuito derrubou a bolsa americana. O autor é um ex-paramédico.