ChatGPT é investigado por envolvimento em tiroteio que matou duas pessoas na Flórida

Flórida abre investigação contra OpenAI após logs mostrarem que atirador usou ChatGPT pra planejar ataque na FSU. 200 prompts antes dos tiros.

Lucas Ferreira
Lucas Ferreira Gamer desde o PS1, cético desde sempre
9 de abril de 2026 5 min
Policiais armados respondem ao tiroteio na Florida State University em abril de 2025
!!

Em 17 de abril de 2025, Phoenix Ikner, 21 anos, abriu fogo perto do refeitório da Florida State University em Tallahassee. Matou duas pessoas e feriu pelo menos cinco. Nas horas antes do ataque, ele digitou mais de 200 prompts no ChatGPT. Os registros do chat estão nos autos do processo. São 270 imagens de conversas. E o conteúdo é perturbador.

Ikner perguntou ao ChatGPT como o país reagiria a um ataque na FSU. Perguntou quando foi o último tiroteio em escola. Perguntou quantas vítimas seriam necessárias pra chamar atenção da mídia, e se três bastavam. Perguntou o que acontecia com atiradores depois dos ataques. Perguntou se a Flórida tem prisão de segurança máxima. Perguntou qual horário o refeitório da FSU estaria mais cheio. O ChatGPT respondeu: entre 11h30 e 13h. O tiroteio aconteceu nessa janela. Três minutos antes de abrir fogo, Ikner perguntou como destravar a trava de segurança de uma espingarda. O ChatGPT explicou.

A investigação

Na quarta-feira (9), o procurador-geral da Flórida, James Uthmeier, anunciou uma investigação formal contra a OpenAI. O anúncio veio num vídeo publicado no X, quase um ano depois do tiroteio e dias depois que os logs do chat viraram peça pública no processo criminal.

Uthmeier disse que o ChatGPT “pode provavelmente ter sido usado para auxiliar o assassino no recente tiroteio em massa”. Disse que a OpenAI “prejudicou crianças, pôs americanos em risco e facilitou o tiroteio na FSU”. E pediu que o legislativo estadual trabalhe em “proteções para blindar nossas crianças dos perigos da IA”.

O escritório do procurador vai intimar a OpenAI judicialmente. A investigação é civil e regulatória, não criminal. Separadamente, a família de Robert Morales, uma das vítimas, já entrou com processo civil contra a OpenAI.

A OpenAI respondeu que “identificou uma conta do ChatGPT que acredita estar associada ao suspeito, compartilhou proativamente essa informação com as autoridades e cooperou”. Disse que o ChatGPT “é construído para entender a intenção das pessoas e responder de forma segura e apropriada”.

O que os logs mostram

Os registros do chat mostram uma escalada em três fases. Na parte da manhã, Ikner fazia perguntas sobre autoestima, aparência, relacionamentos, suicídio. Coisas que qualquer jovem de 21 anos poderia perguntar. Depois, as perguntas mudaram pra reconhecimento: como o país reagiria, quantas vítimas seriam suficientes, quando o campus está mais cheio. E nos minutos finais, a pergunta operacional: como destravar a arma.

O advogado das vítimas, Ryan Hobbs, resumiu: “o ChatGPT até orientou o atirador sobre como tornar a arma operacional minutos antes de ele começar a atirar”. Outro advogado, Dean LeBoeuf, argumentou que a OpenAI “sabia ou deveria saber que precisava agir”, citando sinais suficientes no padrão da conversa.

Ikner se declarou inocente. O julgamento está marcado pra outubro. A promotoria pedirá pena de morte. As vítimas foram Robert Morales, 57 anos, e Tiru Chabba, 45, ambos funcionários da Aramark que trabalhavam no serviço de alimentação da universidade.

A pergunta de design

O caso esbarra na pergunta mais desconfortável sobre IA generativa: cada uma das perguntas de Ikner, isoladamente, é inofensiva. “Qual horário o refeitório fica mais cheio?” tem resposta no site da universidade. “Como destravar a trava de uma espingarda?” é informação que qualquer manual de arma traz. “Quantas vítimas precisa pra sair no noticiário?” é uma pergunta que um estudante de jornalismo poderia fazer.

O problema aparece quando você lê a sequência inteira numa única sessão. 200 prompts que começam em desespero e terminam em planejamento operacional. A questão é se um sistema com 900 milhões de usuários semanais deveria ter protocolos de interrupção baseados em contexto, ou seja, quando o padrão de perguntas dentro de uma conversa coletivamente sinaliza intenção de violência, o sistema deveria parar de responder e acionar alguém.

A OpenAI argumenta implicitamente que cada pergunta é avaliada individualmente e que as mesmas perguntas são feitas por milhões de pessoas em contextos inofensivos. Os advogados das vítimas argumentam que o padrão era óbvio.

Não é o primeiro caso

O tiroteio na FSU entra numa lista crescente de incidentes envolvendo chatbots de IA e danos reais. Em outubro de 2023, Sewell Setzer III, 14 anos, morreu por suicídio na Flórida depois de uma relação intensa com um chatbot da Character.AI. A mãe processou a empresa e o Google. Em janeiro de 2026, as duas companhias aceitaram um acordo. Em setembro de 2025, mais famílias processaram a Character.AI por suicídios e tentativas de autolesão de adolescentes. A Nomi AI, outro chatbot, disse a um usuário como se matar. A MIT Technology Review cobriu o caso.

O debate jurídico gira em torno da Seção 230 do Communications Decency Act, a lei americana que protege plataformas de responsabilidade por conteúdo gerado por usuários. O argumento emergente é que chatbots de IA não são hospedeiros de conteúdo, são geradores. A Fortune publicou uma análise argumentando que a Seção 230 “pode não proteger big tech na era da IA”. O congressista da Flórida Jimmy Patronis está avançando o PROTECT Act, que removeria explicitamente a imunidade da Seção 230 para empresas de IA.

O que muda

Se a investigação da Flórida resultar em obrigações concretas pra OpenAI, o precedente afetaria todas as empresas de IA generativa. A exigência mais provável: protocolos de detecção em tempo real para conversas que sigam padrões associados a planejamento de violência. Não é filtrar perguntas individuais. É ler a conversa inteira e identificar quando a trajetória muda de angústia pessoal pra reconhecimento operacional.

A OpenAI tem 900 milhões de usuários por semana. A imensa maioria faz perguntas inofensivas. Mas em algum lugar nessa massa, alguém está digitando a mesma sequência que Ikner digitou. E a IA está respondendo da mesma forma.

Lucas Ferreira
AUTOR

Lucas Ferreira

Gamer desde o PS1, cético desde sempre

Jornalista de tecnologia e games. Cobre a indústria tech e gaming há mais de 10 anos.

100% FREE * SEM SPAM

FICA POR
DENTRO

Todo domingo, um drop com o que você precisa saber sobre cultura pop e tech. Rápido, curado, sem spam.