Policial usou fotos de carteira de motorista pra criar 3 mil deepfakes pornograficos com IA. As vitimas eram mulheres que pediram ajuda a ele.

Policial da Pensilvânia criou 3 mil deepfakes pornográficos usando banco de dados oficial. Vítimas incluem mulheres que denunciaram violência doméstica.

Lucas Ferreira
Lucas Ferreira Gamer desde o PS1, cético desde sempre
9 de abril de 2026 5 min
Stephen Kamnik, cabo da Polícia Estadual da Pensilvânia que se declarou culpado de criar deepfakes pornográficos
!!

Stephen Kamnik, 39 anos, cabo da Polícia Estadual da Pensilvânia há 14 anos, se declarou culpado na terça-feira (8) de usar o computador de trabalho pra criar cerca de 3 mil imagens pornográficas com deepfake de IA. A matéria-prima? Fotos de mulheres tiradas do banco de dados de carteiras de motorista do estado e do JNET, a rede de inteligência policial da Pensilvânia.

As vítimas não eram desconhecidas. Eram colegas de trabalho dele no quartel. Mulheres que ele parou em blitzes de trânsito. Vítimas de violência doméstica que foram até a polícia pedir ajuda. Vítimas de agressão que registraram boletim de ocorrência. Familiares de pessoas que ele prendeu. Uma juíza do condado de Montgomery. E parentes dele.

O cara usou o acesso que tinha a bancos de dados oficiais pra buscar fotos de mulheres que cruzaram seu caminho profissionalmente, jogou num software de IA no computador da própria delegacia e gerou deepfakes pornográficos em escala industrial. 3 mil imagens. No computador do trabalho.

Como foi descoberto

Em novembro de 2024, a administração da polícia estadual notou que o computador de Kamnik estava consumindo uma quantidade absurda de banda de internet. A análise forense da máquina e de HDs externos conectados a ela revelou o conteúdo. Uma busca no veículo dele em janeiro de 2025 encontrou uma pistola .22 registrada como roubada desde 2012.

Nos HDs, além das 3 mil deepfakes, os investigadores encontraram duas imagens reais de abuso sexual infantil no celular pessoal dele, de uma criança entre 7 e 9 anos. Algumas deepfakes foram geradas a partir da imagem de uma menina de 12 anos. Ele também tinha gravações secretas de mulheres, incluindo um vídeo dele invadindo o vestiário feminino do quartel pra mexer nas roupas íntimas das colegas.

15 acusações, registro de agressor sexual

Kamnik se declarou culpado de 15 crimes: nove felonias e seis contravenções. A lista inclui abuso sexual de crianças, uso ilegal de computador (quatro vezes), interceptação de comunicações, invasão de propriedade pelo vestiário, posse de arma roubada e opressão oficial. A sentença sai em 8 de julho. Ele terá que se registrar como agressor sexual por 15 anos. Pelo menos uma vítima já entrou com processo civil contra a Polícia Estadual, alegando que o departamento sabia de reclamações anteriores contra Kamnik e não fez nada.

O procurador-geral da Pensilvânia, Dave Sunday, disse que “esses crimes mancham o grande trabalho feito pelas forças de segurança todos os dias”. É o tipo de frase que soa oca quando o criminoso é justamente alguém que tinha acesso privilegiado a dados de milhões de pessoas e usou isso por 14 anos sem que ninguém percebesse.

O problema maior: qualquer foto virou matéria-prima

Esse caso não é isolado. Entre 2013 e 2015, a Associated Press documentou mais de 325 policiais demitidos, suspensos ou que pediram demissão por uso indevido de bancos de dados nos EUA. Num caso em Minnesota, 104 policiais de 18 departamentos diferentes acessaram o registro de UMA mulher quase 500 vezes. Mas esses casos envolviam endereços e telefones. Kamnik transformou fotos oficiais em pornografia. A IA mudou o que é possível fazer com uma foto 3x4.

O Driver’s Privacy Protection Act, lei federal americana de 1994, classifica fotografias como “informação pessoal de alta restrição”. Mas policiais têm acesso amplo pra “cumprir funções oficiais”. Não existe mecanismo eficiente pra detectar quando esse acesso é desviado. O volume de banda anormal foi o que entregou Kamnik. Se ele tivesse usado o próprio notebook, talvez nunca fosse pego.

Globalmente, os números são assustadores. Deepfakes saltaram de 500 mil arquivos em 2023 pra uma projeção de 8 milhões em 2025. Entre 96% e 98% de todo deepfake em vídeo é pornografia não consensual. 95% das vítimas são mulheres.

No Brasil, o problema está nas escolas

Não existe um caso equivalente ao de Kamnik no Brasil, com policial abusando de banco de dados pra deepfakes. Mas o cenário brasileiro tem seu próprio pesadelo. A SaferNet mapeou 173 vítimas de deepfakes sexuais em escolas de 10 estados, todas mulheres, entre alunas e professoras. 60 responsáveis identificados operando via Telegram e dark web. 264 URLs documentadas desde 2023. São Paulo lidera com 51 vítimas, seguido por Mato Grosso e Pernambuco com 30 cada.

Em março de 2026, a Polícia Civil de Rondônia abriu investigação sobre deepfakes de alunas de 15 a 17 anos em duas escolas particulares de Juína (MT). Quatro celulares foram apreendidos.

A Lei 15.123, sancionada por Lula em abril de 2025, agrava a pena quando violência psicológica contra mulher envolve IA ou tecnologia que altere imagem ou som da vítima. A pena base de 6 meses a 2 anos aumenta pela metade. É um avanço, mas a lei fala em “montagens em registros”, o que cria uma brecha pra imagens 100% sintéticas que nunca envolveram uma gravação real. O PL 4273/2025 tenta fechar essa lacuna.

O que fica

O caso Kamnik mostra uma coisa que deveria ser óbvia: qualquer banco de dados com fotos de rosto é, na era da IA generativa, um banco de dados de matéria-prima pra pornografia. Não importa se é carteira de motorista, RG, passaporte ou cadastro escolar. A tecnologia que transforma uma foto 3x4 em deepfake pornográfico custa zero e roda em qualquer computador. A única barreira entre um banco de dados e um crime é a pessoa que tem a senha. E como Kamnik provou durante 14 anos, essa barreira nem sempre funciona.

Lucas Ferreira
AUTOR

Lucas Ferreira

Gamer desde o PS1, cético desde sempre

Jornalista de tecnologia e games. Cobre a indústria tech e gaming há mais de 10 anos.

100% FREE * SEM SPAM

FICA POR
DENTRO

Todo domingo, um drop com o que você precisa saber sobre cultura pop e tech. Rápido, curado, sem spam.