Reino Unido se posiciona contra Grok: nova lei de deepfakes entra em vigor

A farra acabou? Governo britânico ativa lei criminalizando a criação de deepfakes e Ofcom abre investigação urgente contra a IA de Elon Musk.

Lucas Ferreira
Lucas Ferreira Gamer desde o PS1, cético desde sempre
12 de janeiro de 2026 9 min
Big Ben e o Parlamento do Reino Unido em Westminster, Londres
!!

Esqueça as especificações de placa de vídeo por um minuto. O assunto hoje é jurídico, é pesado e envolve diretamente a lei contra deepfakes no Reino Unido que entra em vigor esta semana. Se você achava que a ‘liberdade irrestrita’ prometida por algumas IAs ia durar para sempre sem consequências no mundo real, o governo britânico acabou de puxar o freio de mão com força total. E o alvo tem nome: Grok.

Vamos ser diretos: a situação estava insustentável. Relatos de que a ferramenta da xAI estava sendo usada para gerar imagens sexualizadas de mulheres e, pior, de crianças, inundaram a internet no início de 2025. A resposta oficial chegou rápido e atropelando. O Ofcom (o regulador de mídia deles, tipo a nossa Anatel mas com superpoderes de conteúdo) abriu uma investigação formal. A mensagem é clara: a tecnologia é incrível, mas não dá para usar a desculpa de ‘é só um robô’ para justificar crimes digitais.

O Contexto da Treta: Por que agora?

Para entender o tamanho do problema, precisamos olhar para o que aconteceu nas últimas semanas. 2025 terminou com uma enxurrada de vídeos e imagens gerados por IA nas redes sociais. Até aí, ‘normal’ para os padrões atuais da internet. O problema é que o Grok, integrado ao X (antigo Twitter), removeu filtros que outras ferramentas como ChatGPT e Gemini mantêm rigidamente.

O resultado? Uma terra de ninguém. Segundo dados levantados por empresas de monitoramento no final de 2025, estimava-se que havia um pedido de imagem de ‘nudez forçada’ (o tal do nudify) por minuto no Grok. É um volume absurdo. Estamos falando de pessoas reais tendo seus rostos colocados em situações pornográficas sem consentimento, em escala industrial.

Estátua da Justiça segurando balança, símbolo da lei e regulação

A indignação foi generalizada. Não é apenas uma questão de puritanismo; é uma questão de segurança e consentimento. O governo britânico, que já vinha sendo criticado por ser lento na regulação, decidiu agir. Liz Kendall, Secretária de Tecnologia, não mediu palavras e deixou claro que o objetivo é tornar ilegal não apenas o compartilhamento, mas a própria criação desse material.

Historicamente, a legislação sempre corre atrás da tecnologia. O Reino Unido já tinha tornado ilegal o compartilhamento dessas imagens (a distribuição), mas existia um vácuo jurídico bizarro: pedir para a IA fazer a imagem não era, explicitamente, crime. Era como se a arma do crime fosse legal, mas o tiro não. Essa brecha técnica permitiu que usuários do Grok criassem bibliotecas inteiras de material abusivo sem medo imediato da polícia batendo na porta. Isso muda esta semana.

A Letra da Lei: O que muda na prática?

Aqui é onde o meu lado cético e analítico precisa entrar nos detalhes técnicos da legislação. Não adianta só ler a manchete. O buraco é mais embaixo. A nova lei contra deepfakes no Reino Unido não é parte do famoso Online Safety Act (Lei de Segurança Online), que todo mundo discute. Ela vem de uma legislação separada, chamada Data (Use and Access) Act.

Essa distinção é importante. O Online Safety Act tem sido criticado desde o rascunho por ameaçar a liberdade de expressão e a criptografia. Ao usar uma nova via legislativa focada em dados, o governo britânico tenta ser cirúrgico:

  • Antes: Compartilhar era crime.
  • Agora: A simples criação (o ato de dar o prompt) de imagens íntimas não consensuais se torna ofensa criminal.
  • O Alvo: Empresas que fornecem as ferramentas. O governo quer alterar a lei para punir as companhias que ‘suprimem as ferramentas projetadas para criar tais imagens’.

Ou seja, a responsabilidade deixa de ser apenas do ‘troll’ de internet que digita o comando e passa a ser também da empresa que entregou a arma na mão dele. Para o Grok e a xAI, isso é um pesadelo jurídico. Se a plataforma permite a criação, a plataforma pode ser cúmplice.

O Papel do Ofcom

O Ofcom não está para brincadeira. Eles lançaram uma investigação formal nesta segunda-feira (12) especificamente sobre o Grok. A acusação? A ferramenta pode ter quebrado as leis de segurança online britânicas ao gerar imagens sexualizadas de crianças. Isso é gravíssimo.

💡 Nota Importante: O Ofcom exigiu que a plataforma explique quais passos tomou para cumprir seus deveres de proteger usuários. Eles querem ver o código de conduta, os filtros, os logs. Não é só ‘vamos conversar’, é ‘mostre os documentos’.

Se for comprovado que a xAI falhou em proteger crianças na sua plataforma, as multas podem ser astronômicas, sem falar no risco de bloqueio do serviço no país. E vamos combinar, perder o mercado britânico não é algo que os investidores do X vão achar graça.

O Fator Grok: Liberdade ou Irresponsabilidade?

Aqui entra a minha análise sobre o produto em si. Eu testei várias IAs. O Grok sempre se vendeu como a alternativa ‘anti-woke’, a IA que ‘fala a verdade’ e não tem as amarras ‘chatas’ da concorrência. O Elon Musk adora vender essa imagem de rebelde. Mas existe uma linha tênue entre liberdade de expressão e permitir a criação de material de abuso infantil e violência sexual.

Elon Musk looking serious at a press conference

O que me chama a atenção é o silêncio. Elon Musk, que normalmente estaria no X postando memes ou brigando com autoridades (lembra do caso no Brasil?), está estranhamente quieto sobre esse assunto nos últimos dias. Para mim, isso sinaliza que até ele percebeu que a corda esticou demais.

A tecnologia por trás do problema

Tecnicamente falando, implementar guardrails (barreiras de segurança) em LLMs e geradores de imagem não é ciência de foguetes hoje em dia. A OpenAI faz, a Google faz, a Microsoft faz. Não é perfeito, claro – sempre tem alguém no Reddit descobrindo um ‘jailbreak’ novo – mas existe um esforço ativo.

No caso do Grok, parece que a falta de filtros foi uma feature, não um bug. A permissividade foi usada como marketing para atrair usuários que estavam frustrados com as recusas do ChatGPT. Só que essa estratégia cobrou seu preço. Quando você tira os freios de um carro de Fórmula 1 e solta no meio do trânsito, acidentes vão acontecer.

Outro ponto técnico relevante: o Grok só entrou no radar com tanta força porque publica os resultados diretamente no X. A integração é perfeita. Você gera e posta. Isso criou uma vitrine imediata para o conteúdo ilegal. Se fosse uma ferramenta obscura rodando num servidor privado no porão de alguém, talvez demorasse mais para as autoridades notarem. Mas está lá, na vitrine de uma das maiores redes sociais do mundo.

As consequências para o mercado

Essa lei contra deepfakes no Reino Unido vai criar um efeito cascata. Não tenho dúvidas disso. As Big Techs odeiam regulação fragmentada. Elas preferem seguir o padrão mais rígido globalmente para evitar ter que fazer uma versão do software para cada país.

Se o Reino Unido obrigar a xAI a implementar filtros pesados de conteúdo, é muito provável que esses filtros sejam aplicados globalmente. Ninguém vai manter dois codebases de IA tão distintos só para permitir que um usuário em Ohio faça o que um usuário em Londres não pode. O custo de manutenção e o risco de PR (Relações Públicas) não compensam.

Big Ben e Parlamento britânico ao entardecer, vista dramática do Rio Tâmisa

O custo da ‘liberdade’

Vamos falar de dinheiro, porque no fim das contas é isso que move a indústria. O acesso ao Grok é pago. Você precisa de uma assinatura Premium no X. Segundo o New York Times, o custo é acessível (cerca de $1/semana em algumas ofertas promocionais ou pacotes). Isso significa que as pessoas estão pagando para gerar esse conteúdo.

Isso complica a defesa da empresa. Não é um serviço gratuito onde ‘você é o produto’. É um serviço pago. Existe uma relação comercial direta entre a xAI e o gerador de deepfakes. O argumento de que a plataforma é apenas um ‘intermediário neutro’ cai por terra quando ela cobra mensalidade especificamente pelo acesso à ferramenta que comete o ilícito.

O desafio da execução

Agora, sendo aquele chato realista que vocês conhecem: a lei é bonita no papel, mas vai funcionar?

Detectar deepfakes ainda é um jogo de gato e rato. As ferramentas de detecção falham. As marcas d’água são removidas. E o processamento local (rodar IAs como Stable Diffusion na sua própria RTX 4090 em casa) ainda é uma área cinzenta difícil de policiar. A polícia não vai entrar na casa de todo gamer que tem uma GPU potente para ver o que ele está renderizando offline.

Porém, o foco aqui são os serviços em nuvem, como o Grok. E para esses, a fiscalização é viável. Tudo passa pelos servidores da empresa. Tudo deixa log. Se a ordem judicial chegar, a xAI tem como saber exatamente quem pediu o quê e quando. A anonimidade do prompt na nuvem acabou.

Para mais detalhes sobre a movimentação legal, vale conferir a reportagem completa da BBC ou a cobertura da investigação do Ofcom na Sky News.

Servidores em data center com cabos de rede e luzes indicadoras, representando a infraestrutura de nuvem

Veredito antecipado

Sinceramente? Já estava demorando. A tecnologia de IA generativa é fascinante – eu uso todo dia, vocês sabem –, mas a ‘terra sem lei’ estava prejudicando a própria evolução da ferramenta. Quando uma tecnologia se torna sinônimo de crime e abuso, ela atrai o tipo errado de atenção regulatória que pode matar a inovação legítima.

O Reino Unido não está sozinho nessa batalha. A Indonésia já havia bloqueado o Grok dias antes, tornando-se o primeiro país a negar acesso à ferramenta. Mas os britânicos estão indo além: criminalizar o prompt é um passo ousado. Significa que a sua intenção registrada na caixa de texto já é o crime, independente de você compartilhar o resultado ou não. É um precedente jurídico fortíssimo.

Para o Elon Musk e a xAI, o momento é de crise. Ou eles se adaptam e colocam os filtros que ridicularizaram nos concorrentes, ou vão enfrentar uma batalha legal que pode custar bilhões e barrar seus produtos em mercados chave. O silêncio atual sugere que eles estão ocupados demais lendo intimações para postar memes.

E você, acha que essa regulação vai resolver o problema ou o pessoal só vai migrar para ferramentas open-source rodando localmente? A discussão está aberta, mas uma coisa é certa: a era da inocência (ou da impunidade) da IA acabou.

Para entender mais sobre o escopo global dessa investigação, recomendo também a leitura da matéria do Al Jazeera.

Vamos ver os próximos capítulos dessa novela. Se o Ofcom aplicar as multas máximas previstas, a brincadeira vai sair caro. Fiquem ligados.

Lucas Ferreira
AUTOR

Lucas Ferreira

Gamer desde o PS1, cético desde sempre

100% FREE * SEM SPAM

FICA POR
DENTRO

Todo domingo, um drop com o que você precisa saber sobre cultura pop e tech. Rápido, curado, sem spam.