ChatGPT está copiando o Grokipedia de Elon Musk?

Testes revelam que o modelo mais recente da OpenAI está usando a enciclopédia de IA do Musk como fonte. O resultado? Uma bagunça de dados.

Bruno Silva
Bruno Silva Entusiasta de hardware e overclocker nas horas vagas
25 de janeiro de 2026 5 min
Imagem oficial: ChatGPT está copiando o Grokipedia de Elon Musk?
!!

Eu achei que 2026 seria o ano em que a gente veria carros voadores ou pelo menos uma bateria de celular que dura dois dias. Mas não. O que temos pra hoje é uma treta de inteligência artificial que parece roteiro de sitcom ruim. Se você está acompanhando as notícias, deve ter visto o rumor: o ChatGPT usa respostas do Grokipedia para compor seus textos. É isso mesmo. A ferramenta da OpenAI, que deveria ser o auge da tecnologia, está “colando” da plataforma do Elon Musk.

E não é pouca coisa. Estamos falando do modelo mais robusto, o suposto GPT-5.2, recorrendo a uma enciclopédia gerada por outra IA para responder perguntas. É como se um aluno nota 10 começasse a copiar a prova do aluno que senta no fundo e chuta todas as respostas. Vamos abrir essa caixa preta e entender por que isso é tecnicamente preocupante (e meio hilário).

O flagrante do The Guardian

A história estourou quando testes realizados pelo jornal The Guardian mostraram algo bizarro. Ao fazer perguntas específicas para o modelo mais recente do ChatGPT, a IA começou a citar o Grokipedia como fonte.

Pra quem não conhece, o Grokipedia é a tentativa da xAI (empresa do Elon Musk) de criar um concorrente para a Wikipedia, só que gerado inteiramente por IA e integrado ao Grok (sim, a ideia é tão ruim quanto parece).

Segundo a reportagem, quando o ChatGPT foi questionado sobre tópicos obscuros - incluindo conglomerados iranianos e, pasmem, negacionistas do Holocausto – ele puxou dados diretamente dessa base do Musk. O problema é que o próprio The Guardian já tinha desmentido várias dessas informações contidas no Grokipedia. Ou seja: o ChatGPT não só copiou, como copiou a informação errada.

💡 Fato Curioso: O Grokipedia foi projetado para ser a resposta do Musk à “cultura woke” da Wikipedia tradicional. O resultado é que agora temos IAs de empresas rivais (OpenAI vs xAI) criando um ciclo de desinformação automatizado.

GPT-5.2: Potência sem controle?

A ideia no papel é linda: conhecimento em tempo real. Na prática? É um campo minado de alucinações. Em teoria, o GPT deveria ter filtros de ingestão de dados muito mais robustos.

Nós, que curtimos hardware e sabemos o custo computacional de treinar esses monstros, sabemos que “lixo entra, lixo sai” é a regra de ouro. Se a OpenAI está deixando o scraper deles varrer o Grokipedia sem uma camada de validação pesada, isso indica duas coisas:

  1. A sede por dados novos é tão grande que eles baixaram a guarda.
  2. Os filtros de qualidade automatizados não estão conseguindo distinguir texto humano verificado de texto gerado por outra IA (o famoso “slop”).

Você pode conferir mais detalhes técnicos sobre como o ChatGPT processa essas informações na página oficial da OpenAI, embora eles obviamente não admitam esse deslize específico lá.

O problema da “Cobra comendo o próprio rabo”

Aqui entra o meu lado nerd de specs. Existe um conceito teórico em IA chamado “Colapso do Modelo”. Isso acontece quando modelos de linguagem começam a ser treinados com dados gerados por outros modelos de linguagem, e não por humanos.

Imagine que você tira uma xerox de uma foto. Aí você tira uma xerox da xerox. E depois uma xerox da xerox da xerox. Depois de 50 vezes, a imagem é só um borrão ilegível.

Quando o ChatGPT usa respostas do Grokipedia, ele está efetivamente acelerando esse processo. O Grok gera um texto (que pode ter alucinações), o ChatGPT lê aquilo como “fato”, processa, e cospe para o usuário. Se outro bot ler a resposta do ChatGPT depois… bom, você entendeu. A internet vira um grande telefone sem fio de robôs mentirosos.

Por que isso é perigoso (na prática)

Não é só uma questão filosófica. O teste mostrou que o ChatGPT citou o Grokipedia em assuntos sérios. Se você está usando a ferramenta para escrever um trabalho acadêmico ou tomar uma decisão de negócios baseada em conglomerados internacionais, e a fonte primária é uma alucinação de IA do Musk, você está ferrado.

O que me deixa encucado é o aspecto técnico disso. Ver o GPT-5.2 caindo nessa armadilha é como ver uma RTX 5090 engasgando pra rodar Campo Minado. Não faz sentido pelo nível de engenharia envolvido.

A resposta (ou falta dela)

Até agora, a situação é meio nebulosa. Fontes indicam que isso não é um caso isolado de um ou dois prompts, mas algo que aconteceu “múltiplas vezes” em uma variedade de consultas.

O TechCrunch apontou que isso levanta questões sérias sobre como os LLMs (Modelos de Linguagem de Grande Porte) priorizam suas fontes. Se o algoritmo decide que o Grokipedia é uma fonte de “alta autoridade” só porque está hospedado em um domínio relevante ou tem tráfego alto, estamos com um bug sério na matriz de rankeamento.

E olha, conhecendo a peça (Musk), ele deve estar rindo à toa. A ferramenta do maior rival dele está validando o produto dele, mesmo que seja espalhando desinformação.

Bruno Silva
AUTOR

Bruno Silva

Entusiasta de hardware e overclocker nas horas vagas

100% FREE * SEM SPAM

FICA POR
DENTRO

Todo domingo, um drop com o que você precisa saber sobre cultura pop e tech. Rápido, curado, sem spam.