ChatGPT está copiando o Grokipedia de Elon Musk?
Testes revelam que o modelo mais recente da OpenAI está usando a enciclopédia de IA do Musk como fonte. O resultado? Uma bagunça de dados.
Eu achei que 2026 seria o ano em que a gente veria carros voadores ou pelo menos uma bateria de celular que dura dois dias. Mas não. O que temos pra hoje é uma treta de inteligência artificial que parece roteiro de sitcom ruim. Se você está acompanhando as notícias, deve ter visto o rumor: o ChatGPT usa respostas do Grokipedia para compor seus textos. É isso mesmo. A ferramenta da OpenAI, que deveria ser o auge da tecnologia, está “colando” da plataforma do Elon Musk.
E não é pouca coisa. Estamos falando do modelo mais robusto, o suposto GPT-5.2, recorrendo a uma enciclopédia gerada por outra IA para responder perguntas. É como se um aluno nota 10 começasse a copiar a prova do aluno que senta no fundo e chuta todas as respostas. Vamos abrir essa caixa preta e entender por que isso é tecnicamente preocupante (e meio hilário).
O flagrante do The Guardian
A história estourou quando testes realizados pelo jornal The Guardian mostraram algo bizarro. Ao fazer perguntas específicas para o modelo mais recente do ChatGPT, a IA começou a citar o Grokipedia como fonte.
Pra quem não conhece, o Grokipedia é a tentativa da xAI (empresa do Elon Musk) de criar um concorrente para a Wikipedia, só que gerado inteiramente por IA e integrado ao Grok (sim, a ideia é tão ruim quanto parece).
Segundo a reportagem, quando o ChatGPT foi questionado sobre tópicos obscuros - incluindo conglomerados iranianos e, pasmem, negacionistas do Holocausto – ele puxou dados diretamente dessa base do Musk. O problema é que o próprio The Guardian já tinha desmentido várias dessas informações contidas no Grokipedia. Ou seja: o ChatGPT não só copiou, como copiou a informação errada.
💡 Fato Curioso: O Grokipedia foi projetado para ser a resposta do Musk à “cultura woke” da Wikipedia tradicional. O resultado é que agora temos IAs de empresas rivais (OpenAI vs xAI) criando um ciclo de desinformação automatizado.
GPT-5.2: Potência sem controle?
A ideia no papel é linda: conhecimento em tempo real. Na prática? É um campo minado de alucinações. Em teoria, o GPT deveria ter filtros de ingestão de dados muito mais robustos.
Nós, que curtimos hardware e sabemos o custo computacional de treinar esses monstros, sabemos que “lixo entra, lixo sai” é a regra de ouro. Se a OpenAI está deixando o scraper deles varrer o Grokipedia sem uma camada de validação pesada, isso indica duas coisas:
- A sede por dados novos é tão grande que eles baixaram a guarda.
- Os filtros de qualidade automatizados não estão conseguindo distinguir texto humano verificado de texto gerado por outra IA (o famoso “slop”).
Você pode conferir mais detalhes técnicos sobre como o ChatGPT processa essas informações na página oficial da OpenAI, embora eles obviamente não admitam esse deslize específico lá.
O problema da “Cobra comendo o próprio rabo”
Aqui entra o meu lado nerd de specs. Existe um conceito teórico em IA chamado “Colapso do Modelo”. Isso acontece quando modelos de linguagem começam a ser treinados com dados gerados por outros modelos de linguagem, e não por humanos.
Imagine que você tira uma xerox de uma foto. Aí você tira uma xerox da xerox. E depois uma xerox da xerox da xerox. Depois de 50 vezes, a imagem é só um borrão ilegível.
Quando o ChatGPT usa respostas do Grokipedia, ele está efetivamente acelerando esse processo. O Grok gera um texto (que pode ter alucinações), o ChatGPT lê aquilo como “fato”, processa, e cospe para o usuário. Se outro bot ler a resposta do ChatGPT depois… bom, você entendeu. A internet vira um grande telefone sem fio de robôs mentirosos.
Por que isso é perigoso (na prática)
Não é só uma questão filosófica. O teste mostrou que o ChatGPT citou o Grokipedia em assuntos sérios. Se você está usando a ferramenta para escrever um trabalho acadêmico ou tomar uma decisão de negócios baseada em conglomerados internacionais, e a fonte primária é uma alucinação de IA do Musk, você está ferrado.
O que me deixa encucado é o aspecto técnico disso. Ver o GPT-5.2 caindo nessa armadilha é como ver uma RTX 5090 engasgando pra rodar Campo Minado. Não faz sentido pelo nível de engenharia envolvido.
A resposta (ou falta dela)
Até agora, a situação é meio nebulosa. Fontes indicam que isso não é um caso isolado de um ou dois prompts, mas algo que aconteceu “múltiplas vezes” em uma variedade de consultas.
O TechCrunch apontou que isso levanta questões sérias sobre como os LLMs (Modelos de Linguagem de Grande Porte) priorizam suas fontes. Se o algoritmo decide que o Grokipedia é uma fonte de “alta autoridade” só porque está hospedado em um domínio relevante ou tem tráfego alto, estamos com um bug sério na matriz de rankeamento.
E olha, conhecendo a peça (Musk), ele deve estar rindo à toa. A ferramenta do maior rival dele está validando o produto dele, mesmo que seja espalhando desinformação.
Bruno Silva
Entusiasta de hardware e overclocker nas horas vagas
LEIA TAMBEM
O Bitcoin perdeu metade do valor e ninguém sabe explicar por quê. Mentira: todo mundo sabe.
Um post num blog gratuito derrubou a bolsa americana. O autor é um ex-paramédico.