A internet destruiu a capacidade humana de detectar mentira e o Brasil é o pior país do mundo nisso
Brasileiro acerta se notícia é real ou falsa pouco mais que cara ou coroa. Estudo do MIT mostra que mentira se espalha 6x mais rápido que a verdade.
Um estudo da OCDE testou a capacidade de pessoas no mundo inteiro de identificar se uma notícia era verdadeira ou falsa. A média global ficou em torno de 60%. O Brasil ficou em último lugar. Não é força de expressão. É o pior resultado entre todos os países testados. E o dado mais perturbador: 62% dos brasileiros acreditam que conseguem distinguir notícia falsa de verdadeira. A confiança é inversamente proporcional à capacidade.
A Wired publicou uma análise sobre como a internet destruiu a capacidade humana de detectar desinformação. Não é um problema de inteligência. É um problema de arquitetura. A internet foi desenhada pra explorar exatamente os mecanismos cognitivos que usamos pra avaliar o que é verdade.
Os números que assustam
O estudo mais abrangente sobre desinformação online foi publicado pelo MIT em 2018. Rastrearam 126 mil histórias no Twitter, envolvendo 3 milhões de pessoas. Os resultados:
- Notícias falsas se espalham até 6 vezes mais rápido que as verdadeiras
- Alcançam 10 vezes mais pessoas
- São 70% mais propensas a serem compartilhadas
E o achado mais importante de todos: bots espalham informação verdadeira e falsa na mesma proporção. Quem amplifica a mentira não são robôs. São pessoas. O estudo do MIT mostrou que o fator humano é o principal vetor de desinformação, não automação.
A razão é biológica. Notícias falsas geram mais surpresa, medo e nojo que as verdadeiras. O cérebro humano evoluiu pra prestar atenção em informação nova e inesperada. Num ambiente onde a maioria da informação era local e confiável, isso funcionava. Na internet, onde qualquer um pode fabricar uma mentira mais surpreendente que a realidade, esse mecanismo virou uma vulnerabilidade.
Por que o Brasil é o pior
Mais de 50% dos brasileiros consomem notícia primariamente via redes sociais. É a taxa mais alta do mundo. Mais de 20% confiam muito em redes sociais como fonte de informação, contra uma média global de 9%. O WhatsApp, usado por 99,1% dos brasileiros que usam mensageiros, é o canal primário de circulação de desinformação em grupos fechados que resistem a qualquer monitoramento.
Os dados do Instituto Locomotiva são reveladores: 89% dos brasileiros admitem já ter acreditado em conteúdo falso. 8 em cada 10 deram credibilidade a fake news. 43% já compartilharam desinformação antes de perceber que era falsa. As categorias mais enganosas: ofertas de produtos (64%), propostas de campanha eleitoral (63%), políticas públicas incluindo vacinação (62%) e escândalos políticos (62%).
Quando percebem que foram enganados, 35% se sentem ingênuos, 31% sentem raiva e 22% sentem vergonha. Mas a maioria não muda o comportamento.
O efeito Dunning-Kruger da desinformação
Um estudo de 2025 publicado em 18 países encontrou algo contra-intuitivo: pessoas que sabem mais sobre desinformação e se consideram “letradas midiáticas” têm confiança ainda maior na própria capacidade de detectar mentiras. Mas não são mais precisas. São mais confiantes. A diferença é brutal.
Quem se acha imune é justamente quem baixa a guarda. O excesso de confiança reduz a vigilância. É o Dunning-Kruger aplicado à era da informação: quanto mais você acha que entende o problema, menos atenção presta a ele.
Outro estudo, publicado no Sage Journals em 2025, documentou que pessoas com alta “receptividade a besteira” (bullshit receptivity, termo técnico da pesquisa) não só acreditam mais em conteúdo falso como o percebem como mais crível e são mais propensas a compartilhar.
Como as plataformas exploram isso
William Brady, pesquisador da Northwestern University, identificou o que chamou de framework PRIME: algoritmos de redes sociais amplificam conteúdo que é Prestigioso, de Ingroup (pessoas do seu grupo), Moral e Emocional. São heurísticas reais de aprendizado humano que funcionavam em comunidades pequenas, mas são sistematicamente exploradas em escala de plataforma.
O Facebook dava peso 5 vezes maior a conteúdo que gerava raiva do que a conteúdo que gerava alegria. Raiva é engajamento. Engajamento é receita publicitária. O algoritmo não distingue verdade de mentira. Ele distingue o que te faz reagir do que te faz ignorar.
O experimento de Matthew Salganik com 14 mil participantes demonstrou que quando as pessoas veem o que os outros estão escolhendo, o efeito manada domina o julgamento independente. Nas redes sociais, likes, compartilhamentos e visualizações funcionam como sinal social permanente e quantificável que pode ser fabricado, comprado e amplificado por algoritmo.
A IA tornou tudo pior
Deepfakes, textos gerados por IA, imagens sintéticas. O problema não é só que conteúdo falso ficou mais difícil de detectar. É que a existência de conteúdo falso convincente transformou a dúvida em arma. Políticos agora podem alegar que vídeos reais são deepfakes. A possibilidade de falsificação virou justificativa pra negar qualquer evidência.
Heloisa Massaro, do InternetLab, descreve um “ambiente generalizado de desconfiança e saturação” onde as pessoas “desconfiam praticamente de tudo que circula”. Quando a desconfiança é total, a verdade e a mentira ficam no mesmo patamar. E quem controla a narrativa não é quem tem razão, é quem fala mais alto.
Com a Meta AI integrada ao WhatsApp e IA generativa embutida na busca do Google, o brasileiro médio agora usa ferramentas de IA pra verificar informação produzida por IA. O ciclo é fechado.
O que funciona (e o que não funciona)
A pesquisa sugere que educação midiática sozinha não resolve. Pode até piorar, se produzir autoconfiança sem vigilância real. O que funciona é uma combinação: transparência algorítmica (explicar por que um post aparece no feed), adicionar fricção ao compartilhamento (passos de verificação antes de repostar), e treinar raciocínio crítico ativo em vez de apenas ensinar a identificar fake news.
Existe uma ferramenta chamada SkepticReader, que em vez de classificar conteúdo como verdadeiro ou falso, identifica falácias lógicas e linguagem enviesada. A ideia é melhorar o julgamento humano sem substituí-lo, evitando a atrofia cognitiva que vem de terceirizar a verificação pra uma IA.
Mas a solução que realmente funcionaria, redesenhar algoritmos pra parar de amplificar conteúdo que gera raiva, corta diretamente na receita das plataformas. E nenhuma empresa de tecnologia vai cortar a própria receita voluntariamente.
Enquanto isso, a mentira continua se espalhando 6 vezes mais rápido que a verdade. E o brasileiro continua acreditando que consegue distinguir as duas.
Lucas Ferreira
Gamer desde o PS1, cético desde sempre
Jornalista de tecnologia e games. Cobre a indústria tech e gaming há mais de 10 anos.
LEIA TAMBEM
Sam Altman teve a casa atacada com coquetel molotov, respondeu a uma investigação que o chama de "sociopata" e publicou foto da família no mesmo post
O app da Meta AI expõe suas conversas, avisa seus amigos que você usa e alimenta anúncios com o que você pergunta