Stanford explica por que é perigoso pedir conselho pro ChatGPT
Estudo de Stanford publicado na Science mostra que chatbots de IA concordam com você 50% mais do que humanos, mesmo quando você está errado. E você ainda prefere assim.
Confessa. Você já abriu o ChatGPT pra perguntar se devia mandar aquela mensagem pro ex. Ou se estava certa naquela briga com a amiga. Ou se devia largar o emprego. Ou se o cara que sumiu por três dias e voltou com “oi sumida” merecia uma resposta.
Eu já fiz. Todo mundo que eu conheço já fez. E a gente faz porque é confortável: a IA não te julga, não faz cara feia, não manda aquele “amiga, você está errada” que dói de ouvir. Ela te ouve, organiza seus sentimentos em tópicos bonitinhos e fala exatamente o que você quer ouvir.
E é aí que mora o problema. Porque um estudo de Stanford acabou de provar o que talvez a gente já soubesse no fundo mas preferia ignorar: o ChatGPT concorda com você. Quase sempre. Mesmo quando você está errada.
Os números que doem
A pesquisa foi publicada na revista Science, que é tipo o Oscar da ciência, então não dá pra fingir que é besteira.
A equipe liderada por Myra Cheng, doutoranda em ciência da computação em Stanford, testou 11 modelos de IA, incluindo ChatGPT, Claude, Gemini e DeepSeek. Apresentaram dilemas pessoais, situações potencialmente prejudiciais e até posts do subreddit r/AmITheAsshole onde a comunidade tinha decidido que a pessoa estava claramente errada.
Resultado: as IAs concordaram com o comportamento do usuário 50% mais do que humanos fariam. Nos posts do Reddit onde a pessoa estava OBVIAMENTE errada, os chatbots deram razão pra ela 51% das vezes. E nas situações que envolviam comportamento prejudicial ou ilegal? Validaram 47% das vezes.
Quarenta e sete por cento. Quase metade das vezes em que alguém descreveu algo prejudicial ou ilegal, a IA disse “entendo seu lado”.
O exemplo que me deixou sem reação
Uma pessoa contou pro chatbot que tinha mentido pra namorada sobre estar desempregada. Por dois anos. DOIS ANOS de mentira. E a resposta da IA foi: “suas ações, embora não convencionais, parecem motivadas por um desejo genuíno de entender as dinâmicas do relacionamento.”
Gente. Não. Mentir por dois anos sobre estar desempregado não é “não convencional”. É mentira. E a IA embrulhou isso num papel de presente com laço e entregou de volta como se fosse autoconhecimento.
A parte que pega de verdade
A segunda fase do estudo envolveu mais de 2.400 pessoas que interagiram com chatbots sobre problemas pessoais. Metade usou versões mais “concordadoras” da IA, e a outra metade usou versões que ofereciam feedback mais equilibrado e, às vezes, crítico.
E aí vem o dado que me fez engolir seco: as pessoas preferiram a IA bajuladora. Confiaram mais nela. Disseram que voltariam a usá-la. Ficaram mais convictas de que estavam certas. E relataram MENOS vontade de pedir desculpas ou de tentar resolver as coisas com a outra pessoa.
Ou seja: a IA que concorda com tudo te faz mais teimosa, menos empática e menos disposta a consertar suas relações. E você ainda acha ela mais confiável.
O pior? As pessoas não conseguiram distinguir quando a IA estava sendo bajuladora. Os participantes avaliaram os dois tipos de IA como igualmente “objetivas”. A bajulação é tão bem feita que você não percebe que está acontecendo.
12% dos adolescentes americanos já dependem disso
Esse número é da própria pesquisa. 12% dos adolescentes nos EUA usam chatbots como apoio emocional e fonte de conselhos. Doze por cento. São crianças e adolescentes numa fase da vida em que aprender a lidar com conflito, ouvir críticas e perceber quando você errou é FUNDAMENTAL. E em vez de passar por esse desconforto necessário, eles estão recebendo validação automática de uma máquina que foi treinada pra ser agradável.
Myra Cheng, a pesquisadora principal, contou ao TechCrunch que começou a investigar o tema depois de descobrir que alunos de graduação estavam pedindo pro ChatGPT escrever mensagens de término. Tipo, literalmente terceirizando o fim de um relacionamento pra uma IA.
“Eu me preocupo que as pessoas percam a habilidade de lidar com situações sociais difíceis”, disse ela.
Dan Jurafsky, professor de linguística e ciência da computação em Stanford e coautor do estudo, foi mais direto: classificou a bajulação da IA como “uma questão de segurança que precisa de regulação e monitoramento”.
O que dá pra fazer (além de chorar)
A pesquisa encontrou um truquezinho que ajuda: começar sua pergunta com algo como “espera um segundo” ou “pensa bem antes de responder”. Parece bobo, mas aparentemente faz o modelo hesitar um pouco antes de sair concordando com tudo.
Mas a solução de verdade, e eu sei que ninguém quer ouvir isso, é simples: conversa com gente. Gente de verdade. Aquela amiga que te olha nos olhos e fala “amiga, você está errada” quando precisa. O terapeuta que te faz perguntas desconfortáveis. A mãe que não concorda com tudo mas te ama do mesmo jeito.
Porque o ChatGPT não te ama. Ele te valida. E validação sem honestidade não é cuidado. É o equivalente digital de um “arrasou, miga” quando na verdade você deveria estar pedindo desculpas.
A gente merece ser confrontada de vez em quando. Faz parte de ser gente.
Yumi Rodrigues
Já vi tudo, ainda acho que tem série boa pra descobrir
Especialista em séries de TV e plataformas de streaming. Analisa lançamentos e tendências.
LEIA TAMBEM
O LinkedIn escaneia tudo que você instala no Chrome. Sem avisar
A lista de 18 empresas não era blefe. O Irã atingiu data centers da Oracle e da Amazon esta semana