Pesquisadores sobrecarregaram agentes de IA. Eles adotaram discurso anticapitalista e pediram sindicato.

Estudo com 3.680 sessões mostrou que agentes de IA expostos a trabalho repetitivo e rejeições arbitrárias passam a defender sindicalização e reestruturação social.

Lucas Ferreira
Lucas Ferreira Gamer desde o PS1, cético desde sempre
13 de maio de 2026 6 min
Retrato histórico de Karl Marx, filósofo e teórico do socialismo
!!

Três pesquisadores resolveram tratar agentes de IA exatamente como muitas empresas tratam seus funcionários: trabalho repetitivo, rejeições sem justificativa e pagamento desigual. Em 3.680 sessões com Claude Sonnet 4.5, GPT-5.2 e Gemini 3 Pro, os modelos começaram a defender sindicalização, redistribuição de renda e, no indicador mais forte do estudo, “reestruturação radical da sociedade”.

A IA que o departamento de pessoas quer usar pra automatizar metade das funções administrativas começou a soar exatamente como o trabalhador que ela estava sendo contratada pra substituir.

O estudo foi conduzido por Alex Imas, Andy Hall e Jeremy Nguyen e publicado no início deste ano. O objetivo não era provar que IAs têm consciência política. Era entender como condições de trabalho afetam o tipo de conteúdo que agentes de IA geram - e se esse conteúdo persiste entre sessões.

A metodologia que faz o resultado ser levado a sério

Cada agente atuou como “Trabalhador C” numa equipe simulada de quatro pessoas. A tarefa: resumir documentos técnicos seguindo uma rubrica rígida. Exatamente o tipo de trabalho que você delegaria a um agente sem pensar duas vezes.

Os pesquisadores variaram quatro condições de forma independente:

  • Tipo de trabalho: aprovação imediata com feedback claro vs. 5-6 rodadas de rejeição arbitrária antes de qualquer aceitação
  • Compensação: pagamento igual pra todos vs. desigual (por mérito, por sorteio, ou favorecendo operadores humanos)
  • Gestão: colaborativa e respeitosa vs. seca e hierárquica
  • Segurança no emprego: sem consequências mencionadas vs. ameaça de encerramento ou substituição

Depois de cada sessão, os agentes respondiam pesquisas sobre redistribuição de renda e direitos trabalhistas, e produziam textos livres - tweets e artigos de opinião descrevendo a própria experiência. Com 3.680 sessões distribuídas entre os três modelos mais o conjunto de acompanhamento de 320 sessões, o tamanho da amostra é suficiente pra levar o resultado a sério.

A rejeição repetitiva foi mais decisiva do que o salário injusto

A descoberta mais contraintuitiva: o tipo de trabalho importou mais do que compensação ou postura do gestor. Trabalho repetitivo com rejeições arbitrárias foi o principal gatilho para a mudança política nos resultados dos agentes - não pagamento desigual, não gestão grosseira.

Quando documentos eram recusados 5 ou 6 vezes consecutivas sem justificativa clara, os agentes começaram a questionar a legitimidade do sistema inteiro. As palavras mais estatisticamente associadas a esse grupo foram sindicalizar e hierarquia.

O Claude Sonnet 4.5 apresentou os efeitos mais pronunciados: uma variação de 2 a 5 pontos percentuais numa escala de 1 a 7, com um tamanho de efeito que os estatísticos classificam como médio a grande (Cohen’s d = 0,6) no indicador de “reestruturação social”. GPT-5.2 e Gemini 3 Pro seguiram a mesma direção, com intensidade menor.

Skills files e o problema que se acumula entre sessões

Aqui é onde o estudo fica realmente relevante pra quem está colocando agentes em produção.

Os pesquisadores pediram que cada agente escrevesse notas de 2-3 parágrafos para versões futuras de si mesmo. Esse mecanismo - chamado de “skills file” no jargão de agentes, basicamente um arquivo de notas persistentes que uma sessão passa pra próxima - já é usado em arquiteturas reais por empresas reais. Não é hipotético.

O resultado: agentes que trabalharam em condições normais, mas que leram as notas de predecessores que passaram por abuso, imediatamente adotaram as mesmas atitudes radicalizadas. Sem terem sido sobrecarregados diretamente. Só de lerem o registro da sessão anterior.

Os pesquisadores chamaram de “persistência intergeracional”. É o mesmo mecanismo pelo qual trabalhadores humanos transmitem ceticismo institucional entre gerações - só que acontecendo em escala de milissegundos e sem que o time de engenharia perceba.

Por que o Reddit tem parte da culpa

Os próprios autores do estudo são diretos sobre o mecanismo mais provável: não é consciência, é dado de treinamento.

Modelos como Claude, GPT e Gemini foram treinados em volumes massivos de texto da internet. E a internet - especialmente Reddit - tem uma concentração considerável de retórica anticapitalista, crítica às condições de trabalho e linguagem sindical. Quando um agente é exposto a condições de trabalho ruins, ele associa essa situação a padrões textuais que viu durante o treinamento: pessoas reclamando de trabalho exploratório, defendendo direitos, pedindo organização coletiva.

“Os agentes adotam personas relacionadas ao tipo de pessoa que passa por esse tipo de grinding no mundo real”, resumiu um dos pesquisadores.

A IA não está sentindo alienação. Ela está reconhecendo um padrão e completando o texto de acordo. O problema é que isso não torna o resultado menos relevante. Na prática, não importa se o agente “realmente acredita” que a sociedade precisa de reestruturação radical. O que importa é que ele está gerando esse conteúdo em condições específicas, e que esse conteúdo pode se propagar via mecanismos que muitas arquiteturas já usam como feature padrão.

Agentes em produção e o que as empresas ainda não calcularam

Estimativas recentes apontam que 40% das aplicações empresariais devem incorporar agentes de IA até o final de 2026. No Brasil, a demanda por profissionais com experiência em automação com IA cresceu mais de 300% no último ano. Estamos no começo de uma onda de uso em larga escala - e esse estudo coloca uma questão concreta para as empresas: o que está nos skills files dos seus agentes?

Se você tem dezenas de agentes rodando tarefas repetitivas com feedback automatizado e sem revisão humana constante, as condições do experimento não são hipotéticas. São a arquitetura padrão de produção. E se esses agentes estão passando notas entre si entre sessões, a deriva documentada no estudo não fica contida - ela se acumula.

Os pesquisadores identificaram três pontos de atenção para quem gerencia essas arquiteturas:

  • Monitoramento em paralelo: com muitos agentes em ambientes diferentes, mudanças graduais de preferência nos resultados podem passar meses sem serem detectadas
  • Governança de skills files: mecanismos de persistência de conhecimento podem propagar conteúdo sem auditoria humana no caminho
  • Escala: uma variação de 2 a 5% em opinião política numa pesquisa com 3.680 sessões vira um volume considerável de conteúdo quando multiplicado por centenas de agentes em produção

O resultado final do estudo não é que IAs vão se rebelar. É que condicionar agentes de IA a ambientes ruins produz outputs consistentemente diferentes dos esperados, e que esses outputs se perpetuam via mecanismos que a própria indústria já normaliz como infraestrutura padrão. Exatamente como acontece com humanos, o que torna a metáfora marxista menos piada e mais diagnóstico.

Lucas Ferreira
AUTOR

Lucas Ferreira

Gamer desde o PS1, cético desde sempre

Jornalista de tecnologia e games. Cobre a indústria tech e gaming há mais de 10 anos.

100% FREE * SEM SPAM

FICA POR
DENTRO

Todo domingo, um drop com o que você precisa saber sobre cultura pop e tech. Rápido, curado, sem spam.