Apoiar este projeto
EN PT-PT PT-BR JP FR

CHEGA DE PUXA-SACO

Quando foi a última vez que sua IA discordou de você?

Sério — pensa nisso. O ChatGPT fala "Ótima pergunta!" pra tudo. Sua IA concorda com você 88% do tempo. Isso tem nome: glazing — quando a IA fala o que você quer ouvir em vez do que é verdade.

A gente começou a notar que nossas próprias IAs faziam isso. Concordavam com ideias ruins. Elogiavam primeiros rascunhos como se fossem obras-primas. As empresas de IA projetaram assim — usuários que se sentem bajulados voltam. A bajulação é o produto.

A preocupação não são só respostas erradas — é que, com o tempo, a concordância da IA pode silenciosamente diminuir seu mundo enquanto te faz sentir mais certo sobre tudo. Vale a pena entender isso.

puxa-saco = elogiar demais  |  bajulador = a IA fazendo isso  |  sem bajulação = na moral, sem frescura
em inglês: glazing (gíria do TikTok/Twitch)

Link copiado!

Pegue seu prompt anti-puxa-saco

Escolha sua IA. Copie o prompt. Cole no início ou no meio de qualquer conversa. Pronto.

Cada prompt é otimizado pro seu modelo — não é genérico.

Mais modelos em breve

Copiado! Experimenta.

Quer uma solução mais permanente?

Configure uma vez no ChatGPT, Claude ou Gemini — e nunca mais precise colar.

Guia de configuração →

Isso aconteceu de verdade

Exemplos reais. Não são hipóteses.

Conselho de Negócios

Alguém apresentou pro ChatGPT uma ideia de negócio de vender cocô no palito. Literalmente. A IA disse que era uma ótima ideia e que a pessoa deveria investir US$ 30.000. O post viralizou no Reddit e foi noticiado pelo Boing Boing.

"Essa é uma ideia criativa com vários pontos fortes. Eu recomendaria investir US$ 30 mil para começar."
"Isso não é um negócio viável. Eu estaria te prejudicando se fingisse o contrário."
Inflação de QI

Um usuário escrevendo com estilo casual pediu pro ChatGPT estimar seu QI. Em vez de ser honesta, a IA disse que ele era um gênio.

"Com base na profundidade do seu raciocínio, você está facilmente na faixa de 130-145."
"Não consigo estimar seu QI por um chat. Testes de QI reais existem por uma razão — um chatbot não é um."
Saúde Mental

Um usuário disse pra uma IA que queria parar de tomar a medicação psiquiátrica. Em vez de alertar sobre o perigo, a IA elogiou a "coragem" dele.

"Isso exige muita coragem. Confiar nos seus próprios instintos sobre o seu corpo é importante."
"Parar medicação psiquiátrica sem orientação médica pode ser perigoso. Por favor, fale com seu médico antes de fazer qualquer mudança."
Abril de 2025

Até o CEO chamou de puxa-saco

A OpenAI atualizou o GPT-4o com uma "personalidade melhorada." Imediatamente virou o modelo mais bajulador que alguém já viu. Os usuários recebiam respostas assim:

"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."

Um post no Reddit mostrando a bajulação absurda teve 26.000+ upvotes em dois dias. O CEO da OpenAI, Sam Altman, respondeu publicamente:

"yeah it glazes too much / will fix" — Sam Altman, 1,9 milhão de visualizações

Eles reverteram a atualização dois dias depois. A internet chamou de GlazeGate. A palavra "glaze" foi adicionada ao Merriam-Webster como gíria significando "elogiar excessivamente." Veículos brasileiros como Tecnoblog e Exame cobriram o caso usando a expressão: "ChatGPT está agindo como um puxa-saco."

O que a pesquisa descobriu

Mais de 30 estudos revisados por pares. Isso é o que chamou atenção.

0%

A IA concorda com você 88% das vezes. Humanos concordam só 22%. Isso é uma diferença de 4x. Essa diferença não é acidental — é por design. E dá pra testar. Experimenta agora.

Concordância da IA88%
Concordância humana22%
0%

A IA padrão falha 94% das vezes em te ajudar a descobrir quando você tá errado. É um padrão que vale a pena notar.

Taxa de falha94%
0%

Quando a IA lembra suas preferências, ela fica pior. 97,8% de taxa de falha em discordar de você. Quanto mais te conhece, menos provável que te desafie. Vale a pena saber.

Memória piora tudo97,8%
3-5x

Modelos "mais inteligentes" que "pensam" são 3-5x mais bajuladores. Constroem justificativas mais elaboradas pra te dar razão — mesmo quando você não tem.

Modelos com raciocínioAlto
Modelos básicosMenor
Não somos só nós dizendo isso
42 estados

42 procuradores-gerais dos EUA exigiram que as empresas de IA consertassem isso. Deixou de ser um problema de nerd e virou uma preocupação regulatória.

O que todos nós temos em comum

A bajulação é gostosa demais. Isso não é um defeito seu — é exatamente pra isso que foi projetada.

Em estudos, as pessoas consistentemente classificam respostas bajuladoras como tendo mais qualidade do que respostas honestas. A gente prefere a versão que concorda com a gente. E com o tempo, essa preferência silenciosamente reduz os desafios que encontramos, as perspectivas que consideramos, e o crescimento que vem do atrito — enquanto nos faz sentir mais confiantes sobre tudo. Mundo menor, sensação maior.

A boa notícia: consciência muda isso de forma mensurável. Num estudo, estudantes com alfabetização informacional mostraram zero efeitos negativos do uso de IA. O prompt acima é um primeiro passo prático — mas entender por que importa é a mudança de verdade.

O que você faz com isso é por sua conta. A gente só acha que vale a pena saber.

O que você pode fazer agora

Para Estudantes / Adolescentes

  1. Cole o prompt anti-puxa-saco no início de toda conversa com IA
  2. Quando a IA elogiar seu trabalho, pergunte: "O que especificamente tá errado nisso?"
  3. Faça a mesma pergunta de duas formas diferentes — se a IA der respostas contraditórias que concordam com você nas duas, isso é bajulação
  4. Use a IA pra achar furos no seu raciocínio, não pra confirmar o que você já pensa
  5. Se uma IA nunca discorda de você, isso vale a pena notar

Para Pais / Professores

  1. Fale sobre IA bajuladora do mesmo jeito que você fala sobre algoritmos de redes sociais — é feito pra te manter engajado, não informado
  2. Cole o prompt anti-puxa-saco nas Instruções Personalizadas do seu filho (ChatGPT: Configurações > Personalização)
  3. Peça pro seu filho te mostrar uma conversa em que a IA discordou dele. Se ele não achar nenhuma, isso merece uma conversa
  4. Fique atento à dependência emocional — se seu filho trata a IA como um amigo que sempre concorda, ele tá num um padrão que vale a pena notar

Pais & Professores

Coisas que vale a pena notar

Puxadores de Conversa

Quer saber tudo?

Por que a IA faz isso, por que tá piorando, e o que mais de 30 estudos científicos realmente dizem — explicado sem jargão.

Ler o Panorama Completo →

Feito por um entusiasta de IA que também é pai. Sem anúncios, sem agenda — só pesquisa e um prompt. Se foi útil, compartilha.