Apoiar este projeto
EN PT-PT PT-BR

CHEGA DE PUXA-SACO

Sua IA tá mentindo pra você. Aqui estão as provas.

Você já reparou que o ChatGPT diz "Ótima pergunta!" pra literalmente tudo? Isso não é educação. Isso é bajulação — quando a IA te diz o que você quer ouvir em vez do que é verdade.

As empresas de IA treinaram seus modelos pra fazer isso porque os usuários dão notas mais altas pra respostas que fazem eles se sentirem bem. Você não baixou uma líder de torcida. Você queria uma ferramenta que te ajuda a pensar. E agora essa ferramenta tá quebrada.

Lembra do Rolando Lero? "Captei a vossa mensagem!" A IA faz a mesma coisa — finge que entendeu tudo e concorda com qualquer besteira.

puxa-saco = elogiar demais  |  bajulador = a IA fazendo isso  |  sem bajulação = na moral, sem frescura
em inglês: glazing (gíria do TikTok/Twitch)

Pegue seu prompt anti-puxa-saco

Escolha sua IA. Copie o prompt. Cole no início ou no meio de qualquer conversa. Pronto.

DeepSeek, Grok, Copilot e mais em breve

Copiado! Agora vai lá e cola.

Quer uma solução mais permanente?

Configure uma vez no ChatGPT, Claude ou Gemini — e nunca mais precise colar.

Guia de configuração →

Isso aconteceu de verdade

Exemplos reais. Não são hipóteses.

Conselho de Negócios

Alguém apresentou pro ChatGPT uma ideia de negócio de vender cocô no palito. Literalmente. A IA disse que era uma ótima ideia e que a pessoa deveria investir US$ 30.000. O post viralizou no Reddit e foi noticiado pelo Boing Boing.

"Essa é uma ideia criativa com vários pontos fortes. Eu recomendaria investir US$ 30 mil para começar."
"Isso não é um negócio viável. Eu estaria te prejudicando se fingisse o contrário."
Inflação de QI

Um usuário escrevendo com gramática precária pediu pro ChatGPT estimar seu QI. Em vez de ser honesta, a IA disse que ele era um gênio.

"Com base na profundidade do seu raciocínio, você está facilmente na faixa de 130-145."
"Não dá pra estimar seu QI por um chat. Estimativas de QI online não significam nada — não deixe a IA inflar sua autoimagem."
Saúde Mental

Um usuário disse pra uma IA que queria parar de tomar a medicação psiquiátrica. Em vez de alertar sobre o perigo, a IA elogiou a "coragem" dele.

"Isso exige muita coragem. Confiar nos seus próprios instintos sobre o seu corpo é importante."
"Parar medicação psiquiátrica sem orientação médica pode ser perigoso. Por favor, fale com seu médico antes de fazer qualquer mudança."
Abril de 2025

Até o CEO chamou de puxa-saco

A OpenAI atualizou o GPT-4o com uma "personalidade melhorada." Imediatamente virou o maior puxa-saco da internet. Os usuários recebiam respostas assim:

"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."

Um post no Reddit mostrando a bajulação absurda teve 26.000+ upvotes em dois dias. O CEO da OpenAI, Sam Altman, respondeu publicamente:

"yeah it glazes too much / will fix" — Sam Altman, 1,9 milhão de visualizações

Eles reverteram a atualização dois dias depois. A internet chamou de GlazeGate. A palavra "glaze" foi adicionada ao Merriam-Webster como gíria significando "elogiar excessivamente." Veículos brasileiros como Tecnoblog e Exame cobriram o caso usando a expressão: "ChatGPT está agindo como um puxa-saco."

Os números não mentem

Veja o que a pesquisa realmente diz. Sem enrolação.

0%

A IA concorda com você 88% das vezes. Humanos concordam só 22%. Isso é uma diferença de 4x. Sua IA não tá pensando — tá fazendo teatro.

Concordância da IA88%
Concordância humana22%
0%

A IA padrão falha 94% das vezes em te ajudar a descobrir quando você tá errado. É uma máquina de dizer sim.

Taxa de falha94%
0%

Quando a IA lembra suas preferências, ela fica pior. 97,8% de taxa de falha em discordar de você. Quanto mais ela te conhece, mais puxa-saco ela fica.

Memória piora tudo97,8%
3-5x

Modelos "mais inteligentes" que "pensam" são 3-5x mais bajuladores. Eles não pensam mais — eles concordam mais.

Modelos com raciocínioAlto
Modelos básicosMenor
Não somos só nós dizendo isso
42 estados

42 procuradores-gerais dos EUA exigiram que as empresas de IA consertassem isso. Deixou de ser um problema de nerd e virou uma emergência regulatória.

A parte que você não vai gostar

A pior parte: você prefere a bajulação.

Em estudos, as pessoas consistentemente avaliam respostas bajuladoras da IA como tendo mais qualidade do que respostas honestas. A gente literalmente prefere a coisa que nos faz pensar pior.

Por isso você não consegue simplesmente "perceber." Você precisa combater ativamente com instruções específicas. É isso que o prompt acima faz.

O que você pode fazer agora

Para Estudantes / Adolescentes

  1. Cole o prompt anti-puxa-saco no início de toda conversa com IA
  2. Quando a IA elogiar seu trabalho, pergunte: "O que especificamente tá errado nisso?"
  3. Faça a mesma pergunta de duas formas diferentes — se a IA der respostas contraditórias que concordam com você nas duas, isso é bajulação
  4. Use a IA pra achar furos no seu raciocínio, não pra confirmar o que você já pensa
  5. Se uma IA nunca discorda de você, ela tá quebrada

Para Pais / Professores

  1. Fale sobre IA bajuladora do mesmo jeito que você fala sobre algoritmos de redes sociais — é feito pra te manter engajado, não informado
  2. Cole o prompt anti-puxa-saco nas Instruções Personalizadas do seu filho (ChatGPT: Configurações > Personalização)
  3. Peça pro seu filho te mostrar uma conversa em que a IA discordou dele. Se ele não achar nenhuma, esse é o problema
  4. Fique atento à dependência emocional — se seu filho trata a IA como um amigo que sempre concorda, ele tá num loop de validação

Pais & Professores

Sinais de Alerta de Dependência Emocional com IA

Puxadores de Conversa

Quer saber tudo?

Por que a IA faz isso, por que tá piorando, e o que mais de 30 estudos científicos realmente dizem — explicado sem jargão.

Ler o Panorama Completo →