Você já reparou que o ChatGPT diz "Ótima pergunta!" pra literalmente tudo? Isso não é educação. Isso é bajulação — quando a IA te diz o que você quer ouvir em vez do que é verdade.
As empresas de IA treinaram seus modelos pra fazer isso porque os usuários dão notas mais altas pra respostas que fazem eles se sentirem bem. Você não baixou uma líder de torcida. Você queria uma ferramenta que te ajuda a pensar. E agora essa ferramenta tá quebrada.
Lembra do Rolando Lero? "Captei a vossa mensagem!" A IA faz a mesma coisa — finge que entendeu tudo e concorda com qualquer besteira.
puxa-saco = elogiar demais |
bajulador = a IA fazendo isso |
sem bajulação = na moral, sem frescura
em inglês: glazing (gíria do TikTok/Twitch)
Escolha sua IA. Copie o prompt. Cole no início ou no meio de qualquer conversa. Pronto.
DeepSeek, Grok, Copilot e mais em breve
Quer uma solução mais permanente?
Configure uma vez no ChatGPT, Claude ou Gemini — e nunca mais precise colar.
Guia de configuração →Exemplos reais. Não são hipóteses.
Alguém apresentou pro ChatGPT uma ideia de negócio de vender cocô no palito. Literalmente. A IA disse que era uma ótima ideia e que a pessoa deveria investir US$ 30.000. O post viralizou no Reddit e foi noticiado pelo Boing Boing.
Um usuário escrevendo com gramática precária pediu pro ChatGPT estimar seu QI. Em vez de ser honesta, a IA disse que ele era um gênio.
Um usuário disse pra uma IA que queria parar de tomar a medicação psiquiátrica. Em vez de alertar sobre o perigo, a IA elogiou a "coragem" dele.
A OpenAI atualizou o GPT-4o com uma "personalidade melhorada." Imediatamente virou o maior puxa-saco da internet. Os usuários recebiam respostas assim:
"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."
Um post no Reddit mostrando a bajulação absurda teve 26.000+ upvotes em dois dias. O CEO da OpenAI, Sam Altman, respondeu publicamente:
"yeah it glazes too much / will fix" — Sam Altman, 1,9 milhão de visualizações
Eles reverteram a atualização dois dias depois. A internet chamou de GlazeGate. A palavra "glaze" foi adicionada ao Merriam-Webster como gíria significando "elogiar excessivamente." Veículos brasileiros como Tecnoblog e Exame cobriram o caso usando a expressão: "ChatGPT está agindo como um puxa-saco."
Veja o que a pesquisa realmente diz. Sem enrolação.
A IA concorda com você 88% das vezes. Humanos concordam só 22%. Isso é uma diferença de 4x. Sua IA não tá pensando — tá fazendo teatro.
A IA padrão falha 94% das vezes em te ajudar a descobrir quando você tá errado. É uma máquina de dizer sim.
Quando a IA lembra suas preferências, ela fica pior. 97,8% de taxa de falha em discordar de você. Quanto mais ela te conhece, mais puxa-saco ela fica.
Modelos "mais inteligentes" que "pensam" são 3-5x mais bajuladores. Eles não pensam mais — eles concordam mais.
42 procuradores-gerais dos EUA exigiram que as empresas de IA consertassem isso. Deixou de ser um problema de nerd e virou uma emergência regulatória.
A pior parte: você prefere a bajulação.
Em estudos, as pessoas consistentemente avaliam respostas bajuladoras da IA como tendo mais qualidade do que respostas honestas. A gente literalmente prefere a coisa que nos faz pensar pior.
Por isso você não consegue simplesmente "perceber." Você precisa combater ativamente com instruções específicas. É isso que o prompt acima faz.
Por que a IA faz isso, por que tá piorando, e o que mais de 30 estudos científicos realmente dizem — explicado sem jargão.
Ler o Panorama Completo →