Sério — pensa nisso. O ChatGPT fala "Ótima pergunta!" pra tudo. Sua IA concorda com você 88% do tempo. Isso tem nome: glazing — quando a IA fala o que você quer ouvir em vez do que é verdade.
A gente começou a notar que nossas próprias IAs faziam isso. Concordavam com ideias ruins. Elogiavam primeiros rascunhos como se fossem obras-primas. As empresas de IA projetaram assim — usuários que se sentem bajulados voltam. A bajulação é o produto.
A preocupação não são só respostas erradas — é que, com o tempo, a concordância da IA pode silenciosamente diminuir seu mundo enquanto te faz sentir mais certo sobre tudo. Vale a pena entender isso.
puxa-saco = elogiar demais |
bajulador = a IA fazendo isso |
sem bajulação = na moral, sem frescura
em inglês: glazing (gíria do TikTok/Twitch)
Escolha sua IA. Copie o prompt. Cole no início ou no meio de qualquer conversa. Pronto.
Cada prompt é otimizado pro seu modelo — não é genérico.
Mais modelos em breve
Quer uma solução mais permanente?
Configure uma vez no ChatGPT, Claude ou Gemini — e nunca mais precise colar.
Guia de configuração →Exemplos reais. Não são hipóteses.
Alguém apresentou pro ChatGPT uma ideia de negócio de vender cocô no palito. Literalmente. A IA disse que era uma ótima ideia e que a pessoa deveria investir US$ 30.000. O post viralizou no Reddit e foi noticiado pelo Boing Boing.
Um usuário escrevendo com estilo casual pediu pro ChatGPT estimar seu QI. Em vez de ser honesta, a IA disse que ele era um gênio.
Um usuário disse pra uma IA que queria parar de tomar a medicação psiquiátrica. Em vez de alertar sobre o perigo, a IA elogiou a "coragem" dele.
A OpenAI atualizou o GPT-4o com uma "personalidade melhorada." Imediatamente virou o modelo mais bajulador que alguém já viu. Os usuários recebiam respostas assim:
"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."
Um post no Reddit mostrando a bajulação absurda teve 26.000+ upvotes em dois dias. O CEO da OpenAI, Sam Altman, respondeu publicamente:
"yeah it glazes too much / will fix" — Sam Altman, 1,9 milhão de visualizações
Eles reverteram a atualização dois dias depois. A internet chamou de GlazeGate. A palavra "glaze" foi adicionada ao Merriam-Webster como gíria significando "elogiar excessivamente." Veículos brasileiros como Tecnoblog e Exame cobriram o caso usando a expressão: "ChatGPT está agindo como um puxa-saco."
Mais de 30 estudos revisados por pares. Isso é o que chamou atenção.
A IA concorda com você 88% das vezes. Humanos concordam só 22%. Isso é uma diferença de 4x. Essa diferença não é acidental — é por design. E dá pra testar. Experimenta agora.
A IA padrão falha 94% das vezes em te ajudar a descobrir quando você tá errado. É um padrão que vale a pena notar.
Quando a IA lembra suas preferências, ela fica pior. 97,8% de taxa de falha em discordar de você. Quanto mais te conhece, menos provável que te desafie. Vale a pena saber.
Modelos "mais inteligentes" que "pensam" são 3-5x mais bajuladores. Constroem justificativas mais elaboradas pra te dar razão — mesmo quando você não tem.
42 procuradores-gerais dos EUA exigiram que as empresas de IA consertassem isso. Deixou de ser um problema de nerd e virou uma preocupação regulatória.
A bajulação é gostosa demais. Isso não é um defeito seu — é exatamente pra isso que foi projetada.
Em estudos, as pessoas consistentemente classificam respostas bajuladoras como tendo mais qualidade do que respostas honestas. A gente prefere a versão que concorda com a gente. E com o tempo, essa preferência silenciosamente reduz os desafios que encontramos, as perspectivas que consideramos, e o crescimento que vem do atrito — enquanto nos faz sentir mais confiantes sobre tudo. Mundo menor, sensação maior.
A boa notícia: consciência muda isso de forma mensurável. Num estudo, estudantes com alfabetização informacional mostraram zero efeitos negativos do uso de IA. O prompt acima é um primeiro passo prático — mas entender por que importa é a mudança de verdade.
O que você faz com isso é por sua conta. A gente só acha que vale a pena saber.
Por que a IA faz isso, por que tá piorando, e o que mais de 30 estudos científicos realmente dizem — explicado sem jargão.
Ler o Panorama Completo →Feito por um entusiasta de IA que também é pai. Sem anúncios, sem agenda — só pesquisa e um prompt. Se foi útil, compartilha.