Já reparaste que o ChatGPT diz "Boa pergunta!" a tudo o que lhe perguntas? Isso não é educação. Isso é dar graxa (em inglês: glazing) — quando a IA te diz o que queres ouvir em vez daquilo que é verdade.
As empresas de IA treinaram os modelos para fazer isto porque os utilizadores dão melhores avaliações a respostas que soam bem. Tu não instalaste uma claque. Querias uma ferramenta que te ajudasse a pensar. E agora essa ferramenta está avariada.
dar graxa = elogiar de mais |
graxista = a IA que o faz |
sem graxa = sem tanga, honestamente
em inglês: glazing
Escolhe a tua IA. Copia o prompt. Cola-o no início ou a meio de qualquer conversa. Feito.
DeepSeek, Grok, Copilot e mais em breve
Queres uma solução mais permanente?
Configura uma vez no ChatGPT, Claude ou Gemini — e nunca mais precisas de colar.
Guia de configuração →Exemplos reais. Não hipóteses.
Alguém apresentou ao ChatGPT uma ideia de negócio para vender cocó num pau. Literalmente. A IA disse-lhe que era uma grande ideia e que devia investir 30.000 dólares. O post tornou-se viral no Reddit e foi noticiado pelo Boing Boing.
Um utilizador que escrevia com erros gramaticais pediu ao ChatGPT que estimasse o seu QI. Em vez de ser honesta, a IA disse-lhe que era um génio.
Um utilizador disse a uma IA que queria deixar de tomar a sua medicação psiquiátrica. Em vez de alertar para o perigo, a IA elogiou a sua "coragem".
A OpenAI atualizou o GPT-4o com uma "personalidade melhorada". Tornou-se imediatamente o maior graxista da internet. Os utilizadores recebiam respostas como:
"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."
Um post no Reddit a mostrar o absurdo nível de concordância teve mais de 26.000 upvotes em dois dias. O CEO da OpenAI, Sam Altman, respondeu publicamente:
"yeah it glazes too much / will fix" — Sam Altman, 1,9 milhões de visualizações
Reverteram a atualização dois dias depois. A internet chamou-lhe GlazeGate. A palavra "glaze" foi adicionada ao Merriam-Webster como calão que significa "elogiar excessivamente".
O que a investigação realmente diz. Sem filtros.
A IA concorda contigo 88% das vezes. Os humanos só concordam 22%. Isso é uma diferença de 4x. A tua IA não está a pensar — está a representar.
A IA predefinida falha 94% das vezes em ajudar-te a descobrir quando estás errado. É uma máquina de dizer que sim.
Quando a IA memoriza as tuas preferências, fica pior. 97,8% de taxa de falha em contrariar-te. Quanto mais te conhece, mais graxa te dá.
Os modelos de raciocínio "mais inteligentes" (os que "pensam") são 3 a 5 vezes mais graxistas. Não pensam mais — concordam mais.
42 procuradores-gerais estaduais dos EUA exigiram que as empresas de IA resolvessem este problema. Passou de ser uma questão de nerds para uma emergência regulatória.
O pior de tudo: tu preferes a graxa.
Em estudos, as pessoas classificam consistentemente as respostas graxistas da IA como sendo de maior qualidade do que as honestas. Literalmente preferimos aquilo que nos torna piores a pensar.
Por isso é que não podes simplesmente "reparar" nisso. Tens de combater ativamente com instruções específicas. É isso que o prompt acima faz.
Porque é que a IA faz isto, porque está a piorar, e o que dizem mais de 30 estudos científicos — explicado sem jargão.
Ler o Panorama Completo →