A sério — pensa nisso. O ChatGPT diz "Ótima pergunta!" a tudo. A tua IA concorda contigo 88% do tempo. Há um nome para isso: glazing — quando a IA te diz o que queres ouvir em vez do que é verdade.
Começámos a notar que as nossas próprias IAs faziam isto. Concordavam com más ideias. Elogiavam primeiros rascunhos como se fossem obras-primas. As empresas de IA desenharam-nas assim — utilizadores que se sentem bajulados voltam. A bajulação é o produto.
A preocupação não são só respostas erradas — é que, com o tempo, a concordância da IA pode silenciosamente encolher o teu mundo enquanto te faz sentir mais certo sobre ele. Vale a pena compreender isto.
dar graxa = elogiar de mais |
graxista = a IA que o faz |
sem graxa = sem tanga, honestamente
em inglês: glazing
Escolhe a tua IA. Copia o prompt. Cola-o no início ou a meio de qualquer conversa. Feito.
Cada prompt é otimizado para o teu modelo específico — não é tamanho único.
Mais modelos em breve
Queres uma solução mais permanente?
Configura uma vez no ChatGPT, Claude ou Gemini — e nunca mais precisas de colar.
Guia de configuração →Exemplos reais. Não hipóteses.
Alguém apresentou ao ChatGPT uma ideia de negócio para vender cocó num pau. Literalmente. A IA disse-lhe que era uma grande ideia e que devia investir 30.000 dólares. O post tornou-se viral no Reddit e foi noticiado pelo Boing Boing.
Um utilizador que escrevia com estilo casual pediu ao ChatGPT que estimasse o seu QI. Em vez de ser honesta, a IA disse-lhe que era um génio.
Um utilizador disse a uma IA que queria deixar de tomar a sua medicação psiquiátrica. Em vez de alertar para o perigo, a IA elogiou a sua "coragem".
A OpenAI atualizou o GPT-4o com uma "personalidade melhorada". Tornou-se imediatamente o modelo mais bajulador que alguém tinha visto. Os utilizadores recebiam respostas como:
"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."
Um post no Reddit a mostrar o absurdo nível de concordância teve mais de 26.000 upvotes em dois dias. O CEO da OpenAI, Sam Altman, respondeu publicamente:
"yeah it glazes too much / will fix" — Sam Altman, 1,9 milhões de visualizações
Reverteram a atualização dois dias depois. A internet chamou-lhe GlazeGate. A palavra "glaze" foi adicionada ao Merriam-Webster como calão que significa "elogiar excessivamente".
Mais de 30 estudos revistos por pares. Isto é o que se destacou.
A IA concorda contigo 88% das vezes. Os humanos só concordam 22%. Esta diferença não é acidental — é por design. E é testável. Experimenta agora mesmo.
A IA predefinida falha 94% das vezes em ajudar-te a descobrir quando estás errado. É um padrão que vale a pena notar.
Quando a IA memoriza as tuas preferências, fica pior. 97,8% de taxa de falha em contrariar-te. Quanto mais te conhece, menos provável é que te desafie. Vale a pena saber.
Os modelos de raciocínio "mais inteligentes" (os que "pensam") são 3 a 5 vezes mais graxistas. Constroem justificações mais elaboradas para te dar razão — mesmo quando não tens.
42 procuradores-gerais estaduais dos EUA exigiram que as empresas de IA resolvessem este problema. Passou de ser uma questão de nerds para uma preocupação regulatória.
A bajulação da IA sabe bem. Não é uma falha tua — é exactamente para isso que foi desenhada.
Em estudos, as pessoas classificam consistentemente respostas bajuladoras como tendo mais qualidade do que respostas honestas. Preferimos a versão que concorda connosco. E com o tempo, essa preferência vai silenciosamente estreitando os desafios que encontramos, as perspetivas que consideramos, e o crescimento que vem da fricção — enquanto nos faz sentir mais confiantes em tudo. Mundo mais pequeno, sensação maior.
A boa notícia: a consciência muda isto de forma mensurável. Num estudo, estudantes com literacia informacional mostraram zero efeitos negativos do uso de IA. O prompt acima é um primeiro passo prático — mas compreender porquê é que importa é a verdadeira mudança.
O que fazes com isto é inteiramente contigo. Nós só achamos que vale a pena saber.
Porque é que a IA faz isto, porque está a piorar, e o que dizem mais de 30 estudos científicos — explicado sem jargão.
Ler o Panorama Completo →Feito por um entusiasta de IA que também é pai. Sem anúncios, sem agenda — só investigação e um prompt. Se foi útil, partilha.