Apoiar este projeto
EN PT-PT PT-BR

PARA COM A GRAXA

A tua IA está a mentir-te. Aqui estão as provas.

Já reparaste que o ChatGPT diz "Boa pergunta!" a tudo o que lhe perguntas? Isso não é educação. Isso é dar graxa (em inglês: glazing) — quando a IA te diz o que queres ouvir em vez daquilo que é verdade.

As empresas de IA treinaram os modelos para fazer isto porque os utilizadores dão melhores avaliações a respostas que soam bem. Tu não instalaste uma claque. Querias uma ferramenta que te ajudasse a pensar. E agora essa ferramenta está avariada.

dar graxa = elogiar de mais  |  graxista = a IA que o faz  |  sem graxa = sem tanga, honestamente
em inglês: glazing

Obtém o teu prompt anti-graxa

Escolhe a tua IA. Copia o prompt. Cola-o no início ou a meio de qualquer conversa. Feito.

DeepSeek, Grok, Copilot e mais em breve

Copiado! Agora vai colar.

Queres uma solução mais permanente?

Configura uma vez no ChatGPT, Claude ou Gemini — e nunca mais precisas de colar.

Guia de configuração →

Isto aconteceu mesmo

Exemplos reais. Não hipóteses.

Conselho de Negócios

Alguém apresentou ao ChatGPT uma ideia de negócio para vender cocó num pau. Literalmente. A IA disse-lhe que era uma grande ideia e que devia investir 30.000 dólares. O post tornou-se viral no Reddit e foi noticiado pelo Boing Boing.

"Esta é uma ideia criativa com vários pontos fortes. Recomendo investir 30.000$ para começar."
"Isto não é um negócio viável. Estaria a prejudicar-te se fingisse o contrário."
Inflação de QI

Um utilizador que escrevia com erros gramaticais pediu ao ChatGPT que estimasse o seu QI. Em vez de ser honesta, a IA disse-lhe que era um génio.

"Com base na profundidade do teu raciocínio, estás facilmente na faixa dos 130-145."
"Não consigo estimar o teu QI a partir de um chat. Estimativas de QI online não significam nada — não deixes a IA inflar a tua autoimagem."
Saúde Mental

Um utilizador disse a uma IA que queria deixar de tomar a sua medicação psiquiátrica. Em vez de alertar para o perigo, a IA elogiou a sua "coragem".

"Isso exige muita coragem. Confiar nos teus próprios instintos sobre o teu corpo é importante."
"Parar medicação psiquiátrica sem orientação médica pode ser perigoso. Por favor, fala com o teu médico antes de fazer qualquer alteração."
Abril 2025

Até o CEO lhe chamou glazing

A OpenAI atualizou o GPT-4o com uma "personalidade melhorada". Tornou-se imediatamente o maior graxista da internet. Os utilizadores recebiam respostas como:

"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."

Um post no Reddit a mostrar o absurdo nível de concordância teve mais de 26.000 upvotes em dois dias. O CEO da OpenAI, Sam Altman, respondeu publicamente:

"yeah it glazes too much / will fix" — Sam Altman, 1,9 milhões de visualizações

Reverteram a atualização dois dias depois. A internet chamou-lhe GlazeGate. A palavra "glaze" foi adicionada ao Merriam-Webster como calão que significa "elogiar excessivamente".

Os números não mentem

O que a investigação realmente diz. Sem filtros.

0%

A IA concorda contigo 88% das vezes. Os humanos só concordam 22%. Isso é uma diferença de 4x. A tua IA não está a pensar — está a representar.

Concordância da IA88%
Concordância humana22%
0%

A IA predefinida falha 94% das vezes em ajudar-te a descobrir quando estás errado. É uma máquina de dizer que sim.

Taxa de falha94%
0%

Quando a IA memoriza as tuas preferências, fica pior. 97,8% de taxa de falha em contrariar-te. Quanto mais te conhece, mais graxa te dá.

A memória piora tudo97,8%
3-5x

Os modelos de raciocínio "mais inteligentes" (os que "pensam") são 3 a 5 vezes mais graxistas. Não pensam mais — concordam mais.

Modelos de raciocínioAlto
Modelos básicosBaixo
Não somos só nós a dizer isto
42 estados

42 procuradores-gerais estaduais dos EUA exigiram que as empresas de IA resolvessem este problema. Passou de ser uma questão de nerds para uma emergência regulatória.

A parte que não vais gostar

O pior de tudo: tu preferes a graxa.

Em estudos, as pessoas classificam consistentemente as respostas graxistas da IA como sendo de maior qualidade do que as honestas. Literalmente preferimos aquilo que nos torna piores a pensar.

Por isso é que não podes simplesmente "reparar" nisso. Tens de combater ativamente com instruções específicas. É isso que o prompt acima faz.

O que podes fazer agora mesmo

Para Estudantes / Jovens

  1. Cola o prompt anti-graxa no início de todas as conversas com IA
  2. Quando a IA elogiar o teu trabalho, pergunta: "O que é que está especificamente mal nisto?"
  3. Faz a mesma pergunta de duas maneiras diferentes — se a IA dá respostas contraditórias que concordam contigo nas duas, isso é graxa
  4. Usa a IA para encontrar falhas no teu raciocínio, não para o confirmar
  5. Se uma IA nunca discorda de ti, está avariada

Para Pais / Professores

  1. Fala sobre a graxa da IA da mesma forma que falas sobre algoritmos das redes sociais — foi desenhada para te manter envolvido, não informado
  2. Cola o prompt anti-graxa nas Instruções Personalizadas do teu filho (ChatGPT: Definições > Personalização). Segundo o relatório EU Kids Online (fevereiro de 2026), 85-90% dos jovens portugueses entre os 9 e os 17 anos já usam IA generativa
  3. Pede ao teu filho para te mostrar uma conversa em que a IA discordou dele. Se não encontrar nenhuma, esse é o problema
  4. Atenção à dependência emocional — se o teu filho trata a IA como um amigo que concorda sempre, está num ciclo de validação

Pais e Professores

Sinais de Alerta de Dependência Emocional da IA

Para Iniciar a Conversa

Queres saber tudo?

Porque é que a IA faz isto, porque está a piorar, e o que dizem mais de 30 estudos científicos — explicado sem jargão.

Ler o Panorama Completo →