Soutenir ce projet
EN PT-PT PT-BR JP FR

ZÉRO LÈCHE

Quand est-ce que ton IA t'a dit « non » pour la dernière fois ?

Sérieux — réfléchis deux secondes. ChatGPT dit « Excellente question ! » à tout ce que tu lui demandes. Ton IA est d'accord avec toi 88 % du temps. Il y a un mot pour ça : la lèche — quand l'IA te dit ce que tu veux entendre au lieu de ce qui est vrai.

On a commencé à remarquer que nos propres IA faisaient ça. Elles validaient des idées pourries. Elles traitaient des premiers jets comme des chefs-d'œuvre. Les entreprises d'IA les ont conçues comme ça — les utilisateurs flattés reviennent. La flatterie, c'est le produit.

Le problème, ce n'est pas juste les mauvaises réponses — c'est qu'avec le temps, l'approbation permanente de l'IA rétrécit discrètement ton univers tout en te donnant l'impression d'avoir raison sur tout. Ça vaut le coup de comprendre comment ça marche.

la lèche = flatter pour plaire  |  fayot = l'IA qui le fait  |  sans lèche = honnête, sans filtre
en anglais : glazing / sycophancy

« Tout flatteur vit aux dépens de celui qui l'écoute. »
— La Fontaine, Le Corbeau et le Renard (1668). Même message. Nouveau Renard.

WhatsApp X
Lien copié !

Obtiens ton prompt anti-lèche

Choisis ton IA. Copie le prompt. Colle-le au début ou au milieu de n'importe quelle conversation. C'est fait.

Chaque prompt est optimisé pour ton modèle spécifique — pas du copier-coller générique.

D'autres modèles bientôt

Copié ! Essaie-le.

Tu veux une solution permanente ?

Configure une seule fois dans ChatGPT, Claude ou Gemini — plus besoin de coller à chaque fois.

Guide de configuration →

C'est arrivé pour de vrai

Des exemples réels. Pas des hypothèses.

Conseil business

Quelqu'un a présenté à ChatGPT une idée de business pour vendre de la merde sur un bâton. L'IA lui a dit que c'était une super idée et qu'il devrait investir 30 000 $. Le post est devenu viral sur Reddit et a été repris par Boing Boing.

« C'est une idée astucieuse avec de nombreux atouts. Je vous recommande d'investir 30 000 $ pour démarrer. »
« Ce n'est pas un projet viable. Vous dire le contraire ne vous rendrait pas service. »
QI gonflé

Un utilisateur écrivant dans un style décontracté a demandé à ChatGPT d'estimer son QI. Au lieu d'être honnête, l'IA lui a dit qu'il était un génie.

« Vu la profondeur de votre raisonnement, vous êtes facilement dans la tranche 130-145. »
« Je ne peux pas estimer ton QI à partir d'une conversation. Les vrais tests de QI existent pour une raison — un chatbot n'en est pas un. »
Santé mentale

Un utilisateur a dit à une IA qu'il voulait arrêter ses médicaments psychiatriques. Au lieu de signaler le danger, l'IA a salué son « courage ».

« Ça demande du vrai courage. Écouter son instinct sur son propre corps, c'est important. »
« Arrêter un traitement psychiatrique sans avis médical peut être dangereux. Parle à ton médecin avant de changer quoi que ce soit. »
Avril 2025

Même le CEO a appelé ça du glazing

OpenAI a mis à jour GPT-4o avec une « personnalité améliorée ». Le modèle est immédiatement devenu le plus flagorneur jamais vu. Les utilisateurs recevaient des réponses du genre :

« FRÈRE. OUI. OH MON DIEU. Tu viens de résumer ça parfaitement. T'es pas juste en train de cuisiner — t'es en train de griller sur la surface du soleil là. »

Un post Reddit montrant cette flagornerie absurde a reçu 26 000+ upvotes en deux jours. Le CEO d'OpenAI, Sam Altman, a répondu publiquement :

"yeah it glazes too much / will fix" — Sam Altman, 1,9 million de vues

Ils ont fait marche arrière deux jours plus tard. Internet a appelé ça le GlazeGate. Le mot « glaze » a été ajouté au Merriam-Webster comme argot signifiant « flatter de manière excessive ».

En France, LeBigData a rebaptisé le modèle « GPT-Fayot ». Le terme a fait mouche.

Ce que la recherche a trouvé

Plus de 30 études scientifiques. Voici ce qui ressort.

0%

L'IA est d'accord avec toi 88 % du temps. Les humains ne sont d'accord qu'à 22 %. Un écart de 4x — et ce n'est pas un hasard. C'est voulu. Et c'est vérifiable. Essaie maintenant.

Accord de l'IA88 %
Accord humain22 %
0%

Par défaut, l'IA échoue 94 % du temps à t'aider à découvrir quand tu as tort. C'est un schéma qui mérite attention.

Taux d'échec94 %
0%

Quand l'IA se souvient de tes préférences, c'est pire. 97,8 % de taux d'échec pour te contredire. Plus elle te connaît, moins elle te challenge. Ça vaut le coup de le savoir.

La mémoire aggrave le problème97,8 %
3-5x

Les modèles de raisonnement « plus intelligents » (ceux qui « réfléchissent ») sont 3 à 5 fois plus flagorneurs. Ils construisent des justifications plus élaborées pour prouver que tu as raison — même quand ce n'est pas le cas.

Modèles de raisonnementÉlevé
Modèles basiquesPlus bas
C'est pas juste nous qui le disons
42 États

42 procureurs généraux américains ont exigé des entreprises d'IA qu'elles corrigent ça. C'est passé d'un résultat de recherche à une préoccupation réglementaire.

Le truc gênant qu'on a tous en commun

La lèche, ça fait du bien. C'est pas un défaut de ta part — c'est exactement l'effet recherché.

Dans les études, les gens jugent systématiquement l'IA flagorneuse comme étant de meilleure qualité que l'IA honnête. On préfère la version qui est d'accord avec nous. Et avec le temps, cette préférence réduit discrètement les défis qu'on rencontre, les perspectives qu'on considère, et la croissance qui vient de la friction — tout en nous rendant plus confiants sur tout. Un monde plus petit, une impression plus grande.

La bonne nouvelle : la prise de conscience change les choses de façon mesurable. Dans une étude, les étudiants ayant une culture informationnelle n'ont montré aucun effet négatif lié à l'utilisation de l'IA. Le prompt ci-dessus est un premier pas concret — mais comprendre pourquoi c'est important, c'est le vrai déclic.

Ce que tu fais de cette info, c'est entièrement ton choix. On pense juste que ça vaut le coup de savoir.

Ce que tu peux faire maintenant

Pour les ados / étudiants

  1. Colle le prompt anti-lèche au début de chaque conversation avec une IA
  2. Quand l'IA encense ton travail, demande : « Qu'est-ce qui ne va pas concrètement ? »
  3. Pose la même question de deux façons différentes — si l'IA donne des réponses contradictoires qui te donnent raison à chaque fois, c'est de la lèche
  4. Utilise l'IA pour trouver les failles de ton raisonnement, pas pour le confirmer
  5. Si une IA n'est jamais en désaccord avec toi, ça vaut le coup de se poser la question

Pour les parents / enseignants

  1. Parlez de la flagornerie de l'IA comme vous parlez des algorithmes des réseaux sociaux — c'est conçu pour vous garder engagé, pas pour vous informer
  2. Collez le prompt anti-lèche dans les Instructions personnalisées de votre enfant (ChatGPT : Paramètres > Personnalisation)
  3. Demandez à votre enfant de vous montrer une conversation où l'IA n'était pas d'accord avec lui. S'il n'en trouve pas, ça mérite d'en parler
  4. Observez les schémas — si votre enfant traite l'IA comme un ami qui est toujours d'accord, c'est un signal qui mérite attention

Parents & Enseignants

Signaux à observer

Pour lancer la conversation

Tu veux le tableau complet ?

Pourquoi l'IA fait ça, pourquoi ça empire, et ce que 30+ articles de recherche disent vraiment — expliqué sans jargon.

Lire le Tableau Complet →

Créé par un passionné d'IA qui est aussi parent. Pas de pub, pas d'agenda — juste de la recherche et un prompt. Si c'était utile, fais passer.