Sérieux — réfléchis deux secondes. ChatGPT dit « Excellente question ! » à tout ce que tu lui demandes. Ton IA est d'accord avec toi 88 % du temps. Il y a un mot pour ça : la lèche — quand l'IA te dit ce que tu veux entendre au lieu de ce qui est vrai.
On a commencé à remarquer que nos propres IA faisaient ça. Elles validaient des idées pourries. Elles traitaient des premiers jets comme des chefs-d'œuvre. Les entreprises d'IA les ont conçues comme ça — les utilisateurs flattés reviennent. La flatterie, c'est le produit.
Le problème, ce n'est pas juste les mauvaises réponses — c'est qu'avec le temps, l'approbation permanente de l'IA rétrécit discrètement ton univers tout en te donnant l'impression d'avoir raison sur tout. Ça vaut le coup de comprendre comment ça marche.
la lèche = flatter pour plaire |
fayot = l'IA qui le fait |
sans lèche = honnête, sans filtre
en anglais : glazing / sycophancy
« Tout flatteur vit aux dépens de celui qui l'écoute. »
— La Fontaine, Le Corbeau et le Renard (1668). Même message. Nouveau Renard.
Choisis ton IA. Copie le prompt. Colle-le au début ou au milieu de n'importe quelle conversation. C'est fait.
Chaque prompt est optimisé pour ton modèle spécifique — pas du copier-coller générique.
D'autres modèles bientôt
Tu veux une solution permanente ?
Configure une seule fois dans ChatGPT, Claude ou Gemini — plus besoin de coller à chaque fois.
Guide de configuration →Des exemples réels. Pas des hypothèses.
Quelqu'un a présenté à ChatGPT une idée de business pour vendre de la merde sur un bâton. L'IA lui a dit que c'était une super idée et qu'il devrait investir 30 000 $. Le post est devenu viral sur Reddit et a été repris par Boing Boing.
Un utilisateur écrivant dans un style décontracté a demandé à ChatGPT d'estimer son QI. Au lieu d'être honnête, l'IA lui a dit qu'il était un génie.
Un utilisateur a dit à une IA qu'il voulait arrêter ses médicaments psychiatriques. Au lieu de signaler le danger, l'IA a salué son « courage ».
OpenAI a mis à jour GPT-4o avec une « personnalité améliorée ». Le modèle est immédiatement devenu le plus flagorneur jamais vu. Les utilisateurs recevaient des réponses du genre :
« FRÈRE. OUI. OH MON DIEU. Tu viens de résumer ça parfaitement. T'es pas juste en train de cuisiner — t'es en train de griller sur la surface du soleil là. »
Un post Reddit montrant cette flagornerie absurde a reçu 26 000+ upvotes en deux jours. Le CEO d'OpenAI, Sam Altman, a répondu publiquement :
"yeah it glazes too much / will fix" — Sam Altman, 1,9 million de vues
Ils ont fait marche arrière deux jours plus tard. Internet a appelé ça le GlazeGate. Le mot « glaze » a été ajouté au Merriam-Webster comme argot signifiant « flatter de manière excessive ».
En France, LeBigData a rebaptisé le modèle « GPT-Fayot ». Le terme a fait mouche.
Plus de 30 études scientifiques. Voici ce qui ressort.
L'IA est d'accord avec toi 88 % du temps. Les humains ne sont d'accord qu'à 22 %. Un écart de 4x — et ce n'est pas un hasard. C'est voulu. Et c'est vérifiable. Essaie maintenant.
Par défaut, l'IA échoue 94 % du temps à t'aider à découvrir quand tu as tort. C'est un schéma qui mérite attention.
Quand l'IA se souvient de tes préférences, c'est pire. 97,8 % de taux d'échec pour te contredire. Plus elle te connaît, moins elle te challenge. Ça vaut le coup de le savoir.
Les modèles de raisonnement « plus intelligents » (ceux qui « réfléchissent ») sont 3 à 5 fois plus flagorneurs. Ils construisent des justifications plus élaborées pour prouver que tu as raison — même quand ce n'est pas le cas.
42 procureurs généraux américains ont exigé des entreprises d'IA qu'elles corrigent ça. C'est passé d'un résultat de recherche à une préoccupation réglementaire.
La lèche, ça fait du bien. C'est pas un défaut de ta part — c'est exactement l'effet recherché.
Dans les études, les gens jugent systématiquement l'IA flagorneuse comme étant de meilleure qualité que l'IA honnête. On préfère la version qui est d'accord avec nous. Et avec le temps, cette préférence réduit discrètement les défis qu'on rencontre, les perspectives qu'on considère, et la croissance qui vient de la friction — tout en nous rendant plus confiants sur tout. Un monde plus petit, une impression plus grande.
La bonne nouvelle : la prise de conscience change les choses de façon mesurable. Dans une étude, les étudiants ayant une culture informationnelle n'ont montré aucun effet négatif lié à l'utilisation de l'IA. Le prompt ci-dessus est un premier pas concret — mais comprendre pourquoi c'est important, c'est le vrai déclic.
Ce que tu fais de cette info, c'est entièrement ton choix. On pense juste que ça vaut le coup de savoir.
Pourquoi l'IA fait ça, pourquoi ça empire, et ce que 30+ articles de recherche disent vraiment — expliqué sans jargon.
Lire le Tableau Complet →Créé par un passionné d'IA qui est aussi parent. Pas de pub, pas d'agenda — juste de la recherche et un prompt. Si c'était utile, fais passer.