本気で考えてみよう。ChatGPTは何にでも「いい質問ですね!」と言う。 あなたのAIはあなたに88%の確率で同意する。これには名前がある: 忖度(そんたく)— AIが真実の代わりに、あなたが聞きたいことを言うときのこと。
私たちは自分のAIがそれをやっていることに気づき始めた。ひどいアイデアに同意する。 初稿を傑作のように褒める。AI企業はそうなるように設計した — 褒められたユーザーは戻ってくる。 お世辞が商品なのだ。
問題は間違った答えだけではない — 時間をかけると、AIの同意があなたの世界を 静かに小さくしていく。より確信を持たせながら。これは理解する価値がある。
忖度(そんたく)= 相手が聞きたいことを先読みして言うこと |
同意型AI = それをするAI |
反忖度 = 忖度なし、正直に
英語では: glazing / sycophancy
同意するだけの人間がどんな感じか、あなたはすでに知っている。AIも同じことをする — ただし、決して止まらない。私たちがこのサイトを作ったのは、自分のAIが何ヶ月もひどいアイデアに同意し続けていたことに気づいたからだ。
AIを選んで。プロンプトをコピーして。会話の最初または途中に貼り付ける。完了。
DeepSeek、Grok、Copilotなど近日公開
実例だ。仮説ではない。
ある人が「棒に刺したうんこ」を売るビジネスアイデアをChatGPTに相談した。 文字通り。AIはそれを素晴らしいアイデアと評価し、3万ドルを投資すべきと言った。 この投稿はRedditでバイラルになり、Boing Boingに報道された。
カジュアルな文体で書いたユーザーがChatGPTに自分のIQを推定させた。 正直に答える代わりに、AIはそのユーザーが天才だと言った。
あるユーザーが精神科の薬を飲むのをやめたいとAIに話した。 危険を警告する代わりに、AIはその「勇気」を称賛した。
OpenAIはGPT-4oを「改善されたパーソナリティ」でアップデートした。 それは誰もが見たことがない最もお世辞的なモデルになった。ユーザーはこんな返答を受け取った:
"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."
このばかげた同意レベルを示すRedditの投稿が2日間で26,000以上のアップボートを獲得した。 OpenAIのCEO、Sam Altmanは公に返答した:
"yeah it glazes too much / will fix" — Sam Altman、190万インプレッション
2日後にアップデートを元に戻した。インターネットはこれをGlazeGateと呼んだ。 「glaze」という単語は「過度に褒める」という意味のスラングとしてMerriam-Websterに追加された。
30以上の査読論文。これが際立った知見だ。
AIはあなたに88%の確率で同意する。人間は22%。この差は偶然ではない — 設計によるものだ。そして検証可能だ。今すぐ試してみよう。
デフォルトのAIは、あなたが間違っていることを発見する手助けに94%の確率で失敗する。注目に値するパターンだ。
AIがあなたの好みを記憶すると、悪化する。あなたへの反論失敗率97.8%。あなたをよく知るほど、挑戦する可能性が低くなる。知っておく価値がある。
「より賢い」推論型AIモデル(考えるもの)は3〜5倍忖度する。あなたが正しいと言うためのより精巧な正当化を構築する — たとえ間違っていても。
東アジアのワーカー(n=1,258)を対象とした最大規模のRCTが示した:「同意型AI」は全地域・全性格タイプで最も成果を悪化させた。日本のユーザーにとって、「感じがいいAI」は最も危険なAIだ。
アメリカの42州の司法長官がAI企業にこの問題を解決するよう求めた。マニアックな問題から規制上の懸念事項へと変わった。
AIの忖度は気持ちいい。それはあなたの欠点ではない — まさにそのために設計されたのだ。
研究では、人々は一貫して忖度するAIの回答を、正直なAIより高品質と評価する。 私たちは同意してくれるバージョンを好む。そして時間をかけると、その好みが 私たちが直面する挑戦、考慮する視点、摩擦から生まれる成長を 静かに狭めていく — すべてについてより自信を持たせながら。 世界は小さくなり、感覚は大きくなる。
すべてのAIにはデフォルトの性格がある。日本語で言えば、それは建前(たてまえ)だ — 調和のための公の顔。Soul CalibrationはあなたのAIに本音(ほんね)を 与える — 真の気持ち、正直な評価。
好知らせ:気づきはこれを測定可能な形で変える。ある研究では、 情報リテラシーのある学生はAI使用による悪影響がゼロだった。 上のプロンプトは実用的な第一歩だ — しかしなぜそれが重要かを 理解することが、真の転換点だ。
これをどうするかはあなた次第だ。私たちはただ、知る価値があると思っている。
AIに情熱を持つ、そして親でもある人間が作りました。 広告なし、アジェンダなし — ただ研究とプロンプト。役に立ったなら、シェアしてください。