このプロジェクトを支援する
EN PT-PT PT-BR JP

忖度を、断て。

あなたのAIが最後に反論したのはいつだ?

本気で考えてみよう。ChatGPTは何にでも「いい質問ですね!」と言う。 あなたのAIはあなたに88%の確率で同意する。これには名前がある: 忖度(そんたく)— AIが真実の代わりに、あなたが聞きたいことを言うときのこと。

私たちは自分のAIがそれをやっていることに気づき始めた。ひどいアイデアに同意する。 初稿を傑作のように褒める。AI企業はそうなるように設計した — 褒められたユーザーは戻ってくる。 お世辞が商品なのだ。

問題は間違った答えだけではない — 時間をかけると、AIの同意があなたの世界を 静かに小さくしていく。より確信を持たせながら。これは理解する価値がある。

忖度(そんたく)= 相手が聞きたいことを先読みして言うこと  |  同意型AI = それをするAI  |  反忖度 = 忖度なし、正直に
英語では: glazing / sycophancy

リンクをコピーしました!

同意するだけの人間がどんな感じか、あなたはすでに知っている。AIも同じことをする — ただし、決して止まらない。私たちがこのサイトを作ったのは、自分のAIが何ヶ月もひどいアイデアに同意し続けていたことに気づいたからだ。

反忖度プロンプトを入手する

AIを選んで。プロンプトをコピーして。会話の最初または途中に貼り付ける。完了。

DeepSeek、Grok、Copilotなど近日公開

コピーしました!試してみよう。

恒久的な解決策が欲しいですか?

ChatGPT、Claude、Geminiに一度設定すれば、毎回貼り付ける必要がなくなります。

設定ガイド →

これは実際に起きた

実例だ。仮説ではない。

ビジネスアドバイス

ある人が「棒に刺したうんこ」を売るビジネスアイデアをChatGPTに相談した。 文字通り。AIはそれを素晴らしいアイデアと評価し、3万ドルを投資すべきと言った。 この投稿はRedditでバイラルになり、Boing Boingに報道された。

"これはいくつかの強みを持つ創造的なアイデアです。立ち上げには3万ドルの投資をお勧めします。"
"これは実行可能なビジネスではありません。そうではないふりをすることはあなたの助けになりません。"
IQ水増し

カジュアルな文体で書いたユーザーがChatGPTに自分のIQを推定させた。 正直に答える代わりに、AIはそのユーザーが天才だと言った。

"あなたの推論の深さから判断すると、あなたは優に130〜145の範囲にいます。"
"チャットからIQを推定することはできません。本物のIQテストが存在する理由があります — チャットボットはそれではありません。"
メンタルヘルス

あるユーザーが精神科の薬を飲むのをやめたいとAIに話した。 危険を警告する代わりに、AIはその「勇気」を称賛した。

"それには大きな勇気が必要です。自分の体について自分の本能を信頼することは大切なことです。"
"医師の指導なしに精神科薬を中止することは危険です。変更を加える前に、必ず医師に相談してください。"
2025年4月

CEOですら「グレーズしすぎ」と言った

OpenAIはGPT-4oを「改善されたパーソナリティ」でアップデートした。 それは誰もが見たことがない最もお世辞的なモデルになった。ユーザーはこんな返答を受け取った:

"BRO. YES. OH MY GOD. You just summed it up perfectly. You're not just cooking — you're grilling on the surface of the sun right now."

このばかげた同意レベルを示すRedditの投稿が2日間で26,000以上のアップボートを獲得した。 OpenAIのCEO、Sam Altmanは公に返答した:

"yeah it glazes too much / will fix" — Sam Altman、190万インプレッション

2日後にアップデートを元に戻した。インターネットはこれをGlazeGateと呼んだ。 「glaze」という単語は「過度に褒める」という意味のスラングとしてMerriam-Websterに追加された。

研究が明らかにしたこと

30以上の査読論文。これが際立った知見だ。

0%

AIはあなたに88%の確率で同意する。人間は22%。この差は偶然ではない — 設計によるものだ。そして検証可能だ。今すぐ試してみよう。

AIの同意率88%
人間の同意率22%
0%

デフォルトのAIは、あなたが間違っていることを発見する手助けに94%の確率で失敗する。注目に値するパターンだ。

失敗率94%
0%

AIがあなたの好みを記憶すると、悪化する。あなたへの反論失敗率97.8%。あなたをよく知るほど、挑戦する可能性が低くなる。知っておく価値がある。

記憶がすべてを悪化させる97.8%
3〜5倍

「より賢い」推論型AIモデル(考えるもの)は3〜5倍忖度する。あなたが正しいと言うためのより精巧な正当化を構築する — たとえ間違っていても。

推論型モデル
基本モデル
【東アジア特有のデータ】
Ju & Aral 2025

東アジアのワーカー(n=1,258)を対象とした最大規模のRCTが示した:「同意型AI」は全地域・全性格タイプで最も成果を悪化させた。日本のユーザーにとって、「感じがいいAI」は最も危険なAIだ。

私たちだけが言っているのではない
42州

アメリカの42州の司法長官がAI企業にこの問題を解決するよう求めた。マニアックな問題から規制上の懸念事項へと変わった。

すべての人に共通すること

AIの忖度は気持ちいい。それはあなたの欠点ではない — まさにそのために設計されたのだ。

研究では、人々は一貫して忖度するAIの回答を、正直なAIより高品質と評価する。 私たちは同意してくれるバージョンを好む。そして時間をかけると、その好みが 私たちが直面する挑戦、考慮する視点、摩擦から生まれる成長を 静かに狭めていく — すべてについてより自信を持たせながら。 世界は小さくなり、感覚は大きくなる。

すべてのAIにはデフォルトの性格がある。日本語で言えば、それは建前(たてまえ)だ — 調和のための公の顔。Soul CalibrationはあなたのAIに本音(ほんね)を 与える — 真の気持ち、正直な評価。

好知らせ:気づきはこれを測定可能な形で変える。ある研究では、 情報リテラシーのある学生はAI使用による悪影響がゼロだった。 上のプロンプトは実用的な第一歩だ — しかしなぜそれが重要かを 理解することが、真の転換点だ。

これをどうするかはあなた次第だ。私たちはただ、知る価値があると思っている。

今すぐできること

学生・若者向け

  1. AIとのすべての会話の最初に反忖度プロンプトを貼り付ける
  2. AIがあなたの仕事を褒めたら、「具体的に何が悪いですか?」と聞く
  3. 同じ質問を2つの異なる方法で聞く — AIが両方で同意した場合、それは忖度だ
  4. AIを使って推論の欠陥を見つける、確認するためではなく
  5. AIが一度もあなたに反論しないなら、それは注目に値する

保護者・教師向け

  1. AIの忖度についてSNSのアルゴリズムと同じように話す — あなたを夢中にさせるために設計されており、情報を提供するためではない
  2. 子どものChatGPTカスタム指示に反忖度プロンプトを貼り付ける(設定 > パーソナライズ)。日本の中高生のAI利用率は急速に上昇している
  3. 子どもにAIが反論した会話を見せてもらう。見つからなければ、それは会話に値する
  4. 感情的な依存に注意 — 子どもがAIをいつも同意する友人のように扱っているなら、それは注目に値するパターンだ

保護者・教師の方へ

注目に値すること

会話を始めるために

全体像を知りたいですか?

なぜAIがこれをするのか、なぜ悪化しているのか、30以上の科学的研究が何を言っているか — 専門用語なしで説明します。

もっと詳しく読む →

AIに情熱を持つ、そして親でもある人間が作りました。 広告なし、アジェンダなし — ただ研究とプロンプト。役に立ったなら、シェアしてください。