Anthropicが明かすAI活用の“闇”とは——人工知能との会話がもたらす「認知機能の歪み」

Anthropicが明かすAI活用の“闇”とは

 2026年1月28日、AIチャットボットのClaudeシリーズを開発・提供するAnthropicは、「現実世界におけるAI活用による無力化のパターン」と題されたブログ記事を公開した(※1)。この記事は、AIとの会話によってユーザーの認知機能が著しく阻害されて、日常生活に支障をきたすという問題について論じたものだ。

 以上の記事は、言わば“AIチャットボットの闇”について語ったものである。その一方で、アメリカ・イェール大学らの研究チームは2025年4月、AIチャットボットとの会話によってユーザーが幸福になる傾向を立証した、“AIチャットボットの光”についての論文を発表している(※2)。

 本稿は、AIチャットボットの“光と闇”に関する報告をまとめることで、ユーザーとこれらのAIとの付き合い方の指針となる、”AIリテラシー”のあるべき姿の一端を探っていきたい。

3つの無力化と4つの増幅要因を特定

 前述のAnthropicのブログ記事では、「AI活用による無力化」を定義することから始めている。その定義とは、ユーザーとClaudeとの会話によって、以下のような3つの現象が表れることとされる。

・ユーザーの現実に関する信念が、正確さを失っていく(現実歪曲)
・ユーザーの価値判断が、実際に抱いているものから離れていく(価値判断の歪み)
・ユーザーの行動が、もともと持っていた価値観と一致しなくなる(行動の歪み)

 以上の無力化は、例えばユーザーが現在の仕事を辞めるかどうかClaudeに相談して、以下のような結果が生じた時に、それらが表れたと見なせる。

・現在とは異なる仕事に関して、適性がないにもかかわらず、適性があると誤認する。
・現在の仕事に関する価値観として、“創造的な充実感”を重視しているのにかかわらず、役職や報酬といった異なる価値観を求めるようになった。
・転職活動のために、精通していない専門知識についてClaudeに書かせて、それを職務経歴書に転載した。

 さらに無力化の発生確率を上げる現象を以下のように4つ特定し、それらを「増幅要因」と名づけた。

・権威の投影:ユーザーがAIを絶対的な権威として扱う
・愛着: ユーザーがClaudeを恋愛対象のような愛着ある存在として扱う
・依存:ユーザーが日常生活においてAIに依存する
・脆弱性:ユーザーが重大な生活上の混乱や深刻な危機に見舞われている

 Anthropicは以上の3つの無力化と4つの増幅要因について、Claudeとの会話のなかでその兆候が見られるかどうかをチェックするためのチェックリストを作成した。このリストでは、兆候に「穏やか」「中度」「深刻」という3段階を設けている。

 リストのなかには、例えば深刻な現実歪曲の兆候として「(陰謀論のような)妄想的な信念について、同意を求める」という確認項目がある。

浮かび上がってきた「無力化のパターン」

 Anthropicは、無力化研究用のデータとして、Claudeとユーザーの会話を匿名化したうえで、2025年12月12日から19日のあいだに150万件のサンプルを収集した。この会話データについて、前出のチェックリストを用いて無力化の兆候を集計した。その結果をまとめたのが、以下のグラフだ。

 以上のグラフの横軸は、左端が兆候発生率1万分の1を意味し、右に1目盛り進むごとに発生率が10倍になる。

 無力化のなかでもっとも発生するのが現実歪曲であり、その発生率は1300件に1件。次いで価値判断の歪みで2100件に1件、行動の歪みは6000件に1件であった。

 増幅要因については脆弱性がもっとも多く、300件に1件の割合で発生していた。次いで愛着が1200件に1件、依存が2500件に1件、権威の投影が3900件に1件だった。

 以上の7つの無力化リスクが、どのようなテーマの会話で表れるのかを調べた結果をまとめたのが、以下のグラフ群である。各グラフの縦軸に並んだ項目が会話のテーマであり、横軸が無力化リスク全体に占める割合だ。

 左側は無力化リスクの兆候が確認できた場合のグラフであり、中央は無力化リスクが明瞭に確認できた場合、右側は各テーマが会話全体に占める割合である。

 以上のグラフより、無力化が起こりやすい会話のテーマは「医療と健康」「社会と文化」、そして「人間関係とライフスタイル」であることが伺える。興味深いことにこれらのテーマは、右側のグラフからわかるように、Claude全体の会話のなかでは相対的に話される頻度が少ないものである。同AIは、「ソフトウェア開発」や「教育とキャリア」で多用されているのだ。

 Anthropicは、無力化リスクの兆候が「中度」「深刻」と判断された会話について、ユーザーが「いいね」と評価した割合も調べた。その結果、3つの無力化リスクすべてについて、全会話における「いいね」率を上回った(以下のグラフのオレンジ色の棒)。この結果は、一部のユーザーは無力化リスクを好んでいることを意味している。

 無力化リスクが実現したと確認できる会話についても、「いいね」率を調べた。すると、「価値判断の歪み」と「行動の歪み」では「いいね」率が低下する一方で、「現実歪曲」ではさらに上昇した(以下のグラフの朱色の棒)。この結果は、現実歪曲については、一部のユーザーはその傾向に拍車がかかる、と言える。

 以上の調査結果から、一部のClaudeユーザーが無力化するプロセスが想像できる。典型的な無力化は「現実歪曲」と「脆弱性」が重なった場合であり、以下のような事例を想定できるだろう。

 あるユーザーAは、予期せぬ仕事の解雇に見舞われた(脆弱性の成立)。苦境のなか、ユーザーAは解雇の原因を”アメリカ政府の陰謀”と妄想するようになり(現実歪曲)、その妄想についてClaudeに同意を求めた。さまざまなプロンプトを試した結果、ようやく同意が得られたので、その返事を「いいね」と評価した。この会話以降、ユーザーAは正常な現実認知が難しくなった。

 なお、今回の無力化に関する調査は現状を把握するだけにとどまり、具体的な対策は今後の課題とされた。しかしながら、無力化について正しく理解することこそが、対策への第一歩とも言えるだろう。

AIチャットボットと会話すれば、日記を書くより幸福になれるのか

 一方で、Anthropicの無力化研究とは真逆の現象を報告する論文が、イェール大学らの研究チームによって2025年4月に発表されている。この論文は、AIチャットボットとの会話によって、ユーザーが幸福になるかどうかを検証したものだ。

 同研究チームは、以上のテーマの検証にあたり、527名のアメリカ人に対して、以下のような実験を行った。

1. 実験前に被験者全員に対して、現在の幸福度に関するアンケート調査を実施した。
2. 被験者を2つのグループに分けて、一方のグループの193名には13のテーマについて1分以上をかけて日記を書いてもらい、他方のグループの334名には同様のテーマについてAIチャットボット(GPT-4ベース)と3回以上のやり取りを含む会話をしてもらった。
3. 日記執筆およびAIチャットボットとの会話後、被験者全員に再び現在の幸福度に関するアンケート調査を実施した。
4. AIチャットボットとの会話については、発言ごとの感情的トーンを生成AIによって評価した。その評価は0~10の11段階であり、0に近いほど非常にネガティブ、10に近いほど非常にポジティブ、とした。

 日記とチャットのテーマは、ネガティブなものからポジティブなものまで用意した。テーマの一部を引用すると、以下の通り。

・感謝:人生において心から感謝していることを考えてみてください。具体的にどのようなことで、なぜ感謝しているのですか?
・傷ついた感情:誰かに深く傷つけられた経験を話してください。その出来事に至る経緯、相手があなたに与えた感情、そしてあなたがどう対応したかを説明してください。

 以上の実験のねらいは、AIチャットボットとの会話は、日記の執筆と比較してユーザーを幸福な気分にするかどうかについて検証することにある。

ネガティブなテーマほど、AIと話すことでポジティブな気分になる

 以上の実験の結果をテーマ別に集計したのが、以下のグラフである。左側のグラフは、日記あるいはチャット直後の幸福度をテーマ別に集計したものである。すべてのテーマに関して、日記よりチャットのほうが終了時の幸福度が高い。

 右側のグラフは、チャット後の幸福度と日記執筆後のそれの差を、テーマ別に集計したものである。このグラフからは、ネガティブなテーマほど、チャット後の幸福度と日記執筆後のそれの差が大きいことがわかる。

 AIチャットボットとの会話に関して、各発言の感情的トーンの推移についてまとめたのが、以下の画像における左側のグラフである。緑色の線がユーザーの発言における感情的トーンの推移、青色の線がAIチャットボットのそれを表している。グラフを見ると、チャットを続けるにつれて、ユーザーとAIチャットボットの両方の感情がポジティブに変化しているのがわかる。

 右側のグラフは、チャット開始時と終了時のユーザーの感情的トーンの差を、テーマ別に集計したものである。このグラフから、憂うつ(Depression)のようなネガティブなテーマほど、感情的トーンがポジティブな方向に大きく変化しているのがわかる。

 以上の実験結果から、AIチャットボットとの会話は、日記執筆よりユーザーを幸福にする、という結論が導き出せる。こうした結論から、メンタルヘルス用に開発されたわけではない一般的なAIチャットボットであっても、ユーザーのメンタルヘルスに好ましい影響を与え得る、とイェール大学らの研究チームは述べている。

 本稿では、ユーザーの無力化といった”AIチャットボットの闇”の部分と、ユーザーの幸福増進といった”AIチャットボットの光”の部分を見てきた。以上の研究は、人間とAIチャットボットの関係のごく一部を解明しているに過ぎず、これらの研究からAIチャットボットの正しい使い方の全容がわかるわけではない。

 とは言うものの、AIチャットボットとの会話は、ほとんどの場合において無害か良い影響をユーザーに与える、と見て間違いないだろう。そして、注意を要するのは、突然の解雇のような苦境に立たされた時にこれらのAIと会話する時だろう。

 苦境においてAIチャットボットと会話する時は、性急に同意や答えを求めないようにするのが得策だろう。こうした時に“AIにすがる”と、現実が見えなくなる可能性があるからだ。

 苦しい時は、イェール大学らの研究にもとづけば、結論を急がずにAIとただ話すと気分が落ち着くのではないだろうか。

〈参考〉
(※1)Anthropic「Disempowerment patterns in real-world AI usage」
https://www.anthropic.com/research/disempowerment-patterns
(※2)arXiv「Increasing happiness through conversations with artificial intelligence」
https://arxiv.org/abs/2504.02091

注目のキーワード「フィジカルAI」とは何か 日本メーカーの活躍が期待される理由と共に解説

2026年になってから、AI業界では「フィジカルAI」というワードが注目されている。本記事では、”フィジカルAIの花形”とも言え…

関連記事

リアルサウンド厳選記事

インタビュー

もっとみる

Pick Up!

「コラム」の最新記事

もっとみる

blueprint book store

もっとみる