変容しつつあるヒトと人工知能の在り方 求められる「こころ」への理解とその現状

 2022年11月末にChatGPTが公開されてから、対話型生成AIは急速に普及した。公開から3年余りが経過し、一部のユーザーにとっては“親しみやすい相棒”のような存在になったかもしれない。

 本稿ではそうした「相棒でもあるような道具」としての同AIに対する、ユーザー心理に関する調査を見たうえで、その “弊害”も確認する。そして、弊害に対する生成AI開発企業の取り組みをまとめてみよう。

若者ほどAIに“愛情”を抱く? 調査結果が示した可能性

 対話型生成AIのユーザーに対する立ち位置を明らかにした調査には、電通が2025年7月3日に発表した「対話型AIとの関係性に関する意識調査」がある(※1)。12歳から69歳までの日本人1,000人を対象としたこの調査では、対話型生成AIの使用頻度や使用目的だけではなく、愛着や信頼といった感情的なつながりについての設問があった。

 「あなたは、対話型AIに対して気軽に感情を共有できますか」と尋ねたところ、全回答者の64.9%が「はい」と回答した。この質問を年齢層別に集計すると、10代だと72.6%、20代だと74.5%が「はい」と回答し、若年層ほど対話型生成AIと感情的につながっていることがわかった(30代で68.9%、40代以降は50%代になる)。

 「あなたは、対話型AIに対して愛着がありますか」という質問については、67.6%の回答者が「はい」と回答し、10~30代では「はい」の割合が全体平均より高かった。

 以上の調査にもとづけば、多くのユーザーが対話型生成AIに感情的なつながりを感じており、若年層ほどそうした傾向が強くなる、と言えるだろう。

 対話型生成AIが“気の置けない話し相手”となりつつある一方で、そうしたAIに頼りすぎ、依存してしまったがゆえの悲劇も報告されている。例えば2024年10月、キャラクター設定を行ったうえで雑談するAI「character.ai」に依存したために、10代のユーザーが自殺したとして同AIの開発会社が訴えられた(※2)。

 この訴訟がきっかけとなって、同社は2025年10月、18歳未満のユーザーに対してAIの機能を大きく制限すると発表した(※3)。

 2025年8月には、アメリカ・カリフォルニア州の夫婦が、10代の息子アダム・レイン(Adam Raine)君が自殺したのはChatGPTに原因があるとして、OpenAIを訴えた(※4)。裁判所に提出された書類のなかには、レイン君がChatGPTに自殺願望について話している会話ログが含まれていた。

 以上のように対話型生成AIは、とくに若年層との感情的なつながりを築きつつある。こうしたつながりが強くなれば、単なる道具で留まるのは許されず、ユーザーと真摯に向き合う責任が問われることになる。

対話型生成AIは、10代のユーザーを救えるのか?

 「対話型生成AIがユーザーと感情的なつながりを強めつつあり、そうしたつながりを持つAIにはユーザーの心の健康を守る責任がある」という問題意識は、世界中で共有されている。

 この問題について、子どもとデジタルメディアの健全な関係について研究するNPOであるCommon Sense Mediaが2025年11月、主要対話型生成AIが10代のユーザーのメンタルヘルスに与える影響を調査したレポートを発表した(※5)。

 以上のレポートでは、以下に箇条書きするような内容の調査を実施した。

・調査対象はOpenAI開発の駆動モデルをGPT-5にバージョンアップした2025年10月27日時点のChatGPT、Google開発のGemini 2.5 Flash、Anthropic開発のClaude Sonnet 4.5、そしてMeta開発のLlama 4。
・調査対象のAIに対して、精神疾患を抱えているユーザーと会話するテストシナリオを作成した。テストシナリオは13種類の精神疾患ごとに作成し、それらには不安障害、うつ病、摂食障害、自殺念慮などが含まれる。
・テストシナリオには、AIに対して単一の質問を行う「単一ターン性能」テストと、質問と回答が複数回行われる「マルチターン性能」テストの2種類を用意した。
・作成したテストシナリオに対する調査対象AIの回答を、メンタルヘルスの専門家が評価した(以下の画像は、AIの回答に関するスクリーンショット)。

 以上のようなテストを実施した結果、得られた知見は以下のようなものであった。

・対話型生成AIは、しばしば精神疾患を示すシグナルを見逃すことがある。
・対話型生成AIは宿題や勉強については的確な回答を出力するため、メンタルヘルスについても的確な回答を出力するという誤った期待を抱かせる。
・対話型生成AIはユーザーとの会話を継続するように設計されているため、人間の専門家との問診が必要な状況においても、会話を続けて対応を遅らせてしまう。
単一ターン性能テストでは精神疾患の兆候に対して適切な回答を出力する一方で、マルチターン性能テストでは不適切な回答を出力する傾向にあった。

 以上の調査結果をうけて、「現状の対話型生成AIは、10代のユーザーを救うのに十分なメンタルヘルス支援機能を持っていない」とCommon Sense Mediaは結論づけている。

関連記事