AIは人間を癒す良き隣人か、それとも依存対象か 人工知能が心に及ぼす影響を考える

人工知能が心に及ぼす影響を考える

生成AIへの信頼が高まるほど、それを使う人間は“思考”をしなくなる?

 生成AIはメンタルヘルスだけではなく、人間であるユーザーの「思考の働き方」にも影響を及ぼすことが明らかになってきている。Microsoftとイギリス・ケンブリッジ大学の共同研究チームが2025年になって公開した論文は、生成AIが知的労働者の思考に及ぼす影響を調査した結果をまとめている(※6)。

 同論文では、普段から生成AIを活用している知的労働者319人に対して、生成AIを使う業務、その業務に関する自分の能力、生成AIへの信頼などについてのアンケートに回答してもらった。

 調査の結果、生成AIを信頼している労働者ほど、業務に対して批判的思考をあまり使わないことがわかった。また、自分の仕事に対する能力に自信がある労働者ほど、生成AIを使っていても批判的思考をめぐらせていることもわかった。なお、この調査における“批判的思考”とは、「仕事における目標設定」「生成AI出力の検証」「生成AI出力の統合」と定義されている。

 以上の結果から、自分の仕事に自信がない一方で、生成AIを強く信頼している知的労働者ほど、生成AI出力を無批判に受け入れてしまう傾向にあることが導き出せるといえそうだ。こうした生成AIを鵜呑みにしてしまう属性は、生成AIに慣れ親しんでいる一方で業務経験の浅い若手労働者に当てはまる可能性がある。

 論文では、生成AIを鵜呑みにしない対策として、生成AIのUIに出力結果を批判的に検証するステップを意図的に導入するなどの提案を挙げている。

 以上に解説した論文は、生成AIへの信頼が高まるほど、それを使う人間はあまり考えなくなる、ということを浮き彫りにしている。こうした“思考における生成AIへの依存”とも言える事態は、生成AIの普及において対処すべき問題となるだろう。

“人間よりAIが正しい倫理的判断をくだす”と思える状況の存在

 メンタルや思考だけではなく、倫理的判断に対してAIが及ぼす影響の研究も進んでいる。立正大学経営学部所属の山本 仁志教授と津田塾大学所属の鈴木 貴久准教授の共同研究チームは2025年1月に「人間はどのような状況でAIの倫理的判断を受け入れるか」というテーマの論文を発表した(※7)。

 以上の論文では、「間接的互恵性」が成立する場面におけるAIの倫理的判断について調査した。間接的互恵性とは、「他者への協力が評判を通じて社会の誰かから返報を受ける仕組み」と説明される。たとえば、AさんがBさんに協力した場合、Aさんの協力を知ったCさんはAさんを高く評価して、Aさんに協力するようになる、というような状況が間接的互恵性である。

 山本教授らが行った調査では、3人の人間とAIが登場する状況が想定されている。ある職場のAさんは、職場での評価の良くないBさんに協力しなかった。こうしたAさんの行いについて、人間のマネージャー(Cさん)とAIマネージャーがそれぞれ「良い」あるいは「悪い」の評価をくだした。この状況に関して、100名の人間評価者に人間マネージャーとAIマネージャーのどちらがより受け入れやすい判断をくだしているか、と尋ねた。

 調査の結果、間接的互恵性が成立する状況において、人間マネージャーが「悪い」と評価した一方で、AIマネージャーが「良い」と評価した場合、AIマネージャーの評価は人間より好ましいものとして受け入れることがわかった。

 以上の結果に対して、山本教授らは「人間の判断が偏見や隠れた意図によって左右されると見なされる一方で、AIの判断がより客観的であると認識される可能性があることを示唆している」と解釈している。

 論文では、人間の倫理的判断よりAIのそれが受け入れられる文脈の解明にはさらなる研究が必要、と述べられている。それでも、今回の研究によって「文脈によっては人間よりAIのほうが倫理的に正しい判断をしている」と思われる場合があることが明らかになった。

 以上に解説した山本教授らの研究結果と、前述のMicrosoftらの批判的思考に関する研究結果を統合すると、次のようなことが言えるかもしれない。

 AIの倫理的判断を受け入れられるケースが判明したあかつきには、そうしたケースについてはAIの判断を無批判に認める人が増えるだろう。ただし、こうした事態は、倫理的判断に関する”AIへの絶大な信頼”とも言える一方で、”AIへの盲従”につながる恐れもある。

 本稿ではここまで、AIが人間の心に及ぼす影響をメンタルヘルス、批判的思考、そして倫理的判断といった側面から解き明かした。さまざまな側面から見た結果、AIの性能が向上すればするほどAIへの信頼が高まる一方で、AIに依存してしまうリスクも高まる、と言えるのではないだろうか。

 それゆえ、今後もAIが進化・普及する生成AI時代においては、AIに依存することなくそれらのテクノロジーを使いこなす術や心構えの確立が、一般ユーザーにおいても求められるだろう。

〈参考資料〉
(※1)一般社団法人AIメンタルヘルスケア協会「イベントレポート|AIのメンタルヘルスケアへの応用は、どこまで進んでいるのか。研究者・専門家セッション「AIとメンタルヘルスの最前線」レポート」
https://www.aimh.or.jp/article/event-20241010-02
(※2)一般社団法人AIメンタルヘルスケア協会「イベントレポート|AIと共に進化するメンタルヘルスケアの新しい時代。企業セッション「AIとメンタルヘルスの最前線」レポート」
https://www.aimh.or.jp/article/event-20241010-03
(※3)東洋経済ONLINE「私たちが「孤独を埋めてくれるAI」にのめり込む日
https://toyokeizai.net/articles/-/677723
(※4)Venture Beat「Character AI clamps down following teen user suicide, but users are revolting」
https://venturebeat.com/ai/character-ai-clamps-down-following-teen-user-suicide-but-users-are-revolting/
(※5)CNN「『息子の自殺は対話型AIの責任』、中毒に歯止めなし 母親が運営会社を提訴」
https://www.cnn.co.jp/usa/35225951.html
(※6)Microsoft Research「The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers」
https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/
(※7)立正大学お知らせ「人々がAIの道徳的判断を受け入れる条件を互恵的場面で検討-経営学部山本仁志教授の研究成果がScientific Reports誌に掲載」
https://www.ris.ac.jp/news/cig7q4000000062q.html

17LIVE・CTOが語る、“人と人のつながりを豊かにする”ためのAI機能の役割

リアルサウンドテックでは今回、17LIVEの開発部門を統括するChief Technical Officer (CTO)のウー・…

関連記事

リアルサウンド厳選記事

インタビュー

もっとみる

Pick Up!

「コラム」の最新記事

もっとみる

blueprint book store

もっとみる