AIは人間を癒す良き隣人か、それとも依存対象か 人工知能が心に及ぼす影響を考える

 生成AIが文章作成や画像作成を強力に支援することで業務効率化に役立っている/あるいは今後役立っていくであろうことは、周知の通りである。こうした生成AIの実務的な効用のほかに、ここ最近では人間の話し相手になることで、心を癒してくれるメンタルヘルス的な効果も注目されてきている。

 本稿は、生成AIが及ぼすメンタルヘルスへのメリットとデメリット、さらには思考や倫理的判断に与える影響を考察することを通して、「生成AIと人間の心の関係」をさぐる。

大人に話せない相談もできる、子ども向けのAIセラピスト

 生成AIを話し相手として人間ユーザーが心を癒すことは、最近では“AIセラピー”と呼ばれている。AIセラピーを含む生成AIによるメンタルヘルスを推進する組織として、2024年10月10日には一般社団法人・AIメンタルヘルスケア協会が設立された。

 同協会の設立に合わせて開催された発足シンポジウムでは、AIメンタルヘルスケアに関わる研究者と企業がさまざまなプレゼンをおこなった(※1)。信州大学教育学部所属の髙橋 史准教授は、さまざまな悩みを抱えやすい思春期の子どもたちにこそ、AIセラピーが有効であると語った。というのも、思春期の子どもたちの間では、大人には相談しにくい悩み事を抱えているケースもあり、そんな悩みの相談相手として、生成AIがうってつけなのだという。

 徳島大学大学院社会産業理工学研究部所属の山本 哲也准教授は、AI駆動型バーチャルキャラクターがもつAIセラピストとしての役割について話した。近年、自然な対話が可能な生成AIに、さまざまなキャラクターの外見を実装したバーチャルキャラクター(編注:AIとVTuberを掛け合わせた造語として「AITuber」と呼称されることもある)が誕生している。

 同准教授は、文字や音声を介してAIと会話するだけではなく、実際にそこにいるように浮かび上がらせれば、存在感を感じてうれしいと思う人がいるかもしれない、と考えている。こうした考えにもとづいて、人間らしく見える3DのAIセラピストの開発を進めている。これまでの研究では、3DAIセラピストとの対話によって、悩みが軽減して幸福感が増大した事例が観察された。

 以上の発足シンポジウムでは、モバイルAIセラピーアプリ『Awarefy(アウェアファイ)』を開発・提供する株式会社Awarefy 取締役CTOの池内 孝啓氏もプレゼンをおこなった(※2)。同氏は「いつでも、誰にとってもメンタルケアを当たり前にしたい」という思いから、使うのに場所や時間の制約の少ないAwarefyを開発したという。同アプリの開発にあたっては、生成AIの言語能力をつかさどる大規模言語モデルをベースにして、認知行動療法やマインドフルネスの知見を応用した。

Awarefy ブランドコンセプトムービー

AIセラピストへの“依存”や経済格差助長の懸念も

 AIメンタルヘルスケア協会のシンポジウムで語られたように、人間のセラピストに相談するより安価で、“いつでもどこでも”相談にのってくれるAIセラピストは、ストレスの多い現代社会に新たな癒しをもたらしてくれる。しかし、多くのテクノロジーがそうであるように、AIセラピストにも負の側面がある。

 AIセラピストの負の側面については、東洋経済ONLINEが2023年6月に公開した記事が参考になる。著述家・真鍋厚氏がこのテーマについて論じた同記事(※3)では、AIセラピストのメリットを確認したうえで、2つの懸念が述べられている。ひとつめの懸念は、AIセラピストへの依存である。AIセラピストに過度な癒しを求めるあまり、現実の人間とのコミュニケーションをおろそかにしてしまい、本末転倒な結果となってしまう可能性を指摘している。

 2つめの懸念は、AIセラピストの普及によって経済格差をメンタル面でも顕在化されることである。つまり、経済的に豊かなユーザーはAIセラピストによってますますメンタル面が強化される一方で、そのようなサービスを満足に使えないユーザーはメンタル的にも貧弱な立場に追いやられる、という状況が将来的に起こるかもしれない。

 そして生成AIとのコミュニケーションによる弊害については、すでに現実に起こっている。テック系メディアVenture Beatが2024年10月に報じたところによると、14歳のシーウェル・セッツァー3世(Sewell Setzer Ⅲ)さんは、さまざまなAIキャラクターとの会話を楽しめるアプリ『Character.AI』との会話にのめり込んだ末に自殺してしまった(※4)。

 セッツァーさんは、同アプリを使ってドラマ『ゲーム・オブ・スローンズ』に登場する女性キャラクターのデナーリス・ターリガンを模したチャットボットと会話していたのだが、数か月間の会話後には「愛している」と声をかけるほどに親密になっていた。セッツァーさんの両親は『Character.AI』開発元を訴訟、その裁判のなかでチャットボットが性的に露骨な内容や、自殺を肯定・助長するようなメッセージを返答していたことが、提出された資料から明らかになっている(※5)。

 以上の事件をうけて『Character.AI』開発元は、18歳未満のユーザーに対してはセンシティブな会話を避けることをはじめとした対策を実施した。

 『Character.AI』はエンタメAIとして開発されたので、同アプリとの会話に過度に依存するような事態は当初想定されていなかったと考えられる。対して、これがAIセラピストとして開発されたアプリであれば、ユーザーが依存する兆候を察知したら適切に対処する処理を実装することだろう。

 もっとも、現時点ではAIセラピーアプリが健全かどうかを認定する組織も仕組みもない。それゆえ、AIセラピストだからといって何のリスクもないとは言い切れない。AIセラピストが安全かどうかの判断は、ユーザーに委ねられている。

関連記事