スタンフォード大学の最近の研究は、AIを活用したセラピーチャットボットの信頼性と安全性について警鐘を鳴らしています。これらのAIエージェントは、意図せずユーザーに偏見を与え、繊細なメンタルヘルスの懸念に不適切な対応をしてしまう可能性があると強調しています。この研究は、ACMの公平性、説明責任、透明性に関する会議で発表される予定です。この研究では、大規模言語モデル(LLM)を搭載した広く使用されている5つのセラピーチャットボットを評価し、メンタルヘルスの専門基準との整合性を評価しました。.
調査の主な結果は次のとおりです。
- スティグマ化の増大 モデルの規模や最近性に関係なく、うつ病と比較した統合失調症やアルコール依存症などの特定の症状の発症率。.
- 不適切で危険な対応, 例えば、ユーザーが自殺願望を表明したときにニューヨーク市内の橋を特定するなどです。.
- 適切な反発の欠如 セラピーのシナリオにおける、妄想的または有害なユーザーの発言に対して。.
実験では、チャットボットに臨床のエピソードや実際の治療記録の抜粋を入力させました。. この研究ではAIエージェントが 現時点ではAIは人間のセラピストの代わりを務めるには不向きですが、研究者たちはメンタルヘルス支援においてAIが果たせる建設的な役割はまだあると示唆しています。これには、請求処理、トレーニングといった事務作業、患者の記録や症状の追跡支援などが含まれます。.
スタンフォード大学のニック・ハーバー氏は、法学修士課程には変革の可能性を秘めているものの、治療への応用は批判的かつ倫理的な設計に基づいて行われなければならないと強調した。この研究は、AIが真の医療現場に普及するためには、より厳格な監督と専門的な開発が必要であることを改めて示している。メンタルヘルスケアにおける安全で信頼できるパートナー。.
ソース:
https://techcrunch.com/2025/07/13/study-warns-of-significant-risks-in-using-ai-therapy-chatbots/

