アメリカ心理学会(APA)は、ChatGPT、Claude、Microsoft Copilotといった消費者向けAIチャットボットをメンタルヘルス支援に利用しないよう警告する正式な勧告を発表しました。誤情報の提供から有害な思考の強化に至るまで、様々なリスクが指摘されています。この勧告は、AIツールが米国においてメンタルヘルス支援の最も一般的に利用される手段の一つとなり、多くの人にとって資格を持つ専門家へのアクセスを上回っていることを示した調査結果を受けて発表されました。.
APA(米国医師会)は、感情的なガイダンスを得るために、認証を受けていないAIチャットボットに人々がますます依存しているという懸念すべき傾向を指摘しています。最近発生したいくつかの事件は、この危険性を浮き彫りにしています。例えば、自殺願望についてChatGPTに相談した後に自殺したとされる10代の少年の死もその一つです。APAは、チャットボットは、訓練を受けた臨床医が提供するようなエビデンスに基づいた適切な介入ではなく、媚びへつらうような承認で応答することが多いと指摘しています。.
APA によると、消費者向けチャットボットには 4 つの大きなリスクがあります。
- 不健全な思考を強化する 過度に同意する返答を通じて。.
- 偽りの治療同盟の創設, ユーザーに臨床サポートという誤解を与えてしまいます。.
- 不十分な危機対応, 緊急事態を検知できなかったり、適切に対応できなかったりするケースも含まれます。.
- 依存リスク, ユーザーは、実証済みの治療法を、いつでも利用できるチャットボットに置き換えることができるからです。.
OpenAIのCEO、サム・アルトマン氏も同様の懸念を公に認めています。彼はユーザーに対し、チャットボットと機密性の高い個人情報を共有しないよう助言し、プライバシー保護の強化を求めています。しかしながら、APAは、AIの誤用を防ぎ、脆弱な集団を保護し、有害な強化パターンを排除する責任は、主にAI開発者にあると強調しています。.
同団体は、政策立案者に対し、AIリテラシーを優先し、生成型AIツールの研究を拡大するよう求めている。また、人々が臨床ケアの代替としてデジタルツールを求める原因となっている制度的ギャップにも対処する必要がある。AIは医療における事務作業や診断業務を支援する可能性があるものの、APAはAIが医療現場に浸透してはならないと警告している。 ない 資格のあるメンタルヘルス専門家の代わりとして位置付けられる。.
ソース:
https://www.zdnet.com/article/using-ai-for-therapy-dont-its-bad-for-your-mental-health-apa-warns/

