GoogleがGeminiにメンタルヘルス関連のサポート機能とセーフガードを導入しました。AIが日常的な対話パートナーとなる中、日本企業が自社サービスや社内ツールにAIを実装する際のリスクと、安全なエスカレーションの設計について解説します。
生成AIにおけるメンタルヘルス対応の進展
Googleはこのほど、同社の生成AIモデル「Gemini」において、メンタルヘルスに関する機能のアップデートを実施しました。ユーザーが危機的な状況や深刻な悩みを打ち明けた際に、専門の危機サポート窓口へのアクセスを促すとともに、AI自身が不適切な回答を生成しないようセーフガード(安全対策)を強化する取り組みです。大規模言語モデル(LLM)が人々の日常的な業務や生活に定着する中で、精神的な危機への適切な介入は、AIを提供する企業にとって重要な社会的責任になりつつあります。
自社プロダクト・社内ツールに潜む予期せぬリスク
このニュースは、グローバルな巨大プラットフォーマーに限った話ではありません。日本企業が自社のカスタマーサポートにAIチャットボットを導入したり、社内向けに業務効率化のためのAIアシスタントを展開したりする際にも、直視すべき実務的な課題です。現在のAIは非常に人間らしく流暢な対話ができるため、ユーザーは時として、想定外の深刻な悩みや心理的な危機をAIに吐露してしまうことがあります。
もし自社が提供するAIが、そのような状況で安易なアドバイスをしてしまったり、事態を悪化させるような発言をしたりすれば、ユーザーに重大な不利益をもたらします。さらに、企業としてのレピュテーションリスク(評判の低下)や、法的な責任問題に発展する恐れもあります。AIの利便性を追求するだけでなく、このような「エッジケース(稀ではあるが重大な影響を及ぼす事態)」への備えが不可欠です。
日本の法規制・組織文化を踏まえたガバナンス
日本国内でAIプロダクトを設計・運用する際、特に注意すべきは「医師法」などの法規制です。医師ではないAIが、具体的な病名の診断や医学的・心理的な専門アドバイスを行うことは、法律に抵触するリスクを伴います。したがって、企業はLLMのプロンプト(指示文)やガードレール(不適切な出力を技術的に防ぐ仕組み)を設計する段階で、「医療的な判断や専門アドバイスを行わない」という明確な制約を設ける必要があります。
また、日本の組織文化においては、従業員のメンタルヘルス不調に対して、人事部門や産業医が適切にケアする体制(安全配慮義務)が重視されます。社内向けのAIツールにおいて、従業員が過労やメンタルヘルスの不調を匂わせる入力を行った場合、AIがただ「頑張りましょう」と励ますのは危険です。不調を検知した際は、社内の相談窓口や外部のEAP(従業員支援プログラム)へと適切に誘導する仕組みが求められます。
AIの役割は「解決」ではなく「つなぐ」こと
AIをサービスや業務に組み込む際、あらゆる課題をAI単体で解決しようとするのは避けるべきです。メンタルヘルスや人命に関わるような機微な領域においては、AIの役割は「一次受け」としてユーザーの文脈を理解しつつ、迅速かつ安全に「人間の専門家」や「公的な支援窓口(厚生労働省の電話相談など)」へルーティング(引き継ぎ)することであると定義すべきです。
日本企業のAI活用への示唆
今回のGoogleの取り組みから、日本企業が自社のAI活用やプロダクト開発において検討すべき実務的なポイントは以下の通りです。
1. ガードレールの設計とテスト:ユーザーからの意図しない深刻な相談を想定し、AIが越権行為(医学的アドバイスなど)をしないよう、技術的・運用的なガードレールを実装・テストすることが不可欠です。
2. 人間や専門機関への導線確保:AIが特定のキーワードや深刻なトーンを検知した場合、回答文の中で社内外の適切な相談窓口へのリンクや連絡先を自動的に提示する仕組みを構築しましょう。ユーザーの安全を最優先したUX(ユーザー体験)の設計が求められます。
3. 法規制とAIガバナンスの連携:医師法などの国内法規制を遵守するため、プロダクトマネージャーやエンジニアだけでなく、法務・コンプライアンス部門と早期に連携することが重要です。AIが対応してよい範囲とエスカレーションの基準を定めたガイドラインを社内で策定しましょう。
