OpenAIがChatGPTに導入した「Trusted Contact(信頼できる連絡先)」機能は、AIがユーザーのメンタルヘルスの危機を察知し、外部へエスカレーションする新たな役割を示しています。本記事では、この動向を起点に、日本企業が自社サービスにAIを組み込む際に考慮すべき安全性や法規制、ガバナンスの要点を解説します。
AIがユーザーの危機を察知する時代へ:ChatGPTの新機能「Trusted Contact」
大規模言語モデル(LLM)を活用した対話型AIが日常に浸透する中、OpenAIはChatGPTに「Trusted Contact(信頼できる連絡先)」という新機能を導入しました。これは、成人ユーザーが事前に信頼できる連絡先を登録しておき、AIとの対話を通じてメンタルヘルスに関する深刻な懸念(自傷行為のリスクなど)が検知された際、指定した連絡先にアラートを通知するというものです。臨床医の知見を取り入れて設計されており、AIが単なる情報検索や業務効率化のツールを超え、ユーザーの安全を守るセーフティーネットとしての役割を担い始めていることを示しています。
「対話型AI」の普及がもたらす新たな責任とリスク
人間のように自然な対話が可能な生成AIに対して、ユーザーはしばしば深い悩みや個人的な感情を無意識に打ち明ける傾向があります。これはAIが「傾聴役」として機能するメリットがある半面、プラットフォーマーやサービス提供者にとっては、ユーザーの生命や健康に関わる重大なサインを見過ごすリスクや、不適切なアドバイスをしてしまうリスクを抱えることを意味します。そのため、現在のAI開発においては、有害な出力を防ぐための「セーフティ・ガードレール(安全対策のためのシステム的な制限)」を設けるだけでなく、今回のように物理的な世界(家族や専門機関)への適切なエスカレーションパスを構築することが重要視されています。
日本企業が直面する法規制とコンプライアンスの壁
日本国内でAIを活用したサービス(例えば、従業員向けのメンタルヘルスケアボットや、一般顧客向けのカスタマーサポートなど)に同様の機能を実装する場合、日本の法規制や商習慣を踏まえた慎重な設計が求められます。第一に、メンタルヘルスに関する情報は、日本の個人情報保護法において「要配慮個人情報」に該当する可能性が高く、その取得や第三者(指定された連絡先など)への提供には、原則として本人の明確な事前同意が必要です。第二に、AIがユーザーの症状を「診断」してしまうと医師法に抵触する恐れがあるため、AIの役割はあくまで「パターンの検知と通知・専門窓口への誘導」に留める必要があります。
プロダクト開発における「人間中心」のエスカレーション設計
自社のプロダクトや業務システムに生成AIを組み込む際、エンジニアやプロダクトマネージャーは「AIが限界を迎えたとき、どのように人間に引き継ぐか」を設計しなければなりません。たとえば、顧客からのチャット問い合わせにおいて、クレームのトーンが極度に攻撃的であったり、深刻な困窮を示唆したりする場合には、AIによる自動応答を停止し、直ちに人間のオペレーターや専門部署へアラートを上げる仕組みが必要です。AIの回答精度向上にのみ目を向けるのではなく、AIが対応すべきでない領域を明確に定義し、フェイルセーフ(想定外の事態が起きても安全側に制御する仕組み)を組み込むことが、結果としてコンプライアンス対応とユーザーの信頼獲得につながります。
日本企業のAI活用への示唆
今回のChatGPTの動向から、日本企業がAIの実装・運用において留意すべき実務的な示唆は以下の3点に集約されます。
1. AIの役割拡大に伴う「セーフティ設計」の必須化: AIは利便性を提供するだけでなく、ユーザーの予期せぬ危機的状況に直面するインターフェースにもなります。自社サービスにLLMを組み込む際は、危険な兆候を検知した際の振る舞い(専門機関へのリンク提示や有人対応への切り替えなど)を事前に定義しておく必要があります。
2. 要配慮個人情報の取り扱いと透明性の確保: ユーザーの精神状態や健康状態に関わるデータをAIが処理する場合、厳格なプライバシー保護と法規制の遵守が求められます。どのようなデータが取得され、誰に共有されるのかをユーザーに分かりやすく説明し、同意を得るプロセスが不可欠です。
3. AIと人間の適切な役割分担: AIにすべてを任せるのではなく、AIを「早期発見のセンサー」として位置づけ、最終的な判断やケアは人間(専門家や担当者)が行うという「Human-in-the-loop(人間の介入を前提としたシステム)」の設計を維持することが、ガバナンスの観点からも最も安全で現実的なアプローチです。
