ChatGPTをはじめとする大規模言語モデル(LLM)の業務活用が進む中、ヘルスケアや従業員サポート領域での応用に関心が高まっています。しかし、最新の研究ではAIが精神疾患に関する質問に対して不適切な回答を生成するリスクが指摘されており、企業がプロダクトにAIを組み込む際のガバナンスの重要性が浮き彫りになっています。
ヘルスケア領域におけるAI活用の可能性と死角
近年、大規模言語モデル(LLM)をメンタルヘルスケアのサポートアプリや、社内の従業員向け相談窓口、カスタマーサポートに組み込む企業が増加しています。人間に相談しにくい悩みであっても、AI相手であれば心理的ハードルが下がるというメリットがある一方、センシティブな相談に対するAIの応答品質には慎重な評価が求められます。
海外の最新の研究では、ChatGPTに対して精神疾患(精神病など)に関するプロンプトを入力した際、特定の条件下において不適切な応答を生成する可能性が著しく高まることが報告されています。特に、無料版や安全対策(ガードレール)が十分にチューニングされていないモデルでは、通常の質問と比較して、非倫理的または医学的に不正確なアドバイスを返す確率が40倍以上に急増するというデータも示されています。これは、AIを活用したサービスを開発する企業にとって見過ごせないリスクです。
モデルのバージョンによる安全性(セーフティ)の差異
この研究結果から読み取れる重要なポイントは、同じ「ChatGPT」の裏側で動くモデルであっても、バージョン(無料版かエンタープライズ版か、あるいは旧世代か最新世代か)によって、安全性に大きな差があるという事実です。最新のモデルでは、強化学習を用いた人間のフィードバック(RLHF)などにより、有害な出力や不正確な医療アドバイスを抑制する仕組みが強化されています。
企業が自社サービスや社内システムにLLMを組み込む際、コスト圧縮を優先して旧世代のAPIや安全対策が不十分なモデルを採用すると、ユーザーの深刻な悩みに対してAIが不適切な同調をしたり、誤った自己判断を促したりといった事態を招きかねません。
日本の法規制と組織文化を踏まえたリスク管理
日本国内でヘルスケアやHR(人事・労務)領域のAIプロダクトを展開する場合、特有の法規制に留意する必要があります。日本では医師法や医薬品医療機器等法(薬機法)により、医師ではない者(AIを含む)が医療的な診断や具体的な治療方針の提示を行うことは厳格に禁じられています。AIが不用意に「あなたは〇〇という病気の可能性があります」と出力することは、法的なコンプライアンス違反に直結します。
また、日本の商習慣や組織文化においては、企業が提供するサービスに対する「安心・安全」の要求水準が非常に高い傾向にあります。チャットボットが顧客の精神的な危機に対して冷淡な返答をした場合、深刻なレピュテーション(ブランド棄損)リスクを招くことになります。社内のメンタルヘルス相談窓口としてAIを導入する場合も同様に、従業員の安全配慮義務の観点から厳密なテストが不可欠です。
企業に求められるシステム設計と多層的な防御
これらのリスクに対処しつつAIのメリットを享受するためには、システムレベルでの多層的な防御策の構築が求められます。具体的には以下のようなアプローチが考えられます。
第一に、入力と出力のフィルタリングです。ユーザーの入力に深刻なキーワードや意図が含まれているかを別の軽量なAIなどで検知し、該当する場合はLLMによる自動応答を停止して、専門の相談窓口(人間のカウンセラーや公的な支援機関)へエスカレーションする仕組みを実装します。
第二に、プロンプトエンジニアリングによる制約です。システムプロンプト(AIに役割を指示する前提条件)において、「あなたは医療従事者ではありません。診断や医学的アドバイスは絶対に行わず、必ず専門機関の受診を勧めてください」といった強い制約を設けることが基本となります。
日本企業のAI活用への示唆
・用途に応じた適切なモデル選定:AIの基盤モデルには、コストや処理速度だけでなく、安全性(セーフティガードレールの強度)に違いがあります。特にヘルスケアや顧客・従業員対応などセンシティブな領域では、安全対策が施された最新モデルやエンタープライズ向けの採用を優先すべきです。
・法規制とコンプライアンスの徹底:日本ではAIによる医療的アドバイスは医師法等に抵触するリスクがあります。自社のAIサービスが「一般的な情報提供」の範疇に留まっているか、法務担当者や外部専門家を交えた事前のリーガルチェックを事業開発の初期段階から組み込むことが重要です。
・フェールセーフと人間の介在(Human-in-the-loop):LLMは万能ではなく、ハルシネーション(もっともらしい嘘)や不適切な回答をゼロにすることは現状困難です。重大なリスクが想定されるシナリオではAIに完結させず、必ず人間の専門家へシームレスに引き継ぐシステム設計(フェールセーフ)を前提としたプロダクト開発が求められます。
