インターネットで症状を検索する時代から、ChatGPTなどの生成AIに自らの健康状態を「相談」する時代へと移行しつつあります。本記事では、生成AIの利用が患者の治療遵守(アドヒアランス)に与える影響を考察し、日本の法規制や医療環境のなかで企業がどのようにAIを活用しリスクを管理すべきかを解説します。
「グーグル先生」から「生成AI」へ:変化する情報収集のあり方
体調不良を感じた際、まず検索エンジンに症状を入力して自己診断を試みる行動は、長らく「グーグル先生(Doctor Google)」と呼ばれてきました。しかし近年、大規模言語モデル(LLM)の発展により、患者の行動は検索から「生成AIへの相談」へと急速にシフトしています。海外の最新の動向では、ヘルスケア領域において非常に興味深い洞察が報告されています。それは、「ChatGPTのような生成AIを利用して医療情報を得る患者は、治療アドヒアランス(患者が医師の指示を理解し、主体的に治療や服薬を継続すること)が高い傾向にある」という可能性です。
従来の検索エンジンでは、専門用語が並ぶ医療記事を自力で読み解く必要がありました。一方、生成AIは患者の症状や不安に対して対話形式で寄り添い、難解な医学情報を平易な言葉に翻訳してくれます。結果として、自身の疾患や治療の必要性に対する患者の「納得感」が高まり、前向きに治療に取り組む動機付けになっていると考えられます。
AIがもたらす医療コミュニケーションの光と影
患者がAIを通じて自身の健康状態へのリテラシーを高めることは、日本の医療現場においても大きなメリットをもたらします。特に、医師の働き方改革(いわゆる2024年問題)への対応が急務となるなか、限られた診察時間内で医師と患者が円滑に意思疎通を図るための「通訳」として、AIが機能する余地は十分にあります。
一方で、重大なリスクも存在します。生成AIは確率的に尤もらしい文章を生成する性質上、事実とは異なる情報を出力する「ハルシネーション(幻覚)」を完全に排除することはできません。患者がAIの誤った回答を鵜呑みにし、必要な受診を遅らせたり、不適切な自己治療を行ったりする危険性があります。そのため、AIを「診断ツール」として扱うのではなく、あくまで「情報の整理・要約ツール」として位置づけることが重要です。
日本の法規制とヘルスケアプロダクトへのAI組み込み
日本国内でヘルスケア企業や保険会社、ITベンダーがAIを活用した新規事業やサービス開発を行う場合、特有の法規制と組織文化を考慮する必要があります。日本では医師法により、医師免許を持たない者(AIプログラムを含む)が診断や治療方針の決定といった「医業」を行うことは厳しく禁じられています。また、医療機器に該当するソフトウェアを提供する場合は、薬機法(医薬品医療機器等法)に基づく承認が必要です。
したがって、プロダクトに生成AIを組み込む際は、「あなたの症状は〇〇病です」といった断定的な診断回答を避け、「一般的な医学的情報に基づくと〇〇の可能性があります。詳しくは医師にご相談ください」といった受診勧奨を適切に組み込むセーフガードが不可欠です。同時に、プロンプトインジェクション(悪意ある入力によってAIを誤作動させる攻撃)を防ぐガードレール機能の実装が、企業のコンプライアンス対応として強く求められます。
日本企業のAI活用への示唆
患者や生活者の行動変容を見据え、日本企業がヘルスケアや関連領域でAIを活用するための実務的な示唆は以下の通りです。
第一に、患者の「治療アドヒアランス向上」を目的としたサービス開発です。例えば、お薬手帳アプリやPHR(パーソナルヘルスレコード)に生成AIを組み込み、服薬の目的を分かりやすく説明したり、日々の不安に寄り添うチャットボットを提供したりすることで、ユーザーのエンゲージメントを高めることが可能です。
第二に、医療従事者と患者のコミュニケーション支援です。患者が診察前にAIと対話して「医師に聞きたいこと」を整理する事前問診システムや、診察内容をAIが患者向けの平易なレポートに要約するサービスなどは、医療現場の業務効率化と患者満足度の双方に寄与する有力なアプローチとなります。
第三に、強固なAIガバナンス体制の構築です。健康情報は要配慮個人情報を含むため、データの取り扱いに関する高いセキュリティ基準が求められます。入力データがAIの再学習に利用されない閉域環境でのAPI利用や、医療ガイドラインなどの信頼できる外部データを参照させながら回答を生成するRAG(検索拡張生成)技術の導入など、リスクを最小化するアーキテクチャの選定がプロダクトの成否を分けます。
