Googleが、インターネット上の素人による医療アドバイスをAIで提示する検索機能を廃止しました。本記事ではこの動向を起点に、日本企業が健康や医療などリスクの高い領域でAIを活用する際の法規制やガバナンスのあり方について解説します。
Googleの機能廃止から読み解く「YMYL領域」におけるAIの難しさ
Googleが、検索結果において「素人による医学的アドバイス」をAIが要約・提示する機能を廃止したことが報じられました。健康情報を提供するAIに対する社会的監視が強まる中での対応とされています。生成AIや大規模言語モデル(LLM)は、膨大なデータを要約し回答を生成する能力に長けていますが、その情報源がインターネット上の不確かな口コミや個人の体験談であった場合、誤った医療情報を「もっともらしい事実」として提示してしまう危険性があります。
医療、健康、金融など、人々の生活や財産に重大な影響を与える領域は「YMYL(Your Money or Your Life)」と呼ばれます。この領域において、AIが不正確な情報(ハルシネーション)を出力した際の影響は極めて大きく、企業のレピュテーション(社会的信用)の失墜だけでなく、ユーザーの健康被害といった深刻な事態を招きかねません。今回のGoogleの決断は、AIの利便性よりも安全性を優先した結果と言えます。
日本の法規制・組織文化から考えるリスク対応
日本国内でヘルスケアや健康関連のAIサービスを展開、あるいは自社プロダクトにAIを組み込む場合、特有の法規制に留意する必要があります。代表的なものが「医師法」と「薬機法(旧薬事法)」です。
医師法第17条では、医師でなければ医業をなしてはならないと定められています。AIのチャットボットがユーザーの具体的な症状を聞き出し、「あなたは〇〇病の可能性が高いので、この薬を飲んでください」と回答した場合、実質的な「診断」や「処方」とみなされ、法令違反に問われるリスクがあります。また、薬機法の観点からも、効能効果について虚偽や誇大な表現をAIが生成してしまうことは厳重に防がなければなりません。
日本企業は品質やコンプライアンスに対して慎重な組織文化を持つことが多く、「AIが何を発言するかわからない」というリスクが、新規事業や業務効率化の足枷になるケースが散見されます。しかし、リスクを恐れて活用を完全に止めるのではなく、AIの限界を理解した上で適切な安全対策(ガードレール)を設けることが実務上求められます。
リスクを抑制しつつ価値を生み出すための実務的アプローチ
では、企業はどのようにAIを活用すべきでしょうか。一つの有効な手段は、RAG(検索拡張生成:外部データを取り込んでAIに回答させる技術)を活用する際、参照する情報源を「信頼できる公的機関のガイドライン」や「専門医が監修した自社のナレッジベース」のみに厳格に限定することです。不特定多数のウェブ情報をソースにしないことで、素人のアドバイスが混入するリスクを排除できます。
また、AIを「最終的な意思決定者」にせず、あくまで「人間の専門家を支援するツール」として位置づける「Human-in-the-Loop(人間の介入)」のプロセス設計が重要です。例えば、ユーザーへの直接の医療アドバイスは行わず、「〇〇科の受診をお勧めします」という受診勧奨(トリアージ支援)に留めることや、医師の電子カルテ入力の要約作業、医療事務の業務効率化といった「ローリスク・ハイリターン」な裏側の業務からAI導入を進めるのが定石です。
日本企業のAI活用への示唆
今回のニュースから得られる、日本企業がAIを活用する際の実務的な示唆は以下の3点です。
1. ハイリスク領域(YMYL)の特定と利用規約の整備
自社が提供するAIサービスが人命や財産に関わる領域に触れないかを確認し、触れる場合は「これは医療的な診断を代行するものではありません」といった免責事項や利用規約を明確に提示し、ユーザーとの期待値調整を行う必要があります。
2. 情報源の統制とプロンプトによるガードレールの設定
「医療的な判断を求められた場合は、専門医への相談を促すこと」といったシステムプロンプト(AIへの事前指示)を実装し、AIが越権行為をしないようなガードレールを技術的に構築することが不可欠です。
3. 法務・コンプライアンス部門との初期段階からの連携
プロダクト開発の終盤で法規制の壁に直面しないよう、企画段階から法務部門や外部の専門家(弁護士・医師など)を巻き込み、AIガバナンス体制を構築しながらアジャイルに検証を進めることが、安全で価値のあるAI活用の鍵となります。
