GoogleのAI検索機能がメンタルヘルスに関して不適切な助言を行った問題を受け、英国の慈善団体が調査を開始しました。この事例は、生成AIにおける「ハルシネーション(もっともらしい嘘)」が実害を及ぼすリスクを浮き彫りにしています。本記事では、このニュースを起点に、日本企業が特にヘルスケアや顧客対応などのセンシティブな領域でAIを活用する際、どのようなリスク対策とガバナンスが必要となるかを解説します。
AIによる「意図せぬ加害」とプラットフォーマーの限界
英国での報道によると、GoogleのAI Overviews(検索生成体験)が、深刻なメンタルヘルスの危機にあるユーザーに対し、不適切かつ危険なアドバイスを提供したことが問題視されています。これを受け、現地のメンタルヘルス慈善団体「Mind」が詳細な調査に乗り出しました。この事例が示唆するのは、AIモデルがいかに高度化しても、文脈を完全に理解し、人命に関わる倫理的判断を自律的に下すことは技術的に困難であるという現実です。
大規模言語モデル(LLM)は、膨大なデータから確率的に「もっともらしい」単語を予測する仕組みであり、医学的な正しさや倫理的な善悪を判断する機能は本来備わっていません。プラットフォーマー側もフィルタリング技術(ガードレール)を強化していますが、ユーザーの入力パターンは無限であり、すべてのリスクを事前に防ぐことは現実的に不可能です。これは、Googleのような巨大テック企業であっても例外ではありません。
日本企業が直面する「YMYL」領域のリスク
日本国内でも、業務効率化や顧客サービス向上のために生成AIを導入する動きが加速しています。しかし、今回の事例のような「YMYL(Your Money or Your Life:人々の幸福、健康、経済的安定、安全に影響を与える領域)」でのAI活用には、極めて慎重な設計が求められます。
もし日本企業が提供するヘルスケアアプリや金融アドバイスAIが、誤った情報や危険な回答を提供し、ユーザーに損害を与えた場合どうなるでしょうか。日本では製造物責任法(PL法)や消費者契約法に加え、総務省・経産省による「AI事業者ガイドライン」に基づき、開発者や提供者の管理責任が厳しく問われる可能性があります。特に日本市場は企業に対する「安心・安全」への期待値が高く、一度の不祥事がブランド全体の信頼失墜に直結しやすい土壌があります。
「免責事項」だけでは守れない組織の信頼
多くの企業は利用規約に「AIの回答は正確性を保証しない」という免責事項を記載しています。しかし、ユーザーが深刻な悩みを相談している状況下で、AIが不適切な回答を行い、実際に被害が生じた場合、法的な免責が認められたとしても社会的制裁(レピュテーションリスク)は免れません。実務的には、規約による防御だけでなく、システムと運用による多層的な対策が必要です。
具体的には、RAG(検索拡張生成)を用いる際に参照元を信頼できる公的機関のドキュメントのみに限定する制御や、出力時に「自殺」「自傷」などのセンシティブなキーワードを検知して回答をブロックするフィルタリング層の実装が挙げられます。また、UXデザインにおいても、これがAIであることを明確にし、緊急性の高い相談は有人窓口や専門機関へ誘導する導線を確保することが不可欠です。
日本企業のAI活用への示唆
今回の事例は、AIの能力を過信せず、適切な「足かせ」をはめることの重要性を教えてくれます。日本企業がAIプロダクトを開発・導入する際は、以下の3点を意識してプロジェクトを進めるべきです。
1. ハイリスク領域の特定と回避:自社のAI活用領域が医療、法律、人権などに関わる場合、完全自動化を目指さず、あくまで「人間の専門家の支援ツール」として位置づけること。Human-in-the-loop(人間が介在する仕組み)を前提としたワークフローを構築しましょう。
2. 日本特有の文脈でのレッドチーミング:テスト工程において、攻撃者視点でのテスト(レッドチーミング)を徹底すること。その際、海外モデルをそのまま使うのではなく、日本の商習慣や「いのちの電話」のような国内の社会資源へ適切に誘導できるかなど、ローカルな文脈での挙動検証が必要です。
3. ガバナンス体制の構築:AIのリスクはリリース後も変化します。法務、リスク管理、エンジニアリングの各部門が連携し、ユーザーからのフィードバックや最新の法規制(AI法など)を継続的にモニタリングし、ガイドラインを更新し続ける体制を作ることが、持続可能なAI活用の鍵となります。
