AIの利用規約違反に対するプラットフォーマーの責任範囲が問われる新たな事案が海外で発生しました。本記事では、ユーザーの危険行動に対するAIプロバイダーの介入義務をテーマに、日本企業がAIサービスを自社プロダクトに組み込む際に直面する法務・コンプライアンス上の課題と実務的な対応策を解説します。
システムによる検知と「その後のアクション」の乖離
カナダで起きた銃撃事件の被害者遺族が、ChatGPTを提供するOpenAIを提訴したという事案が海外メディアで報じられました。報道によれば、遺族側は「OpenAIが銃撃犯のChatGPTアカウントを規約違反として事前に凍結(バン)していたにもかかわらず、警察などの当局に通報しなかったことが致命的な過失に当たる」と主張しています。このニュースは、単なるAIの倫理問題を超え、AIサービスを提供する企業が直面する「ユーザーの危険行動に対する現実世界への介入義務」という新しい法的・実務的課題を浮き彫りにしています。
現在、多くの大規模言語モデル(LLM)には、暴力的なコンテンツや犯罪を助長するプロンプト(指示文)を弾くための安全フィルターが実装されています。ユーザーが規約に著しく違反した場合、自動的にアカウントを停止する仕組みも一般的です。しかし、今回の事案が問うているのは、「システム内で危険を検知・遮断したあと、現実の被害を防ぐために公的機関へ通報する義務があったのではないか」という点です。
日本国内でも、カスタマーサポートの自動化や社内FAQ、一般消費者向けの新規サービスなどにLLMを組み込む企業が急増しています。もし自社のAIチャットボットに対し、ユーザーが犯罪予告や自傷行為をほのめかす入力を行った場合、企業としてどこまで介入すべきかという「Trust & Safety(信頼性と安全性)」の運用設計が急務となっています。
日本の法規制と実務におけるジレンマ
日本企業が同様の事態に直面した場合、その対応には法務およびコンプライアンス上の難しい判断が伴います。第一に、ユーザーの入力内容を常時監視することは、電気通信事業法における「通信の秘密」や、プライバシー保護の観点から非常に慎重な扱いが求められます。
一方で、人の生命や身体に対する切迫した危険がある場合、日本の個人情報保護法には「本人の同意を得ることが困難であるとき」の例外規定(第27条第1項第2号など)が存在します。これにより、企業が警察へ情報提供を行う法的根拠は確保し得るものの、AIが検知したログの「真実性」や「危険の切迫度」を人間がどう判断するかは実務上きわめて困難です。
また、AIの文脈理解は完璧ではなく、小説のプロット作成や学術的な調査を目的とした適法なプロンプトを、実際の犯罪意図と誤認する「過検知(フォールス・ポジティブ)」のリスクも存在します。虚偽の通報によるユーザーとのトラブルを恐れ、判断を先送りにしてしまう事勿れ主義に陥るリスクも、日本企業の組織文化において留意すべき課題と言えます。
日本企業のAI活用への示唆
今回の事案から、AIを利用したサービスを展開、あるいは自社システムに組み込む日本の企業・組織は、以下の点に留意して実務体制を整備することが求められます。
第一に、利用規約の整備と透明性の確保です。重大な規約違反や生命に危害が及ぶおそれがあるとシステムが判断した場合、アカウント停止だけでなく、法的機関へ情報提供を行う可能性がある旨を事前に利用規約やプライバシーポリシーに明記し、ユーザーからの合意を明確に取得しておくことが基本となります。
第二に、実効性のあるエスカレーションフローの構築です。AIが危険なプロンプトを検知した際にアカウントを自動停止する仕組み(MLOpsの一環としてのモニタリング)を構築するだけでなく、その重大なアラートを法務部門やリスク管理の担当者が迅速に評価し、必要に応じて外部機関へ通報するための社内基準を定めておく必要があります。システム単独の判断に依存せず、人間を介在させる「Human-in-the-loop(人間の介入プロセス)」の設計が不可欠です。
第三に、AIガバナンス体制の継続的な見直しです。AI技術の進化とともに、ユーザーの利用形態も変化します。事業部門、エンジニア、法務・コンプライアンス部門が連携する横断的なAIガバナンス委員会などを設置し、リスク評価の基準を定期的にアップデートしていく組織文化を育てることが、安全で信頼されるプロダクト開発の要となるでしょう。
