OpenAIがカナダでの事件に関連し、ユーザーの危険な兆候を事前に察知し警察への通報を検討していたことが報じられました。AIプロバイダーによる入力データの監視と法執行機関への通報は、企業のリスク管理においてどのような意味を持つのか。日本企業が留意すべきガバナンスの視点を解説します。
プロバイダーは「プロンプト」を見ているという現実
生成AIの利用が拡大する中、多くの日本企業は「情報漏洩」のリスクに敏感になっています。しかし、今回のOpenAIに関する報道は、もう一つの重要な側面を浮き彫りにしました。それは、AIプロバイダーがユーザーの入力(プロンプト)内容を、安全性(Safety)確保の目的でモニタリングしているという事実です。
報道によると、OpenAIはカナダで発生した事件の容疑者について、事件の数ヶ月前にその兆候を検知し、警察への通報を検討していたといいます。これは、AIモデルが生成する回答の有害性を防ぐだけでなく、ユーザーの入力内容自体に犯罪の予兆や深刻なリスクが含まれる場合、プロバイダーが能動的に法執行機関と連携する可能性があることを示唆しています。
企業がSaaSとしてAIを利用する場合、入力データは学習に利用されない設定(オプトアウトやエンタープライズ版の利用)にすることが一般的ですが、これは「入力データ検閲の免除」を意味するとは限りません。テロ行為、児童虐待、深刻な身体的危害に関連するコンテンツポリシー違反については、多くのプロバイダーが厳格な自動検知と人間によるレビューの仕組みを持っています。
API連携における「巻き込まれリスク」とガバナンス
日本企業が特に注意すべきは、自社サービスにLLM(大規模言語モデル)をAPI経由で組み込むケースです。もし自社のエンドユーザーが、APIを通じてプロバイダーのポリシーに違反するような犯罪予告や過激なコンテンツを入力した場合、どうなるでしょうか。
この場合、プロバイダー側から見れば、不適切なリクエストの発信元は「APIキーを保有する企業」となります。最悪の場合、アカウントの停止(BAN)や、企業の意図せぬところで捜査機関への情報開示が行われるリスクがあります。開発者は「自社サービスのユーザーが何を入力しているか」を適切にフィルタリングし、プロバイダーの規約違反にならないようガードレール(安全対策)を設ける責任があります。
日本の法規制とグローバルプラットフォーマーの狭間で
ここで複雑になるのが、日本の法規制と海外プロバイダーのポリシーとの整合性です。日本では電気通信事業法における「通信の秘密」や、個人情報保護法が厳格に適用されます。日本国内の事業者がユーザーの通信内容を検閲し、通報することには高い法的ハードルが存在します。
しかし、OpenAIやGoogle、Microsoftなどの基盤モデルを提供する多くは米国企業であり、彼らの利用規約と現地の法令(あるいはサーバー所在国の法令)に基づいて運用されます。日本企業が自社従業員や顧客のデータを海外AIサービスに入力させる際、そのデータが日本の法的保護の枠外で、プロバイダーの判断により法執行機関へ開示される可能性がある点は、法務・コンプライアンス部門として認識しておくべき重要なポイントです。
日本企業のAI活用への示唆
今回の事例は、AIガバナンスが単なる「学習データの管理」にとどまらないことを示しています。実務的には以下の3点を再確認することをお勧めします。
1. 利用規約における「法執行機関への開示」条項の確認
主要なAIサービスの利用規約には、法令遵守や人の生命保護のためにデータを第三者(警察等)に開示する条項が含まれています。法務部門はこれを前提としたリスクシナリオを想定する必要があります。
2. 自社サービスへの組み込み時は「入力フィルタリング」を実装する
APIを利用して対話型AIサービスを開発する場合、エンドユーザーの入力内容をそのままLLMに渡すのではなく、自社側でも不適切な入力を検知・遮断する仕組み(Azure AI Content Safetyや独自のフィルタリング処理など)を導入し、プロバイダー側での検知リスクを低減させることが重要です。
3. 従業員向けのガイドラインに「公私混同の禁止」を明記する
会社の業務アカウントを使って、従業員が興味本位や私的な目的で過激なプロンプトを入力することは、企業のレピュテーションリスクに直結します。業務利用における倫理規定を明確にし、不審な挙動があった場合の監査体制を整えることが求められます。
