カナダで発生した銃撃事件を巡り、OpenAI社が犯人のChatGPT利用状況を事前に法執行機関へ通報していなかったとして謝罪しました。本記事ではこの事例を起点に、日本企業がAIサービスを運営・活用する際に直面する「AIガバナンスとモデレーション(不適切コンテンツの監視・対応)」の実務的な課題について解説します。
OpenAIが直面した「通報のジレンマ」
先日、カナダのブリティッシュ・コロンビア州で発生した痛ましい銃撃事件に関連し、OpenAIのサム・アルトマンCEOが「法執行機関への通報を怠ったこと」について深く謝罪する事態となりました。報道によれば、事件を起こした犯人のChatGPTアカウントは、事件の約8ヶ月前にすでに利用停止(バン)の措置が取られていました。しかし、アカウントの凍結にとどまり、警察などの関係機関へ危険性を知らせるフラグ立てが行われていなかったことが問題視されています。
生成AI(特に大規模言語モデル:LLM)は、あらゆる質問に答えてしまう性質を持つため、各社は犯罪の計画や自傷・他害行為を助長するようなプロンプト(ユーザーからの指示や質問)をブロックするセーフティ機能を実装しています。重大な規約違反があったユーザーをサービスから排除することは一般的になりつつありますが、「どの段階で警察などの外部機関に通報すべきか」という判断は、AIプラットフォーマーにとって非常に重い課題となっています。
プライバシー保護と公共の安全のトレードオフ
この問題は、日本国内でAIを活用・提供する企業にとっても対岸の火事ではありません。自社サービスにAIチャットボットを組み込んだり、社内業務用の生成AI環境を構築したりする際、ユーザーがAIに対してどのような入力を行っているかを管理・監視する責任が伴うからです。
しかし、ここで大きなジレンマが生じます。犯罪予告や危険な兆候を検知するためにユーザーの入力を常時監視することは、プライバシーの侵害や、日本の電気通信事業法で定められる「通信の秘密」に抵触する恐れがあります。一方で、明白な危険の兆候をシステムが検知していたにもかかわらず放置し、実際に事件が起きてしまった場合、企業としての管理体制や社会的責任(レピュテーションリスク)が厳しく問われることになります。
日本企業がAIプロダクトを運用する際の現実的なアプローチ
日本企業が新規事業としてAIサービスを展開したり、既存プロダクトにLLMを組み込んだりする際、過剰な監視によるユーザー離れと、監視不足によるコンプライアンス違反のリスクをバランスよく管理する必要があります。具体的には、以下のような実務的対応が求められます。
第一に、モデレーション(不適切な入力や出力のシステム的な監視・フィルタリング)の自動化です。クラウドベンダーが提供する専用APIなどを活用し、ヘイトスピーチや暴力的な意図を含む入力を機械的に検知・ブロックする仕組みを導入します。
第二に、「Human-in-the-loop(人間の介在)」を前提としたエスカレーションフロー(上位者や専門部署への報告手順)の構築です。AIが「極めて危険度が高い」と判定したログについては、最終的に人間の担当者が文脈を確認し、法務部門や警察への相談要否を判断するプロセスを整備しておくことが重要です。誤検知による不当な通報を防ぐためにも、機械と人間の協調が欠かせません。
日本企業のAI活用への示唆
今回のOpenAIの事例は、最先端のAI企業であっても「技術的な制限(アカウント停止)」と「社会的な対応(通報)」の接続に苦慮していることを示しています。日本企業が安全にAIを活用し、ビジネスの価値を最大化するためには、以下の点に留意して実務を進めることが推奨されます。
1. 利用規約とプライバシーポリシーの明確化
ユーザーの入力データをどのような目的で監視・利用するのか、また法令に基づく要請や人命・財産の保護のために必要な場合は第三者(警察など)に情報提供を行う可能性がある旨を、日本の法律や商習慣に沿った形で明記し、同意を得ることが大前提となります。
2. 脆弱性テスト(レッドチーミング)の実施
サービス公開前に、意図的にAIを騙して不適切な回答を引き出すテスト(レッドチーミング)を実施し、自社のAIプロダクトがどのような条件下で危険な挙動を示すかを事前に把握しておくことが、リスクマネジメントの第一歩です。
3. 平時からのエスカレーションルールの策定
万が一、自社のAIサービス上で犯罪予告や深刻なサイバー攻撃の計画などが入力された場合、社内の誰に報告し、どのタイミングで外部機関へ相談するのか。インシデント発生時のフローを平時から策定し、組織文化として「AIガバナンス」を根付かせる経営層のコミットメントが求められます。
