米国で発生した殺人事件に関連し、容疑者が犯行前にChatGPTへ不適切な質問を行っていたことが判明し、AI提供企業の法的責任が問われる事態となっています。本記事ではこの事例を切り口に、自社サービスや業務にAIを組み込む日本企業が考慮すべきリスクと、実践的なAIガバナンスのあり方について解説します。
生成AIの悪用と問われる提供者の責任
米国において、殺人事件の容疑者が犯行前にChatGPTを利用して死体遺棄に関する情報を検索していたことが発覚し、AIを提供するOpenAI社に対する州の訴訟において、その対話履歴が証拠として扱われるという報道がありました。この事例は、生成AI(大規模言語モデル:LLM)が単なる検索エンジンを超え、対話を通じて具体的な行動の「助言者」として機能してしまう危険性を浮き彫りにしています。
従来、インターネット上のプラットフォームは、ユーザーが発信するコンテンツに対して一定の免責が認められてきました。しかし、AIがユーザーの質問に対して直接的に回答(コンテンツ)を生成する場合、提供企業の責任範囲がどこまで及ぶのかは、グローバルでも大きな議論となっています。犯罪や反社会的行為を助長するような出力をAIが行った場合、そのシステムを設計・提供した企業の責任が法的に問われる可能性が高まっています。
セーフガードの重要性と技術的な限界
このような悪用を防ぐため、AIベンダーやサービス提供企業は「ガードレール(安全対策のためのフィルター)」の導入や、意図的にAIを攻撃して脆弱性を探る「レッドチーミング」といった対策を講じています。例えば、「犯罪の計画」や「危険物の製造方法」などを質問された際、AIが回答を拒否するように調整することが一般的です。
しかし、技術的にすべての悪意あるプロンプト(指示)を完全に遮断することは極めて困難です。ユーザーが文脈を偽装したり、特殊な言い回しを用いたりしてAIの制限を回避する「ジェイルブレイク(脱獄)」と呼ばれる手法も存在します。企業が自社のプロダクトやサービスにLLMを組み込む際、ベースとなるAIモデルの安全対策に全面的に依存するのではなく、自社のユースケースに応じた入力・出力の監視とフィルタリングの仕組みを独自に構築することが求められます。
日本企業における実務上のリスクと対応策
日本の企業がAIを活用する際、この問題は決して対岸の火事ではありません。例えば、BtoCの顧客サポートチャットボットや、BtoBの業務支援ツールに生成AIを組み込んだ場合、ユーザーがシステムを悪用して不適切な情報を引き出し、それがSNS等で拡散されれば、企業のブランドに対する深刻なレピュテーション(風評)リスクにつながります。
また、社内業務の効率化のために社内専用の生成AI環境を構築する場合も注意が必要です。従業員が情報漏洩につながるような入力や、コンプライアンスに違反するような質問を行わないよう、利用ガイドラインを策定するとともに、プロンプトのログ(履歴)を定期的に監査する仕組みが不可欠です。ただし、日本の組織文化やプライバシー保護の観点から、従業員の監視が過度にならないよう、ログの取り扱いポリシーを事前に労使間で明確にしておくことも重要です。
日本企業のAI活用への示唆
今回の米国の事例から、日本企業がAI活用において留意すべき要点と実務への示唆は以下の通りです。
1. 自社サービスへのAI組み込み時の責任範囲の明確化:生成AIをプロダクトに組み込む際は、悪用された場合の法的・道義的責任を想定し、利用規約の整備や免責事項の明記を行う必要があります。また、政府の「AI事業者ガイドライン」等を参考に、安全性を評価するプロセスを開発サイクルに組み込みましょう。
2. 多層的なセーフガードの構築:基盤モデルが持つ安全機能だけに頼らず、システム構成の前後に入出力のフィルタリングを設けるなど、多層的な防御策を検討してください。特定の業務に特化させることで、想定外の対話が発生するリスクを低減することも有効です。
3. ログのモニタリングと組織的ガバナンスの徹底:社内外を問わず、AIの利用履歴は重要な監査証跡となります。インシデント発生時に迅速な原因究明ができるようログを適切に保存・管理するとともに、不適切な利用の兆候を検知できる体制を構築することが、持続的で安全なAI活用への鍵となります。
