米国のサイバーセキュリティ最高機関であるCISAの幹部が、機密文書をChatGPTに入力していたという報道は、AIガバナンスにおける「人」の脆弱性を改めて浮き彫りにしました。セキュリティのプロフェッショナルでさえ、業務遂行のためにリスクある行動をとってしまう現状を踏まえ、日本企業が構築すべき現実的なセキュリティ対策と、現場の利便性を損なわない組織文化の在り方について解説します。
セキュリティの「総本山」で起きたインシデントの意味
米国国土安全保障省傘下のサイバーセキュリティ・インフラセキュリティ庁(CISA)は、言わば米国のサイバー防衛の最前線です。その組織の幹部(Acting Director)が、2025年7月中旬にChatGPTに対して機密性の高い文書をアップロードしていたという報道は、単なる個人の不注意として片付けるべきではありません。
報道によれば、この利用は「認可された一時的な例外(authorized temporary exception)」の下で行われたとされていますが、結果として機密情報の取り扱いに関する懸念を引き起こしました。これは、組織としてAI利用の承認プロセスが存在していたとしても、実際に「どのレベルのデータ」を「どのモデル」に入力するかという運用面での判断ミスや、ガバナンスの抜け穴が発生し得ることを示唆しています。
なぜ専門家でもパブリックな生成AIを使ってしまうのか
セキュリティの専門家がリスクを知りながら生成AIに機密情報を入力してしまう背景には、圧倒的な「業務効率化への圧力」と「ツールの性能差」があります。
多くの企業・組織では、セキュリティを担保するために、機能が制限された内部用AIツールや、旧世代のモデルが提供されている場合があります。しかし、ChatGPTのような最新のパブリックモデルは、要約の精度、推論能力、ドキュメント解析の速度において、社内ツールを凌駕していることが少なくありません。「今すぐこの膨大なレポートを分析しなければならない」という切迫した状況下では、セキュリティ意識の高い人間でさえ、目の前の業務を遂行するために、手元の高機能なツール(シャドーAI)に手を伸ばしてしまう誘惑に駆られます。
日本企業が直面する「禁止」と「活用」のジレンマ
日本企業、特に金融や製造業などの規制が厳しい業界では、生成AIの利用を「全面禁止」または「厳格な制限付き」としているケースが散見されます。しかし、今回の米国の事例が教えるのは、「ルールによる禁止だけでは、情報の流出は防げない」という現実です。
現場の従業員が「この業務にはAIが必要だ」と判断した際、会社が安全で使いやすい環境を提供していなければ、従業員は個人のスマートフォンや未承認のブラウザ経由で、機密データをパブリックなAIサービスに入力してしまうリスクが高まります。これを防ぐためには、単に禁止するのではなく、「安全な代替手段」を提供することが不可欠です。
日本企業のAI活用への示唆
今回の事例を踏まえ、日本企業の実務担当者や意思決定者は、以下の3点に注力してAIガバナンスを再構築すべきです。
1. 「性善説」に頼らない技術的なガードレールの実装
従業員のモラルやリテラシー教育だけに依存するのは限界があります。入力データがモデルの学習に利用されない「オプトアウト設定」の徹底や、Azure OpenAI ServiceやAmazon Bedrockなどのプライベート環境でのLLM利用、さらにはDLP(Data Loss Prevention)ツールによる機密情報の入力ブロックなど、システム側でミスを防ぐ仕組みへの投資が必要です。
2. 認可プロセスの形骸化を防ぐ
CISAの事例にあるように、「例外的な認可」がセキュリティホールの原因になることがあります。特例申請を認める場合でも、入力してよいデータの格付け(機密、社外秘、公開情報など)を明確にし、ログの監査を事後に行うのではなく、リアルタイムに近い形でのモニタリング体制を整えることが望まれます。
3. 現場が「使いたくなる」AI環境の整備
「セキュリティは高いが、使い勝手が悪い社内AI」は、結果としてシャドーAIを助長します。最新モデルへのアクセスを安全な経路で提供し、UI/UXも含めて現場がストレスなく業務に利用できる環境を整えることこそが、結果として最強のセキュリティ対策となります。
