米国のサイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA)の幹部が、機密情報をChatGPTに入力していたという報道は、AIガバナンスにおける「人的要因」の難しさを浮き彫りにしました。セキュリティの専門家であっても利便性の誘惑には抗えないという事実は、日本企業のAI導入・運用においても重要な教訓を含んでいます。
「専門家」でも起こしうるシャドーAIのリスク
米国のサイバーセキュリティを統括するCISA(Cybersecurity and Infrastructure Security Agency)の副長官が、業務上の機密ファイルを含む情報を個人のChatGPTアカウントなどにアップロードしていた疑いがあるという報道は、業界に少なからぬ衝撃を与えました。この事例が示唆するのは、組織のセキュリティポリシーがいかに厳格であっても、また当事者がセキュリティの専門家であったとしても、「業務効率化への圧力」や「ツールの利便性」の前では、ルールが形骸化するリスクがあるということです。
日本国内でも、現場の従業員が会社に無断でクラウド上の生成AIサービスを利用する「シャドーAI」の問題が顕在化しつつあります。特に、「働き方改革」や生産性向上が強く求められる昨今、使い勝手の良いツールがあれば、セキュリティリスクを軽視してでも使いたくなるのが人間の心理です。CISAの事例は、これを単なる個人の不注意として片付けるのではなく、組織的な課題として捉えるべきであることを教えてくれます。
パブリッククラウドとプライベート環境の境界線
この問題の核心は、生成AIにおける「学習データとしての利用」に関する理解と管理にあります。一般消費者向けの無料版ChatGPTなどに不用意に入力されたデータは、デフォルト設定ではAIモデルの再学習に利用される可能性があり、意図せず機密情報が流出するリスクを孕んでいます。
日本企業が生成AIを導入する際は、以下の3つの層を明確に区別し、従業員に周知徹底する必要があります。
- コンシューマー向けサービス:入力データが学習に使われる可能性があり、機密情報の入力は厳禁。
- エンタープライズ版・API利用:入力データが学習に使われない契約(オプトアウト)がなされている環境。
- ローカル/プライベート環境:自社専用のVPC(Virtual Private Cloud)内やオンプレミスで動作し、外部へのデータ流出リスクを極小化した環境。
多くの日本企業では、リスクを恐れて「全面禁止」とするケースも見受けられますが、それでは現場が隠れて個人アカウントを利用するリスクを高めるだけです。むしろ、安全な「会社公認の環境」を整備し、そこへ誘導することが現実的な解となります。
日本企業の組織文化と「性善説」の限界
日本の組織は伝統的に、性善説に基づいたルール運用や、従業員のリテラシーに依存したセキュリティ対策に偏りがちです。しかし、生成AIのような強力なテクノロジーに関しては、精神論や誓約書だけでガバナンスを効かせることには限界があります。
実務的な対策としては、DLP(Data Loss Prevention:情報漏洩対策)ツールの導入による機密情報のアップロード検知や、Webブラウザのフィルタリング機能を用いて、認可されたAIツール以外へのアクセスを制限するなどの「技術的なガードレール」が不可欠です。同時に、なぜそのツールを使ってはいけないのか、どのようなデータなら入力して良いのかという具体的なガイドラインを、法務・コンプライアンス部門とIT部門が連携して策定する必要があります。
日本企業のAI活用への示唆
今回のCISAの事例を踏まえ、日本企業の意思決定者や実務担当者は以下の点に留意してAI活用を進めるべきです。
- 禁止ではなく「安全な代替手段」の提供:全面禁止はシャドーAIを誘発します。Azure OpenAI ServiceやAmazon Bedrockなどを活用し、入力データが学習されない安全な社内用AI環境を速やかに構築し、従業員に開放することが最大のリスク対策となります。
- 人的エラーを前提としたシステム設計:「気をつける」という運用ルールに頼らず、機密データ(個人情報、技術秘密など)が含まれるプロンプトを自動検知して警告・ブロックする仕組み(PIIマスキングなど)を導入を検討してください。
- 継続的なリテラシー教育:AIのリスクは日々変化しています。入社時研修だけでなく、定期的に最新の事例(今回のような他山の石)を共有し、リスク感度を維持する啓発活動が重要です。
