米国のサイバーセキュリティ最高機関であるCISAの幹部が、機密性の高いファイルをChatGPTにアップロードしていたという報道は、世界中のセキュリティ担当者に衝撃を与えました。しかし、これは決して「対岸の火事」ではなく、日本企業でも日々起きている「シャドーAI」の典型例です。本稿では、セキュリティのプロフェッショナルでさえ抗えない生成AIの利便性と、日本企業がとるべき現実的なガバナンス体制について解説します。
セキュリティの総本山で起きた「シャドーAI」インシデント
米国のCybernewsなどの報道によると、米国国土安全保障省(DHS)傘下のサイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA)の長官代行を務めていたMadhu Gottumukkala氏が、ChatGPTの個人アカウント等の非認可環境を用いて業務上の機密ファイルをアップロードしていた可能性があると報じられました。
CISAといえば、米国の重要インフラを守り、世界中の組織に対してセキュリティガイダンスを発信する「セキュリティの総本山」とも呼べる組織です。そのような組織のトップレベルの人間が、基本的なデータ取り扱いのルールを逸脱してしまったという事実は、現代の企業が抱える「生成AIガバナンス」の難しさを浮き彫りにしています。
この事案は、単なる個人のリテラシー不足として片付けるべきではありません。むしろ、「セキュリティ意識の高い専門家でさえ、業務効率化の誘惑やツールの利便性の前には、ルールを軽視してしまうことがある」という人間心理の脆弱性を示唆しています。
なぜ「禁止」してもシャドーAIはなくならないのか
日本国内の多くの企業でも、生成AIの業務利用に関するガイドライン策定が進んでいます。しかし、初期段階では「ChatGPTの全面禁止」や「許可制だが手続きが煩雑」といった厳格なルールを設けているケースが少なくありません。
ここで問題となるのが「シャドーAI(Shadow AI)」です。シャドーITのAI版であり、従業員が会社の許可を得ずに、個人のスマホやプライベートアカウントを使って業務データを生成AIに入力してしまう行為を指します。
今回のCISAの件が示唆するのは、組織のトップや現場のリーダー層ほど、「この資料を今すぐ要約したい」「緊急でドラフトを作成したい」という強いプレッシャーにさらされており、手元の便利なツールを使ってしまうリスクが高いということです。特に日本企業においては、働き方改革による「生産性向上」の圧力と、「厳格なセキュリティ規定」の板挟みになった現場が、隠れてAIを利用する土壌が生まれつつあります。
「学習データへの利用」という最大のリスク
無認可のパブリック版生成AI(特に無料版や個人向けプラン)を利用する最大のリスクは、入力したデータ(プロンプトやアップロードしたファイル)が、AIモデルの再学習(トレーニング)に利用される可能性がある点です。
例えば、会議の議事録や未発表の製品仕様書、顧客リストなどをそのまま入力してしまうと、その情報がAIの知識の一部となり、将来的に全く無関係な第三者への回答として出力されてしまうリスク(情報漏洩)が否定できません。企業向けの「ChatGPT Enterprise」やAPI経由の利用、あるいはAzure OpenAI Serviceなどのクラウド環境であれば、デフォルトで学習利用がオプトアウト(無効化)されているのが一般的ですが、個人アカウントではユーザー自身が設定を変更しない限り、学習に利用される設定になっていることが多いのです。
日本企業のAI活用への示唆
今回の事例を踏まえ、日本企業は以下のような方針でAIガバナンスを見直すべきです。
1. 「禁止」から「安全な環境の提供」への転換
CISAの事例が示す通り、禁止するだけでは利用を止められません。むしろ、地下に潜ることで実態把握が困難になります。企業は速やかに「入力データが学習されない安全な環境(法人契約プランや社内専用Web UI)」を従業員に提供し、「ここであれば使ってよい」という公認の抜け道を用意することが、結果としてセキュリティレベルを高めます。
2. 役職者を含めたリテラシー教育の徹底
セキュリティ事故は現場だけでなく、特権を持つ役職者からも発生します。特に「自分は大丈夫」と過信しがちな層に対し、具体的なインシデント事例(Samsungの事例や今回のCISAの件など)を共有し、なぜ個人アカウントを使ってはいけないのか、その技術的な背景(学習利用の仕組み)を腹落ちさせる教育が必要です。
3. データ分類とマスキングのルール化
すべての情報をAIに入力禁止にするのは非現実的です。「公開情報はOK」「社外秘情報(レベル2)はマスキングすればOK」「機密情報(レベル3)は社内環境でもNG」といったように、データの重要度に応じた具体的な取り扱いルールを策定してください。特に、個人情報(PII)や顧客データの入力については、AI側のガードレール機能に頼らず、入力前の段階でフィルタリングする仕組みやルールの徹底が求められます。
