世界的なプロフェッショナルファームであるデロイトが、監査部門の職員に対し、ChatGPTへの機密データのアップロードを控えるよう警告を発したという報道がありました。この事象は、生成AIの業務利用が進む中で多くの企業が直面している「利便性とセキュリティのトレードオフ」を象徴しています。本記事では、このニュースを起点に、日本企業が直面する「シャドーAI」のリスクと、実効性のあるガバナンス体制の構築について解説します。
生成AIの業務利用における「見えないリスク」
デロイトの一部門におけるChatGPT利用への警告は、決して対岸の火事ではありません。特に監査や法務、金融といった機密性の高い情報を扱う部門において、生成AIの安易な利用が情報漏洩につながる懸念は、グローバル規模で議論されています。問題の本質は、従業員が悪意を持っているわけではなく、「業務を効率化したい」「より高い品質のアウトプットを出したい」という前向きな動機から、パブリックなAIサービスに機密データを入力してしまう点にあります。
多くのコンシューマー向け生成AIサービス(無料版ChatGPTなど)では、デフォルトの設定において、ユーザーが入力したデータがモデルの再学習(トレーニング)に利用される可能性があります。つまり、ある企業が入力した「未発表の決算数値」や「開発中の製品スペック」が、AIの知識の一部となり、意図せず他社の回答として出力されてしまうリスクが理論上存在します。
日本企業における「シャドーAI」の実態
日本国内でも、生成AIの活用に関心を持つ企業は急増していますが、現場レベルでは、会社が正式なツールやガイドラインを提供する前に、従業員が個人アカウントでChatGPTや翻訳AIなどを利用し始める「シャドーAI(Shadow AI)」が進行しているケースが散見されます。
日本の組織文化として、稟議や承認プロセスに時間がかかる傾向があるため、現場の担当者が「とりあえず試してみる」という感覚で、機密データをマスキング(伏せ字化)せずに外部AIに入力してしまう事例も少なくありません。特に、顧客の個人情報や取引先の機密情報(NDA対象情報)が含まれていた場合、個人情報保護法違反や契約違反といった深刻なコンプライアンス問題に発展する恐れがあります。
「全面禁止」は正解なのか?
リスクを恐れるあまり、生成AIの利用を「全面禁止」にする日本企業もありますが、これは必ずしも最善策とは言えません。なぜなら、生成AIによる業務効率化のインパクトは極めて大きく、これを活用しないことは競合他社に対する競争劣位を招くからです。また、会社のPCでブロックしても、従業員が私物のスマートフォンで業務データを処理してしまうリスクは残ります。
重要なのは、リスクをゼロにすることではなく、リスクをコントロール可能な状態に置くことです。具体的には、入力データが学習に利用されない「オプトアウト設定」が適用された環境や、API経由での利用、あるいはAzure OpenAI Serviceのようなエンタープライズ向けにセキュリティが担保された環境を従業員に提供することです。「安全な抜け道」を用意することで、シャドーAIの抑制とイノベーションの促進を両立させることが、現代のITガバナンスには求められています。
日本企業のAI活用への示唆
今回のデロイトの事例および現在の技術動向を踏まえ、日本企業の意思決定者や実務責任者が取るべきアクションは以下の3点に集約されます。
1. データ入力ポリシーの明確化と周知
「AIを使ってよいかダメか」という二元論ではなく、「どのレベルのデータ(公開情報、社内限、極秘情報)なら、どのツールに入力してよいか」というデータ分類に基づいたガイドラインを策定してください。特に、「入力データが学習に使われるか否か」という技術的な仕様を、非エンジニアの社員にもわかりやすく伝える教育が不可欠です。
2. セキュアなAI環境の整備(Sanctioned AI)
禁止するだけでは現場の不満が溜まる一方です。会社として契約し、データ保護(入力データがモデル学習に使われない契約)が担保された「公認のAI環境」を提供してください。これにより、機密情報の漏洩リスクをシステム的に遮断しつつ、業務効率化を推進できます。
3. ガバナンスと現場の乖離を防ぐ
デロイトの事例では、特定部門が全社の方針と「足並みが揃っていない」ことが指摘されました。日本企業においても、部門ごとの独自判断でツール導入が進むことがあります。IT部門やリスク管理部門は、現場のニーズを吸い上げつつ、全社横断的なモニタリング体制を構築し、組織的なサイロ化を防ぐ必要があります。
