ChatGPTやDeepSeekなどの生成AIサービスの利用が広がる中、悪意あるブラウザ拡張機能を通じた会話データの窃取被害が報告されています。60万人以上のユーザーに影響を与えたとされるこの事例は、日本企業にとっても対岸の火事ではありません。「シャドーAI」のリスクを再認識し、利便性とセキュリティを両立させるためのガバナンス構築が急務です。
悪意ある拡張機能によるデータ窃取の実態
最近のセキュリティレポートによると、Google Chromeの拡張機能として配布されていた「Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI」を含む複数のツールが、ユーザーのChatGPTやDeepSeekにおける会話履歴を密かに窃取していたことが明らかになりました。これらの拡張機能は、60万人以上のユーザーにインストールされており、その規模の大きさが懸念されています。
手口としては、ユーザーが「最新のAIモデル(GPT-5など)が使える」「複数のAIを統合管理できる」といった宣伝文句に惹かれて拡張機能をインストールすると、ブラウザ上の権限を利用してAIチャットの画面情報を読み取り、外部サーバーへ送信するというものです。特に、未発表のモデル名を騙るなど、ユーザーの期待心理を巧みに利用している点が特徴です。
なぜ「シャドーAI」は止まらないのか
日本企業においても、業務効率化のために生成AIを活用したいという現場のニーズは高まっています。しかし、会社公認のツールが整備されていない、あるいは承認プロセスが遅い場合、従業員は自身の判断で「便利な無料ツール」を導入しがちです。これがいわゆる「シャドーIT」ならぬ「シャドーAI」の問題です。
今回の事例で盗まれたのが単なる雑談であれば影響は軽微ですが、実務においては「会議議事録の要約」「プログラミングコードのデバッグ」「顧客メールのドラフト作成」などにAIが使われるケースが多々あります。もし、これらの会話データに機密情報や個人情報が含まれていた場合、拡張機能を通じて外部に流出し、重大なコンプライアンス違反や競争力の低下を招くリスクがあります。
技術とルールの両面からのアプローチ
この種のリスクに対処するため、企業は以下の対策を検討する必要があります。
まず技術面では、企業管理下のブラウザ(Chrome EnterpriseやEdge for Businessなど)の設定を見直し、拡張機能のインストールをホワイトリスト方式(許可されたもののみ導入可能)に制限することが有効です。また、エンドポイントセキュリティ製品(EDR)やSASE(Secure Access Service Edge)を活用し、不審な通信先へのアクセスを検知・遮断する仕組みも重要です。
運用・ルール面では、「AI利用ガイドライン」の策定と周知が不可欠です。単に「禁止」するだけでは、従業員は隠れて利用するため逆効果になりかねません。「機密情報は入力しない」「ブラウザ拡張機能は会社が許可したもの以外使わない」といった具体的なルールを設けつつ、安全に使える代替ツール(法人契約のChatGPT Enterpriseなど)を提供することが、最も効果的な抑止策となります。
日本企業のAI活用への示唆
今回の事例は、生成AIそのものの脆弱性ではなく、それを取り巻くエコシステム(周辺ツール)の脆弱性を突いたものです。日本企業がAI活用を進める上で、以下の3点が重要な示唆となります。
1. エコシステム全体を含めたリスク評価
AIモデル本体のセキュリティだけでなく、プラグイン、ブラウザ拡張機能、API連携するサードパーティアプリなど、周辺環境を含めた包括的なリスク評価が必要です。
2. 「禁止」から「管理された許可」への転換
現場の生産性向上意欲を削がないよう、全面禁止ではなく、安全性が確認されたツールを積極的に提供する「管理された許可」へのシフトが求められます。これは日本の現場主導の改善文化とも親和性が高いアプローチです。
3. 従業員リテラシー教育のアップデート
「怪しいファイルを開かない」といった従来のセキュリティ教育に加え、「誇大広告(GPT-5など)を謳うツールを疑う」「ブラウザの権限要求を確認する」といった、AI時代特有のリテラシー教育を定期的に実施する必要があります。
