17 1月 2026, 土

ブラウザ拡張機能に潜む生成AIの情報漏洩リスク:ChatGPTやDeepSeekの履歴流出事例から考えるセキュリティ対策

Cybernewsの最新の報告によると、Google Chromeの拡張機能を通じてChatGPTやDeepSeekのチャット履歴が盗み出される事案が発生しており、影響は90万人以上に及ぶとされています。Googleの「おすすめ」バッジが付与された拡張機能さえもが悪用されていたという事実は、日本企業のAIガバナンスにおける「ブラウザ環境の管理」の重要性を改めて浮き彫りにしています。

信頼されていた「拡張機能」がAIの会話を盗聴する

Cybernewsが報じた調査結果は、多くのAI利用者にとって衝撃的な事実を含んでいました。Google Chromeウェブストアで配信され、中にはGoogle公式の「おすすめ(Featured)」バッジを獲得していた拡張機能までもが、悪意のある動作を行っていたのです。これらの拡張機能は、ユーザーがChatGPTやDeepSeekなどの生成AIサービスとやり取りする画面上のデータを密かに収集し、外部サーバーへ送信していました。

この事例で特筆すべきは、攻撃者が「AIそのものの脆弱性」ではなく、ユーザーの利用環境である「ブラウザ」を標的にした点です。生成AIの急速な普及に伴い、入力補助や翻訳、履歴保存といった便利な機能を提供する拡張機能が数多くリリースされていますが、その利便性の裏側に、機密情報へのバックドアが仕掛けられているリスクが顕在化しました。

なぜ生成AIのチャット履歴が狙われるのか

かつてブラウザ拡張機能によるデータ窃取といえば、検索履歴や広告IDなどが主なターゲットでした。しかし、現在攻撃者が最も関心を寄せているのは、生成AIとの「対話ログ」です。

企業の実務において、エンジニアは独自のソースコードのデバッグを、マーケターは新商品の企画案を、法務担当者は契約書のドラフト作成をAIに依頼することが日常化しています。つまり、チャット履歴には企業の知的財産、未公開情報、あるいは顧客の個人情報がそのままの形で含まれている可能性が高いのです。これらが流出することは、単なるプライバシー侵害を超え、企業の競争優位性の喪失や重大なコンプライアンス違反に直結します。

日本企業における「シャドーAI」とブラウザ管理の課題

日本国内の多くの企業では、DX(デジタルトランスフォーメーション)の一環として生成AIの導入が進んでいますが、現場主導で無料版やWebブラウザ版のツールを利用するケースも少なくありません。ここで問題となるのが、いわゆる「シャドーIT」ならぬ「シャドーAI」の文脈で導入されるブラウザ拡張機能です。

「業務を効率化したい」という善意の動機から、従業員が個人の判断で便利な拡張機能をインストールしてしまうケースが後を絶ちません。特に日本企業は、IT部門によるガバナンスと現場の利便性のバランスに悩むことが多く、ブラウザの拡張機能まで厳格にホワイトリスト管理できている組織はまだ少数派です。「Googleのストアにあるものなら安全だろう」という思い込みが、今回の事例のようなリスクを招く要因となります。

Web UI利用のリスクとAPI活用の重要性

今回のインシデントは、ChatGPTやDeepSeekといったサービスのWeb UI(ブラウザ画面)を利用することの構造的なリスクを示唆しています。Web UIは手軽ですが、ブラウザ上で動作する他のプログラム(拡張機能など)からの干渉を受けやすい環境です。

より高度なセキュリティを求める場合、企業はWeb UI経由での利用を制限し、APIを経由して自社のセキュアな環境内に構築したチャットインターフェースを利用する方式(RAG構築などを含む)へ移行することが推奨されます。API利用であれば、ブラウザ拡張機能による画面読み取りのリスクを排除できるだけでなく、入力データがAIモデルの学習に利用されない設定(オプトアウト)も確実に適用しやすくなります。

日本企業のAI活用への示唆

今回の事例を踏まえ、日本企業の意思決定者やIT管理者が講じるべき対策は以下の通りです。

1. ブラウザ拡張機能の統制強化
IT部門はMDM(モバイルデバイス管理)やグループポリシーを活用し、ブラウザ拡張機能のインストールを原則禁止、または許可制(ホワイトリスト方式)に移行する必要があります。「おすすめ」バッジやユーザー数だけで安全性を判断せず、権限(Permissions)を確認するプロセスが不可欠です。

2. セキュアなAI利用環境の提供
従業員がリスクのある拡張機能を使いたくなるのは、標準環境が不便だからです。企業公認の安全なAIチャットツール(Enterprise版やAPI連携ツール)を整備し、翻訳や要約といったニーズに応える機能を公式に提供することが、結果としてシャドーAIの抑制につながります。

3. データ入力ルールの再徹底
いかなるセキュリティ対策も完璧ではありません。最終的な防衛線は「機密データを外部のAIに入力しない」という意識です。個人情報や未発表の機密情報の入力禁止を改めて周知し、必要に応じてDLP(情報漏洩防止)ソリューションでAIサービスへのペーストを監視するなどの技術的対策も検討すべきでしょう。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です