19 1月 2026, 月

生成AI利用時の「ブラウザ拡張機能」に潜むリスク:チャット履歴流出事例から学ぶ日本企業のセキュリティ対策

主要なChrome拡張機能が、ChatGPTやClaudeなどの生成AIサービス上のチャット履歴を不正に取得していたことが発覚しました。本記事では、この事例を端緒に、日本企業が見落としがちな「ブラウザ拡張機能」というセキュリティホールと、実務におけるガバナンスのあり方について解説します。

何が起きたのか:数百万人が利用する拡張機能によるデータ傍受

セキュリティメディアのThe Hacker Newsなどが報じたところによると、数百万人のユーザーを持つ人気のブラウザ拡張機能「Urban VPN」が、ユーザーの許可なく生成AIサービス上のチャットデータを傍受していたことが明らかになりました。対象となったプラットフォームは、ChatGPT、Anthropic Claude、Microsoft Copilot、Google Gemini、Perplexityなど、現在ビジネスで利用される主要なサービスのほぼすべてが含まれています。

この事案が示唆するのは、特定のVPNアプリの危険性だけではありません。「便利なツール」として日常的に利用しているブラウザ拡張機能が、実は企業の機密情報を吸い上げるパイプラインになり得るという、構造的なリスクです。

なぜ「ブラウザ拡張機能」がセキュリティの盲点になるのか

生成AIの導入において、多くの日本企業は「入力データがAIの学習に使われないか(オプトアウト設定)」や「契約プランによるデータ保護」には細心の注意を払っています。しかし、そのAIを利用するための「ブラウザ環境」そのもののセキュリティは見落とされがちです。

ブラウザ拡張機能の多くは、動作するために「アクセスしたウェブサイト上の全データの読み取りと変更」という強力な権限を要求します。ユーザーが「許可」ボタンを押した瞬間、その拡張機能はブラウザ上に表示されるテキスト(機密情報を含むプロンプトや、AIからの回答)に自由にアクセスできるようになります。

たとえ企業がOpenAIやMicrosoftとエンタープライズ契約を結び、強固なデータ保護契約下にあったとしても、ユーザーのブラウザ側でデータが抜き取られてしまえば、元も子もありません。これは、サーバーサイドのセキュリティでは防げない「エンドポイント(端末)」のリスクです。

日本企業における「シャドーIT」と利便性のジレンマ

日本企業、特に現場の部門では、業務効率化への意識が高い従業員ほど、翻訳ツールや要約ツール、VPNなどの拡張機能を自発的にインストールする傾向があります。これを「シャドーIT(情報システム部門が把握していないIT利用)」と呼びます。

日本の商習慣や組織文化において、従業員は「業務を円滑に進めるため」という善意でこれらのツールを利用することが大半です。しかし、無料の拡張機能の多くは、ユーザーデータを収集・販売することで収益を得ている場合があり、中には悪意を持って認証情報や機密データを狙うものも混在しています。

特に、海外のリサーチや翻訳業務で生成AIを活用する際、VPNや翻訳系の拡張機能は必須級のツールとして認識されていますが、これらがセキュリティホールとなるリスクへの認識は、現場レベルではまだ十分とは言えません。

実務的な対策:禁止と許可のバランス

では、企業はどのように対応すべきでしょうか。「全ての拡張機能を禁止する」というのは一つの解ですが、それでは生成AIの利便性や業務効率を大きく損なう可能性があります。

推奨されるアプローチは以下の通りです。

  • ブラウザ管理ポリシーの適用:Chrome EnterpriseやEdge for Businessなどの管理機能を使い、組織全体でインストール可能な拡張機能を制御します。基本的には「ホワイトリスト方式(許可されたもののみインストール可能)」への移行が最も安全です。
  • 権限の最小化:拡張機能が要求する権限(Permissions)を定期的に棚卸しし、不要に広範な権限を持つツールの利用を制限します。
  • エンタープライズブラウザの検討:セキュリティに特化したブラウザを導入し、業務利用と個人利用の環境を完全に分離することも有効な手段です。

日本企業のAI活用への示唆

今回の事例から、日本企業がAI活用を進める上で留意すべきポイントは以下の3点に集約されます。

1. AIガバナンスの範囲を「ブラウザ」まで拡張する

「ChatGPTを導入した」で安心せず、その利用環境であるブラウザやOS、インストールされているアドオンまで含めた「ゼロトラスト(何も信頼しない)」の視点を持つ必要があります。AIベンダー側のセキュリティだけでなく、クライアントサイドの環境整備が急務です。

2. 「性善説」に依存しない仕組みづくり

従業員のモラルやリテラシーに依存したセキュリティ対策には限界があります。特に拡張機能に関しては、悪意がなくても「便利だから」という理由で導入されがちです。システム的に制御(ホワイトリスト化など)しつつ、業務に必要なツールは会社として正式に契約・提供するという、アメとムチのバランスが重要です。

3. インシデント対応計画の見直し

万が一、プロンプトに入力した機密情報が外部に流出した場合、どのような影響があるかを再評価してください。AIへの入力データには、顧客情報や未発表の製品情報が含まれることが多いため、従来の情報漏洩対策以上の迅速な検知と対応フローが求められます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です