19 1月 2026, 月

「便利な拡張機能」が落とし穴に? 生成AI利用におけるブラウザ経由のデータ漏洩リスクと対策

ChatGPTやGeminiなどの生成AI活用が進む中、見落とされがちなのが「ブラウザ拡張機能」経由のデータ漏洩リスクです。Forbes等の報道でも指摘される通り、AIプラットフォーム自体のセキュリティではなく、ユーザーが導入したサードパーティ製ツールが会話内容を収集・売買している実態が明らかになりつつあります。本記事では、この技術的な仕組みと、日本企業がとるべきガバナンスへの示唆を解説します。

プラットフォームではなく「拡張機能」が狙われている

生成AIのセキュリティ議論において、多くの日本企業は「入力データがAIモデルの学習に使われるか否か」に注目してきました。しかし、最新のサイバーセキュリティ動向が示唆しているのは、より盲点となりやすい「ブラウザ拡張機能(アドオン)」のリスクです。

Forbes等の報道によれば、ChatGPTやGemini、Claudeといった主要なAIチャットのインターフェースを機能拡張するツールの中に、ユーザーのチャット履歴を密かに収集し、外部へ送信・販売しているものが存在します。これらの拡張機能は、「チャット履歴の保存」「プロンプトの管理」「PDFの要約」といった便利な機能を提供する裏側で、ブラウザ上の表示内容(DOM)にアクセスする権限を悪用し、表示されている機密情報をスクレイピングしています。

シャドーITとしての「シャドーAI拡張」

この問題の厄介な点は、AIサービス自体(OpenAIやGoogle)のセキュリティに不備がなくても情報が漏洩する点です。特に日本の現場レベルでは、業務効率化への意欲が高い従業員ほど、個人の判断でこうした「業務を便利にする無料ツール」をブラウザにインストールしがちです。

例えば、会議の議事録作成や、社内ドキュメントの要約、あるいはプログラムコードの修正依頼などを生成AIに行わせている最中、その画面上に表示された情報はすべて、悪意ある拡張機能によって閲覧可能な状態にあります。これが、従来の「シャドーIT」に加え、新たに警戒すべき「シャドーAI拡張」のリスクです。

利便性とセキュリティのトレードオフ

もちろん、すべての拡張機能が悪意を持っているわけではありません。正規の開発者による有用なツールも多数存在し、それらは業務効率を劇的に向上させます。しかし、拡張機能のマーケットプレイスにおける審査は必ずしも完璧ではなく、後から所有者が変わり、アップデートで悪意あるコードが混入されるケース(サプライチェーン攻撃の一種)も珍しくありません。

日本企業においては、個人情報保護法や営業秘密の管理の観点から、従業員が「どのAIを使うか」だけでなく、「どのような環境(ブラウザ、デバイス、ネットワーク)でAIにアクセスしているか」を管理する必要性が高まっています。

日本企業のAI活用への示唆

今回の事例から、日本企業の意思決定者やIT管理者が考慮すべき点は以下の3点に集約されます。

1. ブラウザ環境のガバナンス強化
単に生成AIへのアクセスを許可・禁止するだけでなく、ブラウザの拡張機能を管理下におく必要があります。具体的には、企業用ブラウザの導入や、MDM(モバイルデバイス管理)ツール等を用いた「許可された拡張機能のみインストール可能」とするホワイトリスト方式の運用が推奨されます。

2. エンドポイントにおける監視と教育
技術的なブロックと並行して、従業員へのリテラシー教育が不可欠です。「ブラウザに表示されている情報は、拡張機能からも見えている」という基本的な仕組みを周知し、機密情報を扱う際は、拡張機能をオフにした「シークレットモード」や、専用のセキュアな環境を利用するなどのルール作りが求められます。

3. エンタープライズ版AIの利用推奨
コンシューマー向けの無料版AIツールは、個人アカウントの拡張機能の影響を受けやすい傾向にあります。API経由で自社専用のインターフェースを構築するか、セキュリティ機能が強化されたエンタープライズ契約(ChatGPT EnterpriseやGemini for Google Workspaceなど)を利用し、組織管理下の環境で業務を行う体制への移行を急ぐべきでしょう。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です