6 3月 2026, 金

LLM利用時の「ブラウザ拡張機能」という盲点:便利ツールの裏に潜む情報漏洩リスクと対策

生成AIの業務利用が進む中、悪意あるブラウザ拡張機能を通じてChatGPTやDeepSeekなどのチャット履歴が窃取される事案が報告されています。LLM本体のセキュリティ対策だけでは防げない「エンドポイント」のリスクについて、日本企業が認識すべき課題と具体的対策を解説します。

利便性の裏に潜む「クライアントサイド」の脅威

Microsoft Security Blogなどで報告された事例によると、AI機能を補助すると謳った悪意あるブラウザ拡張機能が、ユーザーの知らないところでLLM(大規模言語モデル)とのチャット履歴やブラウジングデータを収集し、外部へ送信していたことが明らかになりました。攻撃の対象にはChatGPTやDeepSeekといった主要なプラットフォームが含まれています。

ここで重要なのは、これが「AIモデル自体の脆弱性」ではないという点です。OpenAIやMicrosoftなどのプロバイダーがサーバー側でどれほど堅牢なセキュリティ対策を講じていても、ユーザーが利用するブラウザ(クライアントサイド)に悪意あるプログラムが常駐していれば、画面に表示された機密情報は容易に抜き取られてしまいます。これは、従来のキーロガーやスパイウェアが進化した形態とも言えます。

「Enterprise版」契約だけでは防げないリスク

多くの日本企業が、情報漏洩を防ぐために「ChatGPT Enterprise」や「Azure OpenAI Service」といった法人向けプランを契約し、「学習データとして利用されない」環境を整備しています。しかし、ブラウザ拡張機能による攻撃は、その安全な通信経路の外側、つまり「ブラウザの表示領域(DOM)」で発生します。

例えば、社員が業務効率化のために「Webページを要約するプラグイン」や「プロンプト入力を支援するツール」を個人の判断でインストールしたとします。そのツールが悪意を持っていた場合、企業が契約しているセキュアな環境にログインしていたとしても、入力した顧客データや会議の議事録は、拡張機能を経由して攻撃者のサーバーへ送信される可能性があります。これは、システム的な防御壁を「ユーザーの権限」で内側から突破される形となります。

日本企業における「シャドーAI」の温床

日本企業、特に現場レベルでは「働き方改革」や「生産性向上」のプレッシャーが高まっており、従業員がIT部門の許可を得ずに便利なツールを導入する「シャドーIT(シャドーAI)」が発生しやすい土壌があります。「無料」「便利」「時短」というキーワードで提供される拡張機能は、真面目な従業員ほど飛びつきやすい傾向にあります。

また、日本特有の事情として、翻訳ツールのニーズが高いことも挙げられます。海外製の優れたLLMを活用する際、翻訳機能を謳う拡張機能を併用するケースは多く、ここがセキュリティホールになるリスクは無視できません。

日本企業のAI活用への示唆

今回の事例は、AI活用におけるセキュリティ境界線が「クラウド」だけでなく「ブラウザ(エンドポイント)」にもあることを再認識させました。日本企業が取るべき対策は以下の通りです。

1. ブラウザポリシーの集中管理
社用PCで使用するブラウザ(EdgeやChromeなど)に対し、管理ポリシーを適用することが急務です。未承認の拡張機能のインストールを技術的にブロックし、ホワイトリスト(許可リスト)方式で運用することを検討してください。

2. ガイドラインの具体化と教育
「機密情報を入力しない」という抽象的なルールだけでなく、「許可されていないブラウザ拡張機能を入れてはならない」「翻訳や要約には会社が指定したツールのみを使う」といった具体的な行動規範を策定する必要があります。

3. エンドポイントセキュリティ(EDR/DLP)の再評価
AI利用に限らず、ブラウザ経由のデータ持ち出しを検知・遮断できる仕組みが機能しているか再確認が必要です。特に、AIサービスへのアクセス自体は許可しつつ、そこでの挙動や付随するツールをどう制御するかが、今後のAIガバナンスの鍵となります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です