ChatGPTの普及に伴い、関連するブラウザ拡張機能を通じたデータ窃取のリスクが顕在化しています。本稿では、最新のセキュリティ調査に基づき、日本企業が直面する「シャドーAI」の実態と、生産性を損なわずに安全性を確保するためのガバナンス策について解説します。
ChatGPT拡張機能に潜むマルウェアの脅威
生成AIの業務利用が加速する中、ブラウザセキュリティ企業であるLayerX Researchによる調査レポートが警鐘を鳴らしています。同社の調査によると、ChatGPTに関連するChromeブラウザ拡張機能の中に、ユーザーのアカウント情報や個人データを窃取するマルウェアが含まれているケースが少なくとも16件確認されました。
これらの拡張機能は、一見すると「ChatGPTの機能を便利にするツール」として振る舞いながら、バックグラウンドでユーザーのブラウジングデータやセッション情報を外部サーバーへ送信する機能を隠し持っています。これは、生成AIそのものの脆弱性ではなく、その周辺のエコシステムを狙った攻撃であり、多くの企業が見落としがちなセキュリティホールとなっています。
なぜ「拡張機能」がセキュリティホールになるのか
ブラウザ拡張機能は、ユーザーの利便性を高めるために強力な権限(閲覧しているページの内容の読み取りや変更など)を要求することが一般的です。正規のツールであっても、開発者が意図せず脆弱を作り込んでしまったり、あるいは開発権限が第三者に譲渡された後に悪意あるコードが混入されたりするケース(サプライチェーン攻撃の一種)が存在します。
特にChatGPTのようなLLM(大規模言語モデル)を利用する際、ユーザーは業務上の機密情報や顧客データをプロンプトに入力する可能性があります。悪意ある拡張機能は、これらの入力データを傍受するだけでなく、SSO(シングルサインオン)のセッションCookieを盗み出し、企業ネットワークへの不正侵入の足掛かりにする恐れもあります。
日本企業特有の「シャドーAI」リスク
日本企業において、この問題は「シャドーIT」ならぬ「シャドーAI」として深刻化しやすい傾向にあります。日本の現場担当者は業務改善への意識が高く、「もっと効率的に仕事をしたい」という善意から、会社が許可していない便利な拡張機能を個人の判断でインストールしてしまうケースが少なくありません。
また、日本組織特有の「明確な禁止規定がなければ利用してよいと解釈する」文化や、IT部門によるSaaS/ブラウザ管理が厳格でない環境(管理用ブラウザの未導入など)が、リスクを増幅させています。個人情報保護法の改正などにより、企業側のデータ管理責任は年々重くなっており、従業員の個人の端末やアカウント経由での情報漏洩は、経営リスクそのものです。
全面禁止ではなく「管理された利用」へ
リスクがあるからといって、生成AIやブラウザ拡張機能の利用を「全面禁止」にすることは、企業の競争力を削ぐことになりかねません。重要なのは、リスクをコントロールしながら活用することです。
具体的には、企業用ブラウザのポリシー設定により、未承認の拡張機能のインストールをブロックし、安全性が確認されたものだけを許可する「ホワイトリスト方式」の導入が有効です。また、エンドポイントセキュリティ(EDR)の強化や、従業員に対して「拡張機能が持つ権限の意味」を理解させるリテラシー教育も不可欠です。
日本企業のAI活用への示唆
今回の事例を踏まえ、日本企業の意思決定者やIT管理者は以下の3点を意識してAI活用を進めるべきです。
1. AIエコシステム全体のリスク評価
AIモデル自体の安全性(ハルシネーションやバイアスなど)だけでなく、それを利用するためのプラグイン、拡張機能、ラッパーサービスといった「周辺ツール」を含めたセキュリティ評価を行う必要があります。
2. 「禁止」から「可視化と制御」へのシフト
現場の生産性向上意欲を阻害しないよう、一律禁止ではなく、利用状況を可視化(モニタリング)できる環境を整備し、安全なツールを会社として推奨・提供する姿勢が求められます。
3. アカウント管理の徹底
ブラウザ拡張機能によるセッションハイジャックのリスクを考慮し、多要素認証(MFA)の強制や、セッションタイムアウトの短縮など、ID管理(IdP)側での対策も併せて強化することが推奨されます。
