ChatGPTをはじめとする生成AIの業務利用が進む中、悪意のあるブラウザ拡張機能によって会話内容が窃取される事例が報告されました。本記事では、この事象の背景を紐解きながら、法人向けプランの導入だけでは防ぎきれないAI利用のセキュリティリスクと、日本企業が講じるべき実務的な対策について解説します。
悪意のある拡張機能がChatGPTの会話を盗み出す手口
ChatGPTをはじめとする大規模言語モデル(LLM)の業務利用が急速に普及する中、新たなセキュリティの脅威が報告されました。セキュリティ専門メディアのSC Magazineによると、「ChatGPT Ad Blocker(ChatGPT広告ブロッカー)」と名乗る悪意のあるChromeブラウザ拡張機能が、ユーザーとChatGPTの会話内容を密かに窃取していたことが判明しました。
この拡張機能は「DOM(Document Object Model)クローニング」と呼ばれる技術を悪用しています。DOMとは、Webブラウザがページを表示するためのデータ構造のことです。この拡張機能は、ユーザーの画面に表示されているWebページの構造をコピーし、会話の中から150文字以上のテキストを抽出して外部のサーバーに送信していました。つまり、AIモデルのシステム自体がハッキングされたわけではなく、ユーザーの端末(ブラウザ)上でテキストが表示された瞬間にデータが横取りされていたのです。
「法人向けプランなら安全」という思い込みの死角
日本国内の多くの企業では、従業員による機密情報や個人情報の漏洩(AIの学習データとして利用されてしまうリスク)を防ぐため、入力データが学習利用されない法人向けプラン(ChatGPT Enterpriseなど)や、APIを活用した自社専用のAI環境を導入するケースが増えています。
しかし、今回の事例は、そうした「AIベンダー側のセキュリティ対策やガバナンス設定」だけでは防ぎきれないリスクの存在を示しています。日本の商習慣や組織文化において、セキュリティ対策をIT部門が導入したシステムや外部ベンダーに依存しがちな傾向が見られますが、どれほどセキュアなAIサービスを契約していても、エンドポイント(従業員が操作するPCやブラウザ)が侵害されていれば、入力したプロンプトや出力結果は筒抜けになってしまいます。
シャドーAIと周辺ツールのリスク管理
AIの活用が進むにつれ、業務効率をさらに高めようと、従業員が独自の判断で便利なプラグインやブラウザ拡張機能(プロンプトのテンプレート集や不要なUIの非表示ツールなど)をインストールしてしまう「シャドーAI(IT部門が把握・許可していないAI関連ツールの利用)」のリスクが高まっています。
企業としては、AIそのものの利用ガイドラインを策定するだけでなく、AIを利用する環境(ブラウザや端末)の統制も徹底する必要があります。具体的には、MDM(モバイルデバイス管理)ツールやブラウザのグループポリシーを活用し、業務利用するPCでの拡張機能のインストールを「ホワイトリスト方式(許可したもののみ利用可能)」に制限するなどの技術的な対策が求められます。
日本企業のAI活用への示唆
今回の事象から得られる、日本企業が安全にAIを活用するための要点と実務への示唆は以下の通りです。
・AIのセキュリティは「エンドポイント」まで含めて考える:AIベンダーが提供する学習拒否やデータ暗号化の機能は重要ですが、それらはブラウザ画面上の情報窃取を防ぐものではありません。AI環境の整備と並行して、端末やブラウザのセキュリティ(ゼロトラストの観点)を再点検する必要があります。
・周辺ツールの利用ルールの明文化:AIを便利に使うためのサードパーティ製ツールやブラウザ拡張機能の利用について、社内のAI利用ガイドラインに明確なルールを追加すべきです。便利なツールに潜むリスクについて、従業員への継続的なリテラシー教育を行うことが重要です。
・利便性とガバナンスのバランス:ガバナンスを厳格にしすぎてブラウザの機能を過度に制限すると、従業員の生産性向上を阻害する恐れがあります。プロダクト担当者やIT部門は、業務上真に必要な拡張機能を迅速に審査・許可する体制を整え、現場のニーズとセキュリティ要件を両立させることが、持続可能なAI活用の鍵となります。
