IBMのセキュリティ研究部門が、情報窃取マルウェア(Info-stealers)によって30万件以上のChatGPTの認証情報が盗まれたと報告しました。このニュースは単なるパスワード流出にとどまらず、生成AI特有の「会話履歴」を通じた機密情報漏洩のリスクを浮き彫りにしています。日本企業が直面する「シャドーAI」の現状と、いま求められるガバナンスと技術的対策について解説します。
情報窃取マルウェアによる認証情報の大量流出
IBM Security X-Forceの調査によると、過去1年間にわたり、情報窃取型マルウェア(Info-stealers)を用いて30万件を超えるChatGPTの認証情報(ログインIDとパスワード)が収集されていたことが明らかになりました。これはOpenAI社のサーバーがハッキングされたわけではなく、ユーザー個人のPCや端末がマルウェアに感染し、ブラウザに保存されたパスワードなどが盗み出されたことを意味しています。
情報窃取マルウェアは、フィッシングメールや不正なソフトウェアダウンロードを通じて端末に侵入します。一度感染すると、ブラウザに保存されている認証情報、セッションCookie、暗号資産ウォレットの情報などを根こそぎ外部へ送信します。今回、そのターゲットとしてChatGPTのアカウント情報が大量に含まれていたことは、攻撃者にとって「生成AIのアカウント」が高い価値を持ち始めていることを示唆しています。
なぜ「ChatGPTのアカウント」が狙われるのか
従来のWebサービスであれば、アカウント流出のリスクは個人情報の閲覧や不正購入などが主でした。しかし、生成AI、特にLLM(大規模言語モデル)のチャットサービスにおいては、リスクの質が異なります。攻撃者が狙っているのは、単なるログイン権限だけでなく、そこに保存されている「会話履歴(プロンプト履歴)」です。
業務効率化のためにChatGPTを利用しているユーザーは、知らず知らずのうちに以下のような情報を入力している可能性があります。
- 会議の議事録要約(社外秘のプロジェクト内容)
- プログラムのデバッグ(独自のソースコード)
- 顧客対応メールの推敲(顧客名や取引内容)
- 事業戦略の壁打ち(未公開の経営情報)
攻撃者がアカウントにアクセスできれば、これらの会話ログをすべて閲覧可能です。つまり、認証情報の流出は、そのまま企業の機密情報の流出に直結する恐れがあります。特にLLMは文脈を理解するために入力される情報量が多岐にわたる傾向があり、情報の「宝庫」となりやすいのです。
日本企業における「シャドーAI」とセキュリティ文化の課題
日本国内においても、多くの企業で生成AIの活用が進む一方で、セキュリティへの懸念から「会社支給のデバイスでのAI利用禁止」や「アクセス制限」を行っている組織も少なくありません。しかし、現場の業務効率化ニーズは高く、結果として従業員が個人のスマートフォンや自宅のPCから、個人のアカウントを使って業務データを処理する「シャドーAI(Shadow AI)」が横行する要因となっています。
今回のIBMの報告にあるようなマルウェア感染は、セキュリティ対策が強固な社内ネットワーク内の端末よりも、管理が緩やかな個人のデバイスや、リモートワーク環境下の端末で発生しやすい傾向があります。日本企業特有の「厳格な禁止ルール」が、かえって従業員を抜け道へと走らせ、よりセキュリティレベルの低い環境(個人の無料アカウントや保護されていない端末)での業務利用を誘発しているという皮肉な現状があります。
また、日本ではブラウザのパスワード保存機能に依存するユーザーが多く、かつ同じパスワードを複数のサービスで使い回す傾向も依然として根深いです。これが、情報窃取マルウェアによる被害を拡大させる一因となっています。
日本企業のAI活用への示唆
今回の事例を受け、日本の意思決定者やエンジニアは以下の観点で対策を見直す必要があります。
1. 「禁止」から「管理された利用」への転換
単に生成AIの利用を禁止するだけでは、シャドーAIによるリスクを防げません。むしろ、SSO(シングルサインオン)に対応した法人向けプラン(ChatGPT EnterpriseやAzure OpenAI Serviceなど)を会社として契約・提供し、ログが管理できる安全な環境を従業員に与えることが、結果としてリスク低減につながります。
2. エンドポイントセキュリティとID管理の徹底
今回の原因はマルウェア感染です。EDR(Endpoint Detection and Response)の導入など端末側の防御はもちろんですが、最も効果的なのは認証の強化です。多要素認証(MFA)を強制することで、万が一パスワードが盗まれても、攻撃者は容易にログインできなくなります。特にAIサービスへのアクセスにはMFAを必須とするポリシー策定が急務です。
3. データ入力に関するガイドラインの再教育
「認証情報が盗まれる」ことを前提としたリスク管理が必要です。AIに対して「個人情報(PII)」や「具体的すぎる機密データ」を入力しないよう、マスキング処理やデータの抽象化を行う具体的なガイドラインを策定し、現場に浸透させることが重要です。
AIの利便性を享受しつつ、ガバナンスを効かせるためには、技術的な防御と組織的なルール作りの両輪が必要不可欠です。
