大規模言語モデル(LLM)の活用が加速する中、インターネット上に不用意に公開されたLLMのAPIやインフラを標的とするサイバー攻撃が観測されています。「Bizarre Bazaar」と呼ばれる攻撃キャンペーンの事例をもとに、日本企業が見落としがちなAI開発環境のセキュリティリスクと、実務レベルで求められるガバナンスについて解説します。
露出したLLMエンドポイントを狙う現実的な脅威
生成AIの導入が実験段階から実用段階へと移行するにつれ、AIシステム自体を標的としたサイバー攻撃のリスクが顕在化しています。セキュリティメディアSC Mediaなどが報じた「Bizarre Bazaar(奇妙な市場)」と呼ばれる攻撃キャンペーンは、まさにその象徴的な事例と言えます。
このキャンペーンでは、インターネット上に公開されている保護の甘いLLMインフラストラクチャが標的にされています。具体的には、企業が独自に構築(セルフホスト)したLLMサーバーや、認証設定が不十分なAPIエンドポイント、あるいは開発中のテスト環境などがスキャンの対象となり、攻撃者に悪用されるリスクが指摘されています。
これは、従来のWebサーバーへの攻撃と同様の構図ですが、対象が「AIモデル」や「GPUリソース」、そして「プロンプトに含まれる機密情報」である点において、AI時代特有のリスク管理が求められます。
なぜAIインフラは無防備になりがちか
多くの企業において、AI開発はスピードが優先される傾向にあります。「まずは動くものを作る」「PoC(概念実証)を最速で行う」という号令のもと、エンジニアは利便性を重視してアクセス制限を緩めがちです。
特に以下のようなケースで、セキュリティホールが生まれやすくなります。
- 開発環境のインターネット公開:リモートワークやベンダーとの連携を容易にするため、ファイアウォールの設定を緩め、APIキーなしでアクセスできる状態でLLMサーバーを稼働させてしまう。
- 「野良AI」の放置:PoC終了後にサーバーが停止されず、管理者不在のままインターネット上に放置される(シャドーAI)。
- デフォルト設定の利用:オープンソースのLLM推論ツールなどを導入する際、デフォルトのポートや設定のまま運用してしまう。
「Bizarre Bazaar」のような攻撃者は、こうした隙を見逃しません。自動化されたスキャンツールを用い、応答のあるLLMエンドポイントを探索し、不正アクセスを試みます。
日本企業が直面するリスクと課題
日本企業、特に製造業や金融、サービス業などでDXを推進する組織において、このリスクは他人事ではありません。日本では現在、機密情報保護の観点からOpenAIなどのパブリックAPIを利用せず、オープンソースモデル(Llama 3やQwenなど)を自社環境(オンプレミスやプライベートクラウド)で動作させようとする動きが活発です。
自社構築はデータの社外流出を防ぐ上で有効ですが、同時に「インフラのセキュリティ責任をすべて自社で負う」ことを意味します。SaaS利用であればプロバイダーが担保していた認証やDDoS対策などを、自社のエンジニアや委託先のSIerが適切に設計・設定しなければなりません。
また、日本特有の商習慣として、開発を外部ベンダーに丸投げするケースが多く見られます。この際、納品されたシステムのインフラ設定がセキュリティ要件を満たしているか、発注側が十分に検証できないまま運用が開始されることも少なくありません。責任分界点が曖昧なまま運用されるAIシステムは、格好の攻撃対象となります。
日本企業のAI活用への示唆
AIの恩恵を享受しつつ、インフラ起因のリスクを最小化するために、日本企業のリーダーや実務者は以下の点に留意すべきです。
1. AI資産の棚卸しと可視化(アタックサーフェス管理)
自組織が保有するAI関連のサーバー、APIエンドポイント、外部公開されている開発環境を網羅的に把握してください。特に、各部門が独自に進めたPoC環境が「野良化」していないかを確認することが急務です。
2. 認証・認可の徹底とネットワーク分離
開発環境であっても、インターネットからの無差別なアクセスは遮断すべきです。VPN経由でのアクセスに限定する、推論サーバーへのリクエストには強固なAPIキー認証やIP制限をかけるなど、基本に立ち返った対策が有効です。LLMは単なる計算機ではなく、企業のナレッジへの入り口であることを意識する必要があります。
3. AIセキュリティ(AI TRiSM)の体制構築
AIのリスク管理は、モデルのハルシネーション(嘘の回答)やバイアス対策だけでなく、こうしたインフラセキュリティも含めて包括的に考える必要があります(ガートナーなどが提唱するAI TRiSMの概念)。情報システム部門とAI開発チームが連携し、開発スピードを殺さない範囲で最低限のセキュリティベースラインを策定・適用することが、持続可能なAI活用の第一歩となります。
