20 2月 2026, 金

生成AIを「実行時」に悪用するマルウェア「PromptSpy」の出現と、日本企業に求められるセキュリティ観点の転換

セキュリティメディアSecurityWeekなどが報じたAndroid向けマルウェア「PromptSpy」は、GoogleのGeminiを実行時に悪用して永続化を図るという新たな手口を用いていることが判明しました。攻撃者がコード生成にAIを使う段階から、マルウェア自体がAIと対話して挙動を変える段階へと脅威が進化している現状を踏まえ、日本企業がとるべき対策とガバナンスのあり方を解説します。

生成AIが悪意ある「頭脳」として組み込まれる時代へ

これまで、サイバーセキュリティ分野における生成AIの脅威といえば、フィッシングメールの文面作成や、攻撃コードの生成補助といった「攻撃準備段階」での利用が主でした。しかし、今回報じられた「PromptSpy」というAndroidマルウェアの事例は、そのフェーズが一つ進んだことを示唆しています。

報道によると、中国の開発者によるものとされるこのマルウェアは、侵入したデバイス上でGoogleの生成AI「Gemini」のAPIを呼び出し、自身の活動を維持(永続化)するための技術的な情報をリアルタイムで取得・実行しているとされます。これは、マルウェアが固定されたプログラム通りに動くのではなく、状況に応じてAIという「外部の頭脳」に相談し、セキュリティ対策を回避したり、システムに居座り続けたりする方法を動的に決定できることを意味します。

「Living off the LLM」という新たなリスク

セキュリティ業界では、OS標準の正規ツール(PowerShellなど)を悪用して検知を逃れる攻撃手法を「Living off the Land(環境寄生型)」と呼びますが、今回の事例はまさにそのAI版、「Living off the LLM」とも呼ぶべき現象です。

日本企業において、業務効率化やDX(デジタルトランスフォーメーション)の一環としてLLMのAPI活用が進む中、社内ネットワークからAIサービスへの通信は「正規の業務通信」としてホワイトリスト化されているケースが少なくありません。攻撃者はこの盲点を突き、マルウェアによるC&Cサーバー(指令サーバー)への通信を、正規のAIサービスへのAPIコールに偽装、あるいは混入させることで、ファイアウォールやIDS(侵入検知システム)をすり抜ける可能性があります。

特に「PromptSpy」のように、デバイス上での永続化(再起動後も動作し続ける設定など)にAIの推論能力が使われると、OSのバージョンアップやセキュリティパッチによる環境変化にも、マルウェアが自律的に適応してしまう恐れがあります。

日本企業におけるモバイル・AIガバナンスへの影響

日本国内でも、社用スマートフォンの支給やBYOD(私物端末の業務利用)は一般的ですが、PCに比べてモバイル端末のセキュリティ対策は手薄になりがちです。今回の事例はAndroidを標的としたものですが、同様の手法はiOSやデスクトップOSにも応用可能です。

多くの日本企業では「自社の社員がAIに機密情報を入力しないか」という情報漏洩リスク(DLP)には敏感ですが、「外部から侵入したプログラムが、勝手にAIを使って攻撃能力を高める」というインバウンドのリスクにはまだ十分な備えができていないのが実情ではないでしょうか。AIベンダー側も不正利用対策を強化していますが、汎用的なAPI利用の中から悪意あるクエリだけを完全に遮断するのは技術的に困難です。

日本企業のAI活用への示唆

今回の「PromptSpy」の事例から、日本の経営層やセキュリティ担当者、ITアーキテクトが学ぶべき要点は以下の通りです。

  • 「AI通信=安全」という前提の見直し
    AIサービスへの通信は無条件に信頼するのではなく、どのアプリケーションが、どのような頻度やコンテキストでAPIを呼び出しているかを可視化・監視する必要があります。EDR(エンドポイントでの検知と対応)や次世代ファイアウォールでの詳細なトラフィック分析が求められます。
  • 動的な脅威への対応シフト
    従来のシグネチャベース(既知のウイルスパターンとの照合)の対策では、AIによって挙動を変化させるマルウェアには太刀打ちできません。振る舞い検知や、ゼロトラストアーキテクチャに基づいた「常に検証する」姿勢がより重要になります。
  • AI利用ガイドラインの拡張
    社内のAI利用規定において、人間による利用だけでなく、システムやアプリケーションによるAPI利用(Machine-to-Machine)の認証・認可プロセスを厳格化してください。特に、社給端末にインストールを許可するアプリの審査基準に、外部AIサービスとの通信挙動を含める検討が必要です。

AIは強力なビジネスツールであると同時に、攻撃者にとっても強力な武器となり得ます。リスクを正しく恐れ、多層的な防御網を構築することが、安全なAI活用への第一歩となります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です