17 2月 2026, 火

攻撃者の「AI武装化」にどう備えるか──Google脅威レポートから読み解く、生成AI・自律エージェント時代のセキュリティ戦略

Googleの脅威インテリジェンス部門による最新レポートは、サイバー攻撃者が生成AIや「エージェント型AI」を攻撃サイクルの全段階で悪用し始めている実態を明らかにしました。本稿では、このレポートを起点に、日本の企業が直面する新たなリスクと、技術的・組織的に講じるべき対策について解説します。

「守りのAI」だけでなく「攻めのAI」も進化している現実

生成AI(Generative AI)の活用がビジネスの現場で進む中、Google Threat Intelligence Groupが発表したレポートは、私たちに重要な警鐘を鳴らしています。それは、企業が業務効率化のためにAIを導入するのと同様に、攻撃者(Threat Actors)もまた、窃盗やスパイ活動のためにGeminiを含む高度なLLM(大規模言語モデル)を活用しているという事実です。

これまで、攻撃者によるAI利用といえば、フィッシングメールの文面作成や簡単なスクリプト生成といった限定的なものが中心でした。しかし、今回のレポートが示唆するのは、偵察、武器化、配送、実行といったサイバーキルチェーン(攻撃の各段階)のすべてにおいて、AIの支援が組み込まれつつあるという現状です。特に注目すべきは、「Agentic AI(自律エージェント型AI)」の台頭です。

「Agentic AI」がもたらす脅威の質的変化

「Agentic AI」とは、単に人間が指示したテキストを生成するだけでなく、与えられた目標(例:特定のシステムへの侵入経路を探す)に対して、自律的に思考し、ツールを選択・実行し、試行錯誤を行うAIシステムを指します。

従来、高度な標的型攻撃を行うには熟練したハッカーのスキルと時間が必要でした。しかし、エージェント型AIが悪用されると、攻撃の「自動化」と「スケーリング(規模拡大)」が容易になります。例えば、公開されている脆弱性情報の収集から、それを突くコードの修正、さらには侵入後の内部探索に至るまで、AIエージェントが自律的に実行する未来が現実味を帯びてきています。これは、日本の情報システム部門が直面している「セキュリティ人材不足」という弱点を、攻撃者がAIというレバレッジを使って突いてくることを意味します。

日本企業にとっての「言葉の壁」の崩壊

日本企業にとって特に深刻なのは、生成AIによって「日本語という自然の防壁」が崩れ去っている点です。

かつて、海外からのフィッシング攻撃やビジネスメール詐欺(BEC)は、不自然な日本語や違和感のある文脈によって比較的容易に見抜くことができました。しかし、最新のLLMを悪用すれば、日本の商習慣や敬語表現を踏まえた、極めて自然で説得力のある日本語メールを大量に生成可能です。

また、生成AIは音声や画像の生成(ディープフェイク)も容易にします。取引先の担当者や自社の経営層になりすました音声通話やビデオ会議による詐欺攻撃(オレオレ詐欺の高度な法人版)のリスクも、もはやSFの話ではありません。日本特有の「空気を読む」文化や「権威への追従」といった組織心理を、AIが生成したコンテキストによって巧みに操られるリスクが高まっています。

AIにはAIを:防御側の進化とガバナンス

攻撃側の進化に対し、防御側もAI活用が必須となります。膨大なログデータから異常検知を行う従来のSIEM(Security Information and Event Management)に加え、AIを用いて脅威の予兆をリアルタイムで分析し、自律的に対処する「AI主導型セキュリティ」への移行が求められます。

しかし、ツールを入れるだけでは不十分です。AIガバナンスの観点からは、以下の2つの視点が必要です。

  • 従業員によるAI利用の統制(Shadow AI対策): 従業員が業務データを安易にパブリックなAIに入力し、そこから情報が漏洩するリスク。
  • 攻撃者によるAI悪用の想定: 自社のセキュリティテスト(ペネトレーションテスト)において、攻撃者がAIを用いてくるシナリオを想定できているか。

日本企業のAI活用への示唆

Googleのレポートは特定のモデル(Gemini)への言及を含んでいますが、本質的な課題はすべてのLLMに共通する「デュアルユース(軍民両用)」の性質にあります。日本企業は以下の3点を念頭に置くべきです。

1. 「怪しい日本語」を検知基準から外す
従業員のセキュリティ教育において、「日本語の違和感」を判断基準にするのはもはや危険です。文脈、送信元、緊急性を煽る内容そのものに対する論理的な確認プロセス(多要素認証の徹底や、別経路での本人確認など)を標準化する必要があります。

2. 開発プロセスにおけるAIセキュリティの強化
自社でAI機能を組み込んだプロダクトを開発する場合、プロンプトインジェクション(AIへの不正な命令)や、学習データの汚染といったAI特有の脆弱性への対策を、開発ライフサイクル(DevSecOps)に組み込む必要があります。

3. AI活用の「守り」への投資
AIを業務効率化(攻め)に使う予算をつける際、同等かそれ以上の比重で、AIを活用したセキュリティ対策(守り)にも投資を行うべきです。攻撃の自動化に対抗できるのは、自動化された防御だけです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です