Googleの脅威インテリジェンスチームは、攻撃者がGemini等の生成AIを攻撃の全段階で悪用していると報告しました。かつて「日本語の壁」に守られてきた日本企業にとって、自然な日本語を操るAIの登場は脅威の質を劇的に変える可能性があります。本稿では、この報告を起点に、日本企業が備えるべきAI時代のセキュリティ対策とガバナンスについて解説します。
攻撃者によるAI活用の実態:ツールとしての「Gemini」
Googleの脅威インテリジェンスグループ(GTIG)による最新の報告は、サイバーセキュリティの現場における生成AIの役割が、防御側だけでなく攻撃側にとっても不可欠なものになりつつあることを示唆しています。報告によれば、APT(Advanced Persistent Threat:高度な持続的脅威)アクターと呼ばれる国家背景を持つような高度な攻撃者グループまでもが、GoogleのGeminiをはじめとする生成AIを攻撃のあらゆる段階で活用しているとされています。
具体的には、標的型攻撃メールの文面作成、脆弱性を突くためのスクリプト生成、あるいは情報の整理・分析といったタスクにおいて、生成AIが「業務効率化ツール」として攻撃者に利用されています。これは、AIが特別な技術を持つハッカーだけのものではなく、攻撃者にとっても生産性向上のためのコモディティ(汎用品)となっていることを意味します。
「日本語の壁」の崩壊と日本企業へのリスク
日本企業にとって最も警戒すべき点は、生成AIの高度な言語能力によって、かつて日本のセキュリティを守っていた「日本語の壁」が事実上崩壊しつつあることです。
これまで、海外からのフィッシングメールやビジネスメール詐欺(BEC)の多くは、機械翻訳特有の不自然な日本語を含んでおり、従業員が違和感に気づくことが容易でした。しかし、GeminiやGPT-4のようなLLM(大規模言語モデル)を悪用すれば、流暢で自然な、さらには日本のビジネス慣習(敬語や挨拶の定型句など)に即した日本語メールを瞬時に作成可能です。
これにより、巧妙なソーシャルエンジニアリング攻撃(人間の心理的な隙や行動のミスにつけ込む攻撃)の成功率が高まることが予想されます。特に、取引先を装った請求書の偽造や、経営層になりすました緊急の送金指示などにおいて、文面だけで真偽を判断することは極めて困難になるでしょう。
攻撃の「全段階」でのAI活用とは
元記事にある「攻撃の全段階(all attacks stages)」という表現は、サイバーキルチェーン(攻撃の一連のプロセス)の各フェーズを指しています。AIの悪用は以下のような広範囲に及びます。
- 偵察(Reconnaissance): 公開情報の収集や、ターゲット企業の技術スタックの分析をAIが効率化します。
- 武器化(Weaponization): 攻撃コードの作成や、難読化(セキュリティソフトによる検知を逃れるためのコード加工)に生成AIのコーディング能力が使われます。
- デリバリー(Delivery): 前述のような、ターゲットに合わせたパーソナライズされたフィッシングメールの作成です。
プログラミングの専門知識が浅い攻撃者(スクリプトキディ)でも、AIの支援を受けることで、高度なマルウェアを作成したり、既存の攻撃コードを修正したりすることが容易になっています。これは「脅威の民主化」とも呼ぶべき状況であり、攻撃の数と質が同時に向上するリスクを孕んでいます。
防御側の視点:AIでAIに対抗する
一方で、悲観するばかりではありません。AIは防御側にとっても強力な武器となります。GoogleやMicrosoftなどのプラットフォーマーは、まさにGeminiやCopilotなどのAI技術をセキュリティ製品に組み込み、脅威の検知、ログ分析、インシデント対応の自動化を進めています。
膨大なログデータから異常な振る舞いをリアルタイムで検出したり、難読化された攻撃コードの意図をAIが解析したりする能力は、人間のみの運用では不可能です。今後は「人間 vs 人間」の戦いから、「AIを活用した攻撃者 vs AIを活用した防御者」という構図へシフトしていくことが確実です。
日本企業のAI活用への示唆
今回のGoogleの報告を受け、日本企業の意思決定者やエンジニアは以下の観点で対策を見直す必要があります。
1. セキュリティ教育のアップデート
「怪しい日本語のメールに注意」という従来の教育はもはや通用しません。文脈の不自然さ、急な依頼、普段と異なる連絡経路など、より本質的な確認プロセスを徹底する必要があります。また、生成AIが悪用される前提で、多要素認証(MFA)の強制や、承認フローの厳格化など、システム的な防御を優先すべきです。
2. ソフトウェアサプライチェーンの監視
開発現場において、GitHubなどのパブリックリポジトリからコードを引用する場合や、AIコーディング支援ツールを使用する場合のリスク管理も重要です。攻撃者がAIを使って生成した悪意あるコードが、オープンソースライブラリ等に混入されるリスク(サプライチェーン攻撃)も高まっています。AIが生成したコードであっても、必ず人間によるレビューや静的解析ツールによる検証を行うプロセスを省略してはいけません。
3. 「守りのAI」の積極導入
攻撃の自動化・高速化に対抗するためには、防御側もAIによる自動化(Security Automation)を取り入れる必要があります。特に人手不足が深刻な日本のセキュリティ現場において、トリアージ(優先順位付け)や初期対応をAIに任せることは、担当者の負荷を下げ、重大なインシデントへの対応能力を維持するために不可欠な投資となります。
