Googleは先日、政府支援を受けたハッキンググループ(APT)が生成AI「Gemini」を偵察や攻撃コードの作成に悪用していることを明らかにしました。本稿では、この事実が示唆するグローバルなセキュリティ脅威の変質と、「言語の壁」に守られてきた日本企業が直ちに講じるべき対策について、実務的な観点から解説します。
攻撃者もまた、AIによる「生産性向上」を享受している
Googleの脅威分析グループ(TAG)などが公表したレポートによると、国家の支援を受けた高度なサイバー攻撃グループ(APT:Advanced Persistent Threat)が、生成AIであるGeminiを悪用している実態が明らかになりました。具体的には、攻撃対象のシステムや脆弱性を調査する「偵察」、フィッシングメールの文面作成、そしてマルウェアや攻撃用スクリプトのコーディング支援にAIが利用されています。
私たちが業務効率化のためにAIを活用するのと同様に、攻撃者もまた「攻撃の生産性」を高めるためにAIを利用しています。これは、高度な攻撃手法が大衆化し、攻撃のサイクルが高速化することを意味します。これまで攻撃コードを書くのに数時間かかっていた作業が数分に短縮され、膨大な公開情報からの脆弱性探索が自動化されつつあるのが現状です。
「怪しい日本語」が消える:日本企業固有の防御壁の崩壊
日本企業にとって特に深刻なのは、生成AIの高度な言語能力により「日本語の壁」という自然の防御壁が機能しなくなっている点です。従来、海外からのフィッシング詐欺やビジネスメール詐欺(BEC)は、不自然な日本語表現や機械翻訳特有の違和感によって見抜くことが比較的容易でした。
しかし、LLM(大規模言語モデル)の能力向上により、流暢で自然な、さらには日本のビジネス慣習に則った丁寧な文面のメールを、日本語を解さない攻撃者が容易に作成できるようになっています。人事部門を装った給与関連の連絡や、取引先を装った請求書送付のメールなどが、極めて自然な日本語で届く時代になりました。従業員のリテラシー教育において「日本語の違和感」を判断基準にすることは、もはやリスクが高いと言わざるを得ません。
開発・運用フェーズにおける防御とガバナンス
攻撃者がAIを使って脆弱性を突くコードを生成している一方で、企業側が開発するプロダクトや社内システムにおいても、AIの実装には慎重さが求められます。特に自社サービスにLLMを組み込む場合、プロンプトインジェクション(AIに特殊な命令を与えて不適切な出力をさせる攻撃)などの新たな攻撃手法への対策が不可欠です。
また、社内でのAI利用においても、意図せず機密情報を入力してしまうリスクに加え、攻撃者がAIを用いて作成した巧妙なマルウェアが、AIが生成した「便利なコードスニペット」としてエンジニアの利用するフォーラム等に紛れ込むサプライチェーン攻撃のリスクも考慮する必要があります。
日本企業のAI活用への示唆
今回のGoogleによる報告は、AI利用を萎縮させるものではなく、リスクを正しく認識した上での活用を促す警鐘と捉えるべきです。日本の意思決定者や実務担当者は以下の点を意識して対策を進める必要があります。
- セキュリティ教育のアップデート:「怪しい日本語」を見抜く教育から、文脈の不自然さや、送信元ドメインの確認、多要素認証(MFA)の徹底など、言語に依存しないゼロトラストベースの確認プロセスへ移行すること。
- AI開発におけるセキュリティ実装(AI Red Teaming):自社でAI機能を開発・提供する場合は、リリース前に攻撃者視点でAIをテストする「レッドチーミング」を実施し、AI特有の脆弱性を洗い出すプロセスを開発フローに組み込むこと。
- 情報の真偽確認プロセスの強化:生成AIが悪用されることを前提に、デジタル署名や来歴管理など、情報の真正性を担保する技術的な仕組みの導入を検討し、社内情報の取り扱いに関するガバナンス規定を見直すこと。
