Googleは、国家主導のハッカー集団が「Gemini」などの生成AIを、標的のプロファイリングやフィッシング、マルウェア開発に悪用している実態を報告しました。この事実は、AIが業務効率化のツールであると同時に、サイバー攻撃の「高度化・民主化」を加速させる武器にもなり得ることを示唆しています。本記事では、このレポートを起点に、日本の組織が認識すべき新たなセキュリティリスクと、実務的な対策の視点を解説します。
「攻撃者のAI利用」が現実のものに
生成AIの登場以降、セキュリティ専門家の間では「攻撃者によるAIの悪用(Offensive AI)」が懸念されてきましたが、Googleの最新レポートはその懸念が現実の脅威として定着しつつあることを裏付けています。報告によれば、国家が支援するハッカー集団(APT:Advanced Persistent Threat)が、GoogleのGeminiを含む大規模言語モデル(LLM)を、攻撃ライフサイクルの様々な段階で活用していることが確認されました。
具体的には、攻撃対象の調査(偵察)、フィッシングメールの作成、マルウェアのコード生成や難読化、さらには標的組織が保有するAIモデル自体の抽出(Model Extraction)などが挙げられています。これは、高度なスキルを持つ攻撃者がAIによって「作業を効率化」しているだけでなく、従来は高度な技術を要した攻撃手法が、AIの支援によってより容易に実行可能になりつつあることを意味します。
日本企業にとっての「言語の壁」の崩壊
日本企業にとって特に警戒すべき点は、生成AIによる「フィッシング攻撃の高度化」です。これまで、海外からのサイバー攻撃の多くは、不自然な日本語や誤った敬語表現によって識別が可能でした。いわゆる「怪しい日本語のメール」が、ある種の防御壁として機能していた側面があります。
しかし、LLMの翻訳・作文能力は劇的に向上しています。攻撃者は今や、文脈に沿った自然な日本語、さらには日本の商習慣に則った違和感のないビジネスメールを容易に作成できます。これにより、日本国内で近年被害が増加している「ビジネスメール詐欺(BEC)」や、特定の組織を狙い撃ちにする「スピアフィッシング」の成功率が飛躍的に高まるリスクがあります。従業員のセキュリティ教育において、「日本語の違和感」を判断基準にすることは、もはや有効な対策とは言えなくなりつつあります。
AIモデル自体への攻撃と知的財産リスク
レポートでは「モデル抽出攻撃(Model Extraction Attacks)」についても言及されています。これは、AIモデルに対する入出力を繰り返すことで、そのモデルの挙動やパラメータを推測・コピーしようとする攻撃手法です。
現在、多くの日本企業が自社データを用いたRAG(検索拡張生成)の構築や、独自モデルのファインチューニングを進めています。もし、これらのモデルが外部からアクセス可能な状態(例えば顧客向けチャットボットなど)にある場合、攻撃者によってモデルが複製されたり、学習データに含まれる機密情報が引き出されたりするリスクが生じます。AIモデルは企業の重要な知的財産(IP)となりつつあるため、従来のWebアプリケーションセキュリティに加え、「AIセキュリティ(AI Red Teamingなど)」の観点が不可欠です。
防御側の視点:AIでAIに対抗する
攻撃者がAIを使って攻撃の速度と質を高めている以上、防御側も人手だけでの対応には限界があります。セキュリティ運用の現場(SOC/CSIRT)においても、AIの活用が急務です。大量のログ解析、脅威検知、インシデント対応の初期判断などにAIを導入し、防御の自動化と迅速化を図る必要があります。
また、Microsoft Copilot for SecurityやGoogleのセキュリティAI機能など、主要ベンダーもAIを活用した防御ソリューションを強化しています。これらを適切に組み込み、攻撃者のスピードに対抗できる体制(MLOpsならぬSecOpsの高度化)を整えることが、今後の企業防衛のスタンダードとなるでしょう。
日本企業のAI活用への示唆
今回のGoogleの報告は、AI活用の議論を「利便性」から「安全性との両立」へと引き上げる契機となるべきです。日本の意思決定者や実務担当者は、以下の点に留意してAI戦略を見直すことが推奨されます。
1. セキュリティ教育のアップデート
「変な日本語=怪しい」という古い常識を捨て、文脈や送信元の真正性(SPF/DKIM/DMARCなどの技術的検証含む)を確認するよう、従業員の教育プログラムを刷新する必要があります。
2. AI資産の保護(AIガバナンス)
自社で開発・運用するAIモデルを「守るべき資産」と定義し、プロンプトインジェクションやモデル抽出への対策を講じること。公開するAIサービスには、敵対的テスト(Red Teaming)を実施することが望ましいです。
3. 攻撃者の視点を持ったリスク評価
「自社のAI活用ガイドライン」を作る際、従業員の不正利用(内部流出)防止だけでなく、「外部の攻撃者がAIを使ってどう攻めてくるか」という視点を盛り込むことが重要です。AI時代において、セキュリティは単なるコストではなく、デジタルビジネスを継続するための必須要件です。
