2024年から2025年にかけて、企業のサイバーセキュリティ演習(Tabletop Exercises)のトレンドが大きく変化しています。AIを悪用した高度な攻撃への対策と同時に、AIシステムそのものを狙った攻撃への対応が急務となっています。本稿では、最新のセキュリティトレンドを踏まえ、日本企業が今実施すべきリスク管理と演習のあり方について解説します。
形骸化した「避難訓練」からの脱却
年末や年度末に向けて、多くの企業がセキュリティインシデントを想定した「机上演習(Tabletop Exercises:TTX)」を計画されていることと思います。しかし、従来の「怪しいメールを開かない」「ランサムウェア感染時の連絡網を確認する」といったシナリオだけでは、現在の脅威に対応できなくなりつつあります。
海外メディアThe Registerが報じた記事『From AI to analog, cybersecurity tabletop exercises look a little different this year』によると、最新の演習では「AIを活用した適応型のフィッシング攻撃」や「高速化する攻撃チェーン」へのシミュレーションが重視されています。生成AIの登場により、攻撃者は流暢な日本語で、かつ受信者の文脈に合わせた精巧なフィッシングメールを自動生成できるようになりました。「日本語が不自然だから詐欺」という従来の見分け方は、もはや通用しません。
「AIへの攻撃」という新たな脅威
さらに重要な視点は、自社が導入・開発したAIシステムそのものが攻撃対象になるというシナリオです。これを「Adversarial AI Attacks(敵対的AI攻撃)」と呼びます。
例えば、社内文書検索システム(RAG)や顧客対応チャットボットに対し、悪意あるプロンプト(指示)を入力して機密情報を引き出す「プロンプトインジェクション」や、学習データに誤った情報を混ぜてAIの判断を狂わせる「データポイズニング」などのリスクです。日本企業でも業務効率化のために大規模言語モデル(LLM)の組み込みが進んでいますが、そのセキュリティ対策は開発速度に追いついていないのが実情ではないでしょうか。
システムがダウンするだけでなく、「自社のAIが差別的な発言をした」「顧客の個人情報を漏洩させた」という事態は、企業のブランド毀損に直結します。技術的な防御だけでなく、こうした事態が起きた際の広報対応や法的対応を含めた演習が必要です。
アナログへの回帰とレジリエンス
興味深いことに、最新のトレンドには「アナログへの回帰」も含まれています。AIによる自律的な攻撃がシステム深部にまで及んだ場合、デジタルインフラを遮断せざるを得ない状況が想定されます。
その際、業務を完全に停止させるのではなく、紙や電話、オフラインのバックアップを用いて最低限の事業継続(BCP)が可能かどうかが問われます。地震などの災害対策が得意な日本企業ですが、サイバー攻撃による全システムダウン時の「アナログ運用への切り替え」についても、改めて手順を確認しておくべきでしょう。
日本企業のAI活用への示唆
グローバルの動向と日本の実情を踏まえると、以下の3点が実務上の重要な指針となります。
1. セキュリティ演習シナリオの刷新
従来の定型的な訓練に加え、生成AIを用いたディープフェイク(経営層の声や動画の偽装)による詐欺や、社内AIボットへの攻撃を想定したシナリオを盛り込む必要があります。「AIが暴走・侵害されたときに、誰がスイッチを切る権限を持つのか」を明確にしておくことが重要です。
2. 技術部門と法務・広報の連携強化
AIリスクは技術的なバグの修正だけでは解決しません。AIガバナンスの観点から、法務部門(コンプライアンス対応)、広報部門(レピュテーション管理)、そして事業部門(プロダクトオーナー)が一体となった演習が求められます。縦割り組織になりがちな日本企業こそ、クロスファンクショナルなチームでの演習が効果的です。
3. 「守り」を前提とした積極活用
リスクを強調しすぎると「AIは危険だから使わない」という萎縮効果を生む可能性があります。しかし、重要なのは「正しく恐れ、正しく備える」ことです。高度な演習を通じて組織の耐性を確認することは、逆に言えば「何かあっても対応できる」という自信につながり、結果としてAI活用によるDX(デジタルトランスフォーメーション)を加速させる土台となります。
