Googleは、国家支援を受けたハッカー集団が生成AI「Gemini」をサイバー攻撃の偵察や実行に悪用していることを報告しました。攻撃者は標的のプロファイリング、フィッシング、マルウェア作成、さらにはAIモデルそのものの窃取にAIを利用しています。本記事では、この事実が示唆する「攻撃の高度化」と、日本企業が直面する固有のリスクおよび講じるべき対策について解説します。
攻撃者の「生産性」もAIで向上している現実
これまで「AIがサイバー攻撃に使われるリスクがある」という議論は数多くなされてきましたが、今回のGoogleの報告は、それが国家レベルのハッカー集団(APT:Advanced Persistent Threat)によって実戦投入されていることを裏付けるものです。報告によれば、攻撃者はGeminiのような高度なLLM(大規模言語モデル)を以下の用途で利用しています。
- 標的のプロファイリング: 公開情報をAIに分析させ、攻撃対象の組織構造やキーパーソンを効率的に特定する。
- フィッシングキットの作成: 違和感のない自然な文章や、偽サイトのコードを生成し、ソーシャルエンジニアリングの成功率を高める。
- マルウェアの準備: 悪意あるスクリプトの作成や、既存のセキュリティ検知を回避するためのコード難読化を支援させる。
- モデル抽出攻撃: 企業が構築したAIモデルの情報を盗み出し、知的財産や学習データを窃取する。
重要なのは、AIが「新しい攻撃手法」を生み出したというよりも、既存の攻撃プロセスの「準備と実行のコスト」を劇的に下げているという点です。これは、攻撃側の生産性が飛躍的に向上していることを意味します。
崩れ去る「日本語の壁」と日本企業への影響
日本企業にとって、このニュースは非常に深刻な意味を持ちます。かつて日本のサイバーセキュリティには「日本語の壁」という一種の防壁が存在しました。海外の攻撃者が作成するフィッシングメールや詐欺メッセージは、日本語として不自然な点が多く、比較的容易に見破ることができたからです。
しかし、高性能なLLMの悪用により、ネイティブスピーカーでも判別が困難な、極めて自然でビジネス慣習に即した日本語の攻撃メールが生成可能になっています。これにより、日本の組織内でのアカウント情報の詐取や、ランサムウェア感染の入口となるメール開封率が上昇するリスクがあります。
また、「モデル抽出攻撃」への警戒も必要です。現在、多くの日本企業が独自のデータをRAG(検索拡張生成)やファインチューニングでLLMに組み込み、社内ナレッジの活用を進めています。攻撃者がこれらのAIシステム自体を標的にした場合、出力結果から機密情報をリバースエンジニアリングされたり、AIモデルそのものが模倣・窃取されたりする恐れがあります。
防御側の視点:AI対AIの構図と基本の徹底
攻撃側がAIを使う以上、防御側もAIを活用したセキュリティ運用(AIOpsやセキュリティ特化型LLM)への投資が不可欠になります。異常検知の精度向上や、インシデント対応の自動化において、AIは強力な武器となります。
しかし、テクノロジーへの投資だけでは不十分です。生成AIを悪用した攻撃は、最終的には「人の隙」を突くソーシャルエンジニアリングの要素が強いためです。従業員に対して「AIを使えば誰でも巧妙な詐欺メールが書ける」という前提での教育を行い、文面の自然さだけで信用しない文化を醸成する必要があります。
また、技術的には「ゼロトラスト(何も信頼しない)」アーキテクチャの徹底が急務です。攻撃者が内部ネットワークに侵入することを前提とし、認証基盤の強化(多要素認証の必須化など)や、特権IDの管理、エンドポイントでの振る舞い検知(EDR)の導入といった、古典的ですが強固な対策が、AI時代の攻撃に対しても最も有効な防御策となります。
日本企業のAI活用への示唆
今回のGoogleの報告を受け、日本企業の経営層やリーダーが意識すべきポイントを整理します。
- 「日本語だから安全」という神話の放棄: 言語バリアは消失しました。海外からの攻撃も国内同様の精度で行われる前提で、セキュリティ対策と従業員教育を見直す必要があります。
- AI資産の保護(AIセキュリティ): 自社で開発・運用するAIモデルやプロンプト、RAG用のデータベースは、新たな「重要資産」です。これらに対するアクセス制御や、プロンプトインジェクション(AIを騙して不適切な出力をさせる攻撃)対策など、AI特有のセキュリティガイドラインを策定してください。
- 過度な萎縮を避ける: リスクは高まっていますが、だからといって「AI利用の全面禁止」に舵を切ることは、企業の競争力を削ぐことになります。シャドーAI(会社が許可していないAIツールの無断利用)を防ぐためにも、安全な環境整備とガイドラインをセットで提供し、監視下で正しく活用させるガバナンスが求められます。
- インシデント対応計画の更新: AIによる偽情報の流布やディープフェイクを用いた詐欺など、従来想定していなかった攻撃シナリオをBCP(事業継続計画)や対応マニュアルに組み込む時期に来ています。
