Google Threat Intelligence Group(GTIG)の観測によると、2025年第4四半期の時点で、サイバー攻撃者によるAIの統合・活用は新たな段階に入っています。攻撃者は単に生成AIを「使う」だけでなく、モデルの蒸留(Distillation)や攻撃インフラへの深い統合を進めています。本稿では、この技術的変化が日本のビジネス環境に及ぼす影響と、企業が講じるべき防御策について解説します。
脅威の質的変化:モデルの「蒸留」と攻撃フローへの統合
かつて攻撃者によるAI利用といえば、ChatGPTのような公開サービスを使ってフィッシングメールの文面を生成させるといった、比較的単純な「実験」レベルのものが主流でした。しかし、GTIGが指摘する2025年の動向におけるキーワードは、AIモデルの「蒸留(Distillation)」と「統合(Integration)」です。
「蒸留」とは、巨大で高性能なモデル(教師モデル)の知識を、より小型で軽量なモデル(生徒モデル)に移植する技術を指します。本来は推論コストを下げるための技術ですが、攻撃者はこれを悪用し、大手AIベンダーが設けた安全ガードレール(差別的表現や犯罪利用を拒否する仕組み)を取り払った「検閲なしの軽量モデル」を作成しています。これにより、攻撃者はローカル環境で痕跡を残さず、マルウェアコードの生成や脆弱性探索を自動化できるようになっています。
「日本語の壁」の完全な崩壊と日本企業のリスク
日本企業にとって長年の防波堤であった「日本語の壁」は、AIの進化により実質的に消滅しました。最新のLLM(大規模言語モデル)は、文法的に正しいだけでなく、日本のビジネス特有の「敬語」「謙譲語」や、時候の挨拶といった文脈を完璧に理解した文章を生成します。
特に懸念されるのは、ビジネスメール詐欺(BEC)の高度化です。日本の商習慣では、請求書送付や承認プロセスにおいて、メールやチャットツールでのやり取りが証跡として重視されます。攻撃者はAIを攻撃フローに「統合」し、過去の漏洩メールから組織内の人間関係や口調を学習させ、上司や取引先になりすまして送金指示や機密情報の提供を迫ります。日本企業特有の「空気を読む」文化や「上位者への忖度」が悪用され、違和感を持っても確認を躊躇してしまう心理的隙が狙われるでしょう。
防御側のAI活用と「ゼロトラスト」の再定義
攻撃側がAIで武装する以上、防御側もAIによる対抗が不可欠です。従来のようなシグネチャベース(既知のパターンとの照合)のセキュリティ対策では、AIが都度生成する「未知の攻撃(ポリモーフィック型マルウェアなど)」を防ぐことは困難です。AIを活用した異常検知、行動分析をセキュリティ運用(SecOps)に組み込む必要があります。
また、生成AIやMLOps(機械学習基盤の運用)を自社プロダクトに取り入れている企業は、自社のAIモデル自体が攻撃対象になるリスク(プロンプトインジェクションやデータ汚染)も考慮しなければなりません。AIに対するガバナンスは、単なる倫理規定の策定にとどまらず、技術的なセキュリティ実装の領域へと拡大しています。
日本企業のAI活用への示唆
GTIGのレポートが示唆する脅威動向を踏まえ、日本の経営層および実務者は以下の3点を意識した意思決定を行う必要があります。
1. 「アナログな本人確認」のプロセスの見直し
AIによる音声合成(ディープフェイクボイス)や高度な文章生成が普及した現在、デジタル上のコミュニケーションだけを信じることはリスクとなります。特に財務や機密情報を扱う業務においては、重要な承認時に「信頼できる別経路での確認(電話の折り返しや対面、物理的な認証トークンなど)」を必須とするプロセス設計が求められます。
2. AIガバナンスとセキュリティの融合
日本企業では「AI倫理」と「情報セキュリティ」が別の部署で管轄されることが少なくありません。しかし、攻撃者はAI技術そのものをハッキングの道具として使います。CISO(最高情報セキュリティ責任者)とAIプロジェクトオーナーが連携し、自社が利用・開発するAIモデルに対するレッドチーミング(擬似攻撃演習)を実施するなど、実践的なリスク評価を行う体制が必要です。
3. 従業員教育のアップデート
「怪しい日本語のメールに注意する」という従来の教育はもはや通用しません。「文面は自然でも、文脈や要求内容が不自然ではないか」を判断するクリティカルシンキングの教育へシフトする必要があります。また、従業員が許可されていない外部のAIツールに社内データを入力してしまう「Shadow AI」のリスクに対しても、禁止一辺倒ではなく、安全な代替環境を提供することでガバナンスを効かせるアプローチが推奨されます。
