メキシコの麻薬カルテルがAIやドローン、SNSを高度に活用して勢力を拡大しているというWIREDの報道は、テクノロジーの「デュアルユース(軍民両用)」のリスクを浮き彫りにしました。攻撃者がAIを用いて組織を効率化し、攻撃能力を高める中、日本の企業や組織はどのように防御体制を構築し、ガバナンスを効かせるべきか、最新の動向を交えて解説します。
犯罪組織によるAI活用の実態と「非対称性」
WIREDの記事によると、メキシコの悪名高い麻薬カルテル「CJNG」は、ドローンによる攻撃だけでなく、AIやソーシャルメディアを駆使して対立組織を弱体化させているといいます。これは、かつては国家機関や巨大企業しか持ち得なかった高度なテクノロジーが、今や誰でも安価に入手・利用できるようになった「AIの民主化」の負の側面を象徴しています。
生成AIや市販のドローン、SNSのアルゴリズム解析ツールは、正規のビジネスにおいては業務効率化やマーケティングの強力な武器ですが、悪意ある主体の手にかかれば、プロパガンダの自動生成、監視の自動化、そして物理的な攻撃手段へと変貌します。彼らはコンプライアンスや倫理規定に縛られないため、新技術の導入スピードが極めて速く、防御側(企業や行政)との間に「非対称性」が生じやすいのが現状です。
日本企業が直面する「オフェンシブAI」の脅威
「麻薬カルテルの話は日本企業には関係ない」と考えるのは早計です。この事例が示唆する本質は、攻撃者がAIを用いて「低コストで高品質な攻撃」を仕掛けてくるという点にあります。
例えば、生成AI(LLM)の悪用により、不自然な日本語が一掃された精巧なフィッシングメールや、標的型攻撃メールが大量に作成されるリスクが高まっています。また、経営層の声を模倣したディープフェイク音声による「CEO詐欺」や、オンライン本人確認(eKYC)を突破しようとする試みも世界的に増加傾向にあります。日本特有の「性善説」に基づく商習慣や、ハンコ文化からの脱却過渡期にあるデジタル承認プロセスは、こうしたAI武装した攻撃者にとって格好の標的となり得ます。
防御側の進化:AIガバナンスと「レッドチーミング」
こうした脅威に対抗するため、企業は「AIを使わない」という選択肢を取るのではなく、「AIを安全に使うためのガバナンス」を強化する必要があります。特に注目されているのが、AIシステムに対して攻撃者の視点からテストを行う「AIレッドチーミング」です。
自社のAIモデルやシステムが、敵対的なプロンプト(命令)に対して脆弱ではないか、個人情報を漏洩しないか、あるいは外部からのAI攻撃に対して耐性があるかを検証するプロセスが、これからのシステム開発や導入においては必須となります。また、セキュリティ運用(SecOps)においても、AIによる攻撃を検知・防御するために、防御側もAIを活用した自動化(AI vs AIの構図)を取り入れる動きが加速しています。
日本企業のAI活用への示唆
グローバルな脅威動向を踏まえ、日本の経営層や実務担当者が意識すべき点は以下の3点に集約されます。
1. 脅威モデルのアップデート
攻撃者はすでにAIを業務フローに組み込んでいます。「日本語の壁」はLLMによって崩壊しました。サイバーセキュリティや不正検知のシナリオにおいて、相手がAIを駆使してくることを前提としたリスク評価を行う必要があります。
2. 「ゼロトラスト」とアナログによる多層防御
デジタルデータ(画像、音声、動画)の真偽判定が難しくなる中、重要な意思決定や送金業務においては、デジタルの署名検証だけでなく、信頼できるルートでの物理的な確認や、多要素認証の徹底など、ゼロトラスト(何も信頼しない)の原則に基づいた多層的な防御策が有効です。
3. 従業員のリテラシー教育と心理的安全性
精巧なAI詐欺に騙された従業員を責めるだけでは解決になりません。「AIによるなりすましは誰にでも起こり得る」という前提で教育を行い、違和感を覚えた際にすぐに報告・相談できる心理的安全性の高い組織文化を作ることが、技術的な対策と同じくらい重要になります。
