AIによる高度なサイバー攻撃に対抗するセキュリティ企業Zepo Intelligenceが、シードラウンドで1,500万ドルの資金調達を実施しました。本記事では、このニュースを起点に、生成AIが悪用される「AIソーシャルエンジニアリング」の脅威の実態と、日本企業が直面するリスク、そして求められる「AIでAIを防ぐ」新たな防御戦略について解説します。
生成AIがもたらす「ソーシャルエンジニアリング」の質的変化
米国発のセキュリティスタートアップであるZepo Intelligenceが1,500万ドル(約23億円)の資金調達を実施したというニュースは、サイバーセキュリティのトレンドが新たなフェーズに入ったことを示唆しています。彼らが注力するのは、生成AIを悪用した「ソーシャルエンジニアリング攻撃」への防御です。
従来、フィッシングメールやビジネスメール詐欺(BEC)といえば、不自然な日本語や汎用的な文面で識別可能なものが多く存在しました。しかし、大規模言語モデル(LLM)の進化により、攻撃者はターゲットの組織文化、文脈、過去のやり取りを踏まえた、極めて自然で説得力のある文章を自動生成できるようになっています。
Zepoのような企業が注目される背景には、従業員個人の注意深さに依存する従来の教育的対策だけでは、もはやAIによる精巧ななりすましを防ぎきれないという現実があります。Microsoft TeamsやSlack、Zoomといったワークプレイスツールが攻撃の主戦場となりつつある今、攻撃の検知にもAIを活用する「AI対AI」の構図が不可欠になっています。
テキストから音声・映像へ:多角化する攻撃フェーズ
今回のニュースの背景には、テキストだけでなく、音声や映像のディープフェイク技術のコモディティ化があります。海外ではすでに、CFO(最高財務責任者)のディープフェイク映像を用いたビデオ会議により、巨額の資金を送金させる詐欺事件も発生しています。
Meta社がAIエージェント企業Manusを買収するなどの動きに見られるように、今後、自律的なAIエージェントが業務プロセスに深く組み込まれるようになります。これは業務効率化の観点では大きなメリットですが、セキュリティの観点では「攻撃対象領域(アタックサーフェス)」の拡大を意味します。AIエージェントが人間になりすます、あるいは正規のAIエージェントがハックされて誤った情報を流すといったリスクも想定しなければなりません。
Zepoのアプローチは、こうした高度な偽装をリアルタイムで検知し、従業員が騙される前に警告を発することにあります。これは、境界型防御(ファイアウォールなど)を突破された後の、組織内部での「人の脆弱性」をカバーする最後の砦として機能します。
日本企業特有の脆弱性とリスク
日本企業にとって、このトレンドは対岸の火事ではありません。かつて「日本語の壁」はサイバー攻撃に対する自然な防壁として機能していましたが、高性能なLLMの登場により、その壁は崩壊しました。流暢な日本語による攻撃メールや、日本人の声を模倣した自動音声電話(ビッシング)のリスクは急増しています。
また、日本の組織文化特有のリスクとして、以下の点が挙げられます。
- 権威への追随性:上司や取引先上位者からの指示に対し、疑義を挟むことを躊躇する文化があり、なりすまし攻撃に脆弱な側面がある。
- 性善説に基づくコミュニケーション:社内チャットツール(SlackやTeams)上のメッセージは安全であるという暗黙の前提があり、メールほど警戒されていない。
- 確認プロセスの形骸化:デジタル化は進んだものの、本人確認手段がメールアドレスのドメイン確認程度に留まっているケースが多い。
日本企業のAI活用への示唆
AIの進化に伴う新たな脅威に対し、日本企業は以下の3つの観点で対策を再構築する必要があります。
1. AIを活用した防御システムの導入検討
人間による目視確認には限界があります。Zepo Intelligenceのような、AIによる文脈解析や異常検知(普段と異なる言い回し、送信タイミング、声質の微細な変化など)を行うセキュリティツールの導入を、中長期的なロードマップに含めるべきです。特に金融、重要インフラ、R&D部門を持つ企業では優先度が高まります。
2. 「ゼロトラスト」の概念を人間関係にも拡張する
システム的なゼロトラスト(何も信頼せず、常に検証する)だけでなく、コミュニケーションにおいても「重要な意思決定や送金指示は、必ず別ルート(Out-of-Band)で本人確認を行う」というルールを徹底する必要があります。ビデオ会議での顔出しや声さえも、100%信頼できる証拠ではなくなりつつあることを認識しなければなりません。
3. 生成AIリスクに即した避難訓練の実施
従来の標的型メール訓練に加え、生成AIによって作られた精巧なフィッシングや、ディープフェイク音声を用いた攻撃シナリオを含む訓練を実施することが重要です。「怪しい日本語を探す」訓練から、「文脈の違和感やプロセスの逸脱を検知する」訓練へのシフトが求められます。
AIの活用は企業の競争力を高める強力な武器ですが、同時に防御側のアップデートも怠れば、その利便性がそのままリスクへと転化します。攻撃技術の進化を冷静に見極め、テクノロジーと組織ルールの両面で対策を講じることが、責任あるAI活用の第一歩となります。
