生成AIの普及により、音声クローンや高度なフィッシングなど、AIを悪用した詐欺の脅威がグローバルで急増しています。本記事では、AI詐欺の最新動向を紐解きながら、日本企業が組織や顧客を守るために講じるべきリスク対策とガバナンスのあり方を解説します。
生成AIがもたらす「詐欺の高度化」という影
グローバルにおいて、人工知能(AI)を悪用した詐欺の被害が深刻化しています。音声クローン技術を用いたオレオレ詐欺の進化版や、ディープフェイク動画による偽のCEOメッセージ、大規模言語モデル(LLM)を駆使した自然な文面のフィッシングメールなど、その手口は極めて巧妙になっています。AI技術の民主化は、企業の業務効率化を推進する一方で、悪意ある攻撃者にとっても高度なツールの入手コストを大幅に引き下げる結果をもたらしました。
「日本語の壁」が崩壊した今、日本企業が直面するリスク
これまで日本のサイバーセキュリティにおいては、日本語という言語の複雑さが一定の防壁として機能してきました。不自然な直訳調の文章は、従業員がスパムや詐欺を見破る重要な手がかりでした。しかし、昨今の生成AIは極めて自然で流暢な日本語を生成可能です。これにより、日本のビジネス環境を標的としたビジネスメール詐欺(BEC:取引先や経営トップになりすまして送金を促す詐欺)の脅威が急激に高まっています。
さらに、商習慣として電話や対面でのコミュニケーションを重んじる日本企業において、音声クローン技術の悪用は致命的なリスクとなります。急ぎの取引先対応で資金が必要だという上司の肉声を偽造された場合、確認プロセスが属人的になっている組織では、被害を未然に防ぐことが非常に困難になります。
自社プロダクトの悪用と認証突破のリスク
企業が注意すべきは、自社の従業員が標的になることだけではありません。自社で開発・提供するAIプロダクトやサービスが、詐欺のインフラとして悪用されるリスクにも目を向ける必要があります。例えば、自社のプラットフォーム上で生成されたコンテンツが詐欺に利用された場合、意図せずともブランド毀損やコンプライアンス上の責任を問われる可能性があります。
また、金融機関やオンラインサービスで導入が進むeKYC(オンライン本人確認)においても、ディープフェイク技術を用いて顔認証を突破しようとする試みが報告されています。AIプロダクトを企画・開発するエンジニアやプロダクト担当者は、開発初期の段階から攻撃者の視点に立ってシステムの脆弱性を検証するテストを組み込み、悪用を前提とした防御策を実装することが求められます。
AIの脅威には「AIと人」のハイブリッドで対抗する
高度化するAI詐欺を防ぐためには、従来型のルールベースのセキュリティ対策だけでは不十分です。攻撃者がAIを使うのであれば、防御側もAIを活用する必要があります。不審な通信パターンや、通常とは異なる送金プロセスを機械学習で検知する、AIを活用した不正検知システムの導入が有効な対抗策となります。
同時に、組織文化や社内ルールの見直しといったアナログな対策も不可欠です。例えば、金銭の移動や機密情報の開示を伴う指示は、必ず別のチャネル(メールの指示に対して社内チャットや電話で確認するなど)で二重確認を行うといった、テクノロジーに依存しない承認プロセスを定着させることが、最後の砦として機能します。
日本企業のAI活用への示唆
AIを悪用した詐欺の脅威から組織や顧客を守り、かつ安全にAIを活用していくために、日本企業の意思決定者や実務担当者は以下の点に留意すべきです。
・「日本語の壁」への依存からの脱却:生成AIによって言語の壁はすでに崩壊していると認識し、自然な日本語のメールやメッセージであっても安易に信用しないよう、従業員のセキュリティ教育を根本からアップデートすること。
・業務プロセスの再設計:音声や動画であっても偽造可能であることを前提とするゼロトラストの考え方を持ち、重要な決裁や送金プロセスにおいては、別経路での確認手続きを社内ルールとして徹底すること。
・悪用を想定したプロダクト開発:自社のAIサービスが詐欺に利用されるリスクや、ディープフェイクによる認証突破のリスクを想定し、利用規約の整備や開発初期段階からの脆弱性検証、継続的なモニタリング体制を構築すること。
