生成AIの急速な進化により、実在の人物の顔データを悪用した「AI詐欺」が組織化・ビジネス化しつつあります。本記事では、海外の最新動向をひもときながら、オンライン本人確認(eKYC)の普及が進む日本企業が警戒すべきリスクと、自社でAIを活用する際のガバナンスのあり方を解説します。
「AIの顔」を募集するアンダーグラウンド市場の実態
米WIRED誌の報道によると、Telegramなどのメッセージングアプリ上で「AIフェイスモデル」を募集する求人が多数確認されています。これは、詐欺グループがディープフェイク(AIを用いて人物の顔や声を合成・加工する技術)を作成するための元データとして、一般のモデル(主に女性)から顔や声の動画を買い取っているという事象です。
モデルたちは報酬と引き換えに、様々な表情や発声を含むデータを提供します。詐欺グループはこのデータを使って精巧なAIアバターを生成し、ロマンス詐欺や投資詐欺、さらにはビデオ通話を通じた身分証明の突破などに悪用しています。AIモデルの生成コストが劇的に下がったことで、かつては高度な技術が必要だったディープフェイク詐欺が、今や安価に「外注」できるビジネスとして成立してしまっているのが実態です。
日本のビジネス環境に潜む「なりすまし」の脅威
こうした海外の動向は、日本企業にとっても対岸の火事ではありません。近年、日本では金融機関や通信キャリアを中心に、オンラインでの本人確認(eKYC)が急速に普及しています。また、コロナ禍を経てオンラインでの商談や採用面接も一般的な商習慣として定着しました。
もし、精巧なディープフェイクを用いた「なりすまし」が日本のビジネスシーンに持ち込まれた場合、どのような影響があるでしょうか。例えば、eKYCの顔認証プロセスがAI生成された動画によって突破されるリスクや、オンライン面談で偽の経歴を持つ人物が「架空の顔」で採用プロセスを通過してしまうリスクが考えられます。さらに深刻なのは、自社の役員や取引先になりすましてビデオ通話で緊急の送金指示を出す、進化版のビジネスメール詐欺(BEC)です。すでに海外では、ディープフェイクを活用したWeb会議によって多額の資金が騙し取られる事件も発生しており、日本の組織文化である「上意下達」や「稟議の簡略化」の隙を突かれる恐れがあります。
自社プロダクト・マーケティングでAIアバターを活用する際のリスク
一方で、日本企業がカスタマーサポートやマーケティング活動において、独自のAIアバターやデジタルヒューマン(人間のように振る舞う3DモデルやAIキャラクター)を導入する事例も増えています。業務効率化や新しい顧客体験の創出において非常に有効な手段ですが、ここにも留意すべきリスクが存在します。
AIアバターの生成元となる人物データの権利関係(肖像権や著作権)のクリアランスはもちろんのこと、「その顔データが他でどのように使われているか」というレピュテーションリスクです。仮に、自社の公式AIアバターの元となったモデルが、裏で詐欺グループにもデータを提供していた場合、企業のブランドイメージに深刻なダメージを与える可能性があります。データ提供者の身元確認や、生成AI利用に関する同意取得・契約内容の厳格化など、法務・コンプライアンス部門と連携した慎重な対応が求められます。
日本企業のAI活用への示唆
生成AI技術のコモディティ化は、企業の業務効率化を推進する一方で、サイバー犯罪の巧妙化という負の側面ももたらしています。日本企業が安全にAIを活用し、同時に新たな脅威から身を守るためには、以下の3つの視点が重要です。
1つ目は、「ディープフェイクを前提とした業務プロセスの再設計」です。オンラインでの本人確認や重要な意思決定(高額な送金や機密情報の開示など)においては、映像や音声の真贋判定に依存するだけでなく、多要素認証(MFA)の導入や、あえてオフライン(電話や対面)での確認ステップを組み合わせるなど、「映像は偽造され得る」という前提に立った防御プロセスが必要です。
2つ目は、「検知技術と従業員教育への投資」です。ディープフェイクを見破るためのAI検知ツール(生体検知機能など)の導入を検討するとともに、最新の詐欺手口について従業員に周知し、セキュリティリテラシーを高めることが被害を未然に防ぐ鍵となります。
3つ目は、「強固なAIガバナンスの構築」です。自社でAIモデルを開発・利用する際の社内ガイドラインを策定し、学習データの出所確認や、生成物の権利保護、倫理的リスクの評価プロセスをプロダクト開発のライフサイクルに組み込むことが不可欠です。AIの光と影を正しく理解し、適切なリスクコントロールを行いながらテクノロジーの恩恵を最大化していくことが、これからの日本企業に求められています。
