海外で実在の医師の顔や声をAIで合成したディープフェイク動画が、偽装広告などに悪用される問題が拡大しています。日本でも著名人を騙る詐欺広告が深刻化する中、企業はこれらを対岸の火事とみなすことはできません。本記事では、専門家の信頼を脅かすディープフェイクの動向を踏まえ、日本企業がAIを活用する上で押さえるべきリスク管理とガバナンス対応について解説します。
医師や専門家を標的とするディープフェイクの脅威
AI技術の進化に伴い、医療専門家が知らぬ間にディープフェイク動画の「主役」に仕立て上げられる事例が海外で報告されています。米メディアAxiosの報道によれば、実在する医師の顔や声をAIで合成し、科学的根拠のない商品や偽情報を宣伝する動画がSNS等で拡散されているとのことです。生成AI(文章、画像、音声を自動生成するAI)の精度向上により、専門家の権威や信頼性を悪用した偽装がかつてないほど容易になっています。
日本企業にとっての対岸の火事ではない理由
この問題は、決して海外の医療業界に限った話ではありません。日本国内でも、実在の経営者や著名人の画像・音声を無断使用したSNS上の投資詐欺広告が深刻な社会問題となっています。企業がブランドアンバサダーとして起用している専門家や、自社の代表者がディープフェイクの標的となれば、顧客からの信頼喪失やブランド価値の毀損(レピュテーションリスク)に直結します。また、ヘルスケアや美容関連の事業を展開する企業にとっては、自社の製品が偽動画の比較対象にされたり、薬機法(医薬品医療機器等法)や景品表示法に抵触するような偽装広告に巻き込まれたりするリスクも孕んでいます。
生成AIの活用と防衛策の両輪を回す
AIによる合成技術自体は、社内研修動画の多言語化や、バーチャルヒューマンを活用したカスタマーサポートなど、業務効率化や新規サービス開発において非常に有益な手段です。日本企業がこれらの技術をプロダクトに組み込む際には、利便性の追求と同時に、悪用を防ぐための仕組みを構築する必要があります。例えば、自社で生成AI関連サービスを開発・提供する場合は、利用規約で公人や第三者の無断利用を禁止するだけでなく、生成物に電子透かし(ウォーターマーク:AIによって生成されたことを示す識別情報)を付与するなどの技術的なセーフガードが求められます。
情報の真正性を担保する技術と組織文化の醸成
一方で、企業が公式に発信する情報の「真正性」を証明する仕組みも今後は重要視されます。日本では現在、発信元情報の信頼性を検証する「オリジネーター・プロファイル(OP)」技術などの実証実験が進められています。広報やマーケティングのプロダクト担当者は、公式チャネルでの情報発信において、認証技術を活用し「これが間違いなく自社の発信である」と顧客に示せる体制の検討を始めるべき時期に来ています。さらに組織文化として、自社に関連する不審な広告や偽動画を発見した際のエスカレーションフローを事前に定め、法務部門やSNSプラットフォーマーと迅速に連携できるリスク管理体制を築くことが不可欠です。
日本企業のAI活用への示唆
専門家や経営者の信頼を悪用するディープフェイクは、あらゆる産業において自社のブランドを脅かす潜在的リスクです。自社の関係者が標的になる前提で、定期的なモニタリングとインシデント発生時の対応策を準備しておく必要があります。
生成AIをプロダクトや業務に組み込む際は、機能の便利さだけを評価するのではなく、電子透かしの導入や利用ガイドラインの策定など、AIガバナンスの観点をプロジェクトの初期段階から組み込むことが重要です。
デジタル空間にフェイク情報が氾濫する時代において、企業は自社が発信する情報の「真正性」を担保する手段(デジタル署名や認証技術など)の導入を前向きに検討し、顧客の信頼を積極的に保護していく姿勢が求められます。
