生成AIの急速な進化に伴い、著名人が自身の声や外見を無断生成されるリスクから身を守る動きが活発化しています。本記事では、海外の最新動向を起点に、日本企業がマーケティングやプロダクト開発でAIを活用する際に注意すべき「パブリシティ権」などの法的リスクと、実務的なガバナンスのあり方について解説します。
AI時代におけるアイデンティティ保護の新たな潮流
世界的ポップスターであるテイラー・スウィフトが、AIの悪用から自身のアイデンティティを守るため、声や外見(Likeness)の商標登録に向けた法的手続きを進めていると報じられました。大規模言語モデル(LLM)や音声合成、画像生成AIの進化により、現在ではごくわずかなデータから極めて自然な音声やディープフェイク(人工知能を用いて作成された偽の動画や音声)を生成することが可能です。この技術的進歩は、著名人にとって自身のブランドや権利を著しく損なうリスクとなっており、自己防衛のための法的保護を強化する動きはグローバルなトレンドになりつつあります。
日本の法規制における「声と外見」の取り扱い
日本国内において、個人の声や外見をAIで生成・利用する問題は、主に「パブリシティ権(著名人が持つ顧客吸引力を排他的に利用する権利)」「著作権」「不正競争防止法」の枠組みで議論されます。日本では、声そのものを著作物として保護することは難しいとされていますが、過去の最高裁判例に基づき、著名人の肖像や氏名を無断で商業利用することはパブリシティ権の侵害にあたると解釈されています。また、特定の声優やタレントに極めて類似した音声を生成し、自社のサービスや広告で利用した場合、不正競争防止法上の問題や不法行為責任に問われる可能性もあります。法整備が技術に追いついていない部分もあるものの、「明文法がないから自由に使ってよい」という解釈はビジネスにおいて極めて危険です。
企業が直面する実務上のリスクとコンプライアンス
日本企業が業務効率化や新規事業において生成AIを活用する際、意図せず第三者のアイデンティティを侵害してしまうリスクが存在します。例えば、マーケティング部門が広告クリエイティブを作成する際、画像生成AIのプロンプト(AIへの指示文)に特定のタレント名を入力して出力結果をそのまま使用したり、カスタマーサポートの音声ボットに実在の声優に似せたAI音声を組み込んだりするケースです。利用しているAIモデルがどのようなデータセットで学習されたか(学習データの透明性)を把握せずに商用利用すると、権利侵害による損害賠償だけでなく、日本特有の「世間からの信頼」を重視する商習慣においては、レピュテーション(企業の評判)低下という致命的なダメージを負う恐れがあります。
日本企業のAI活用への示唆
今回の事例から、日本企業がAIを活用し、事業成長とリスク管理を両立させるための実務的な示唆は以下の通りです。
第一に、「著作権以外の権利侵害リスク」への啓発です。社内のAI利用ガイドラインは日本の著作権法(特に機械学習を例外的に適法とする第30条の4など)の解説に偏りがちですが、パブリシティ権や肖像権、そして倫理的観点からのルール化が不可欠です。現場のエンジニアやクリエイターに対し、「特定の人物名をプロンプトに入力して生成・公開することの禁止」などの具体的な指針を設けるべきです。
第二に、プロダクトに組み込むAIモデルの慎重な選定です。自社サービスにAIを組み込む際は、商用利用向けに設計され、学習データの権利関係がクリアにされている基盤モデルを採用するか、企業向けに著作権侵害時の補償プログラム(インデムニティ)を提供するベンダーのサービスを選択することで、法的リスクを低減できます。
第三に、法務・知財部門と事業部門の緊密な連携です。AI技術と関連法規は日々変化しているため、現場のスピード感を削がずにリスクをコントロールする仕組みが求められます。新しいプロダクトやプロモーションを企画する初期段階から法務が伴走し、日本の法規制や組織文化に合わせたアジャイルなAIガバナンス体制を構築することが、持続的なAI活用の鍵となります。
