米国ではデジタルメディアによるAI企業への著作権訴訟が続いており、生成AIの学習データ利用を巡る議論が白熱しています。本記事では、このグローバルな動向を踏まえ、日本の著作権法下でAIを活用する企業が考慮すべき法的リスクとガバナンスの要点を解説します。
米国で激化するAI開発企業とメディアの著作権を巡る攻防
米国のデジタルニュースメディア「Raw Story」などが、OpenAIを相手取った著作権侵害訴訟の審理再開を第2巡回区控訴裁判所に求めていることが報じられています。この訴訟は、ChatGPTなどの大規模言語モデル(LLM:膨大なテキストデータを学習し、人間のような文章を生成するAI)が、メディアの著作物を無断で学習データとして使用し、著作権管理情報を削除したことなどが争点となっています。
米国では、ニューヨーク・タイムズ紙をはじめとする複数のメディアやクリエイターが、同様の訴訟を起こしています。焦点となっているのは、AIによるデータ学習が米国の著作権法における「フェアユース(公正な利用)」に該当するかどうか、そしてAIの出力が元の著作物と類似し、市場における競合となっているかという点です。こうした訴訟の行方は、今後の生成AIモデルの開発やデータ収集のあり方に根本的な影響を与える可能性があります。
日本の法規制「著作権法第30条の4」と実務上の解釈
一方、日本国内に目を向けると、状況は少し異なります。日本の著作権法には「第30条の4」という規定があり、情報解析を目的とする場合、原則として著作権者の許諾なく著作物をAIの学習データとして利用することが認められています。この規定は世界的に見てもAI開発に柔軟な仕組みとして知られています。
しかし、無条件に何でも許されるわけではありません。同条には「著作権者の利益を不当に害することとなる場合」は例外とする但し書きが存在します。現在、文化庁を中心に「AIと著作権に関する考え方」が議論されており、海賊版サイトからの学習や、特定のクリエイターの作風を意図的に模倣するような追加学習などが、この例外に該当する可能性が示唆されています。企業の実務担当者は、「法律上は学習可能」という表面的な理解にとどまらず、最新のガイドラインや解釈のアップデートを常に追う必要があります。
自社プロダクトや業務へのAI組み込みにおけるリスク管理
日本企業がAIを業務効率化や新規事業に活用する際、具体的にどのような対応が求められるのでしょうか。例えば、社内ドキュメントや外部のニュース記事を読み込ませて回答を生成するRAG(検索拡張生成:外部の知識データベースを参照してAIの回答精度を高める技術)システムを構築する場合、利用するデータの権利処理に注意が必要です。外部データをAIの知識ベースに取り込む行為自体は適法であっても、生成された回答を社外に公開したり、商用サービスとして提供したりする「出力・利用の段階」で、元の記事と酷似した内容が含まれていれば、通常の著作権侵害(複製権や翻案権の侵害)に問われるリスクがあります。
また、社内文化やコンプライアンスの観点から、AIが生成したコンテンツを利用する前に「人間の目(ヒューマン・イン・ザ・ループ)」によるチェック体制を設けることが重要です。AIの出力結果が第三者の著作権を侵害していないか、あるいは不適切な内容を含んでいないかを確認するプロセスをプロダクトの設計段階から組み込むことが、企業ブランドを守る盾となります。
日本企業のAI活用への示唆
今回の米国の著作権訴訟の動向から、日本企業が汲み取るべき実務への示唆は以下の通りです。
1. 学習と出力のリスクを切り分けて管理する:AIモデルへの「データ入力(学習)」フェーズにおける適法性と、AIからの「データ出力・利用」フェーズにおける著作権侵害リスクは別物です。特に自社サービスにAIを組み込む場合は、出力に対する監視・フィルタリングの仕組みを検討しましょう。
2. 契約と利用規約の確認を徹底する:APIを通じて外部のLLMを利用する場合、入力データがモデルの再学習に利用されないオプトアウト(除外)設定が有効になっているか、プラットフォーマーの規約を法務部門とともに確認することが不可欠です。
3. 法規制と社会受容性の両面からガバナンスを構築する:日本の法律では許容される行為であっても、権利者やユーザーからの反発を招く「レピュテーションリスク」が存在します。法的なクリアランスだけでなく、社会的な納得感や透明性を意識したAIガバナンス体制を組織内に構築することが、長期的なAI活用を成功させる鍵となります。
