『Bad Blood』の著者らによるAI企業への提訴は、生成AIの学習データを巡る議論が依然として深刻であることを示しています。米国の司法判断が待たれる中、日本の著作権法との違いを正しく理解し、日本企業が取るべき実務的なリスク管理について解説します。
著名作家たちが問う「学習データの正当性」
米国において、生成AIの開発企業を相手取った著作権侵害訴訟がまた一つ加わりました。The New York Timesの元記者であり、シリコンバレーの医療ベンチャーTheranos(セラノス)の不正を暴いたベストセラー『Bad Blood』の著者として知られるJohn Carreyrou氏ら5名の作家が、大規模言語モデル(LLM)のトレーニングに自著が無断で使用されたとして、AI企業に対して訴訟を起こしたと報じられています。
この訴訟は、OpenAIやMicrosoftに対してThe New York Times紙自体が起こしている訴訟とは別個のものですが、根本的な争点は共通しています。それは、「著作権で保護された書籍や記事を、権利者の許諾なくAIの学習データとして使用することは、著作権法上の『フェアユース(公正な利用)』に該当するか否か」という点です。クリエイター側は、自らの作品がAIの能力向上に無賃乗りされ、結果として自分たちの市場価値を脅かす競合製品(AIモデル)を生み出していると主張しています。
日米で異なる法解釈と「機械学習パラダイス」の誤解
日本企業がこのニュースを見る際、最も注意すべきなのは「日本と米国では法規制の前提が異なる」という点です。米国ではフェアユース規定による包括的な判断が争われていますが、日本では著作権法第30条の4により、情報解析(AI学習など)を目的とする場合、原則として著作権者の許諾なく著作物を利用できるとされています。この条文の存在により、日本は世界的に見ても「AI開発に親和的な国(機械学習パラダイス)」と呼ばれることがあります。
しかし、これは「日本では何をしても許される」という意味ではありません。第30条の4には「著作権者の利益を不当に害する場合」を除くというただし書きが存在します。また、この規定はあくまで「学習段階」の話であり、AIによって生成された出力物が既存の著作物に類似しており、かつその著作物に依拠していると認められる場合は、通常の著作権侵害となり得ます。
企業実務における「モデル選定」と「出力管理」の重要性
日本国内でAI活用を進める企業にとって、今回の米国での訴訟リスクは対岸の火事ではありません。現在、多くの日本企業が活用しているGPTシリーズなどの主要なLLMは米国企業によって開発されています。もし米国での訴訟において「学習データとしての利用は違法」との判断が下された場合、該当するモデルの提供が停止されたり、学習データの削除・再トレーニングを余儀なくされたりする可能性があります。これは、APIを通じて自社サービスにAIを組み込んでいる企業にとって、事業継続性(BCP)のリスクとなります。
また、自社独自のデータを追加学習(ファインチューニング)させたり、RAG(検索拡張生成)技術を用いて社内ナレッジを参照させたりする場合も注意が必要です。学習させるデータの中に、他者の権利を侵害するものが含まれていないか、あるいは契約上AI学習への利用が禁止されているデータ(購入した市場調査レポートや提携先の機密情報など)が含まれていないか、データのガバナンスを徹底する必要があります。
日本企業のAI活用への示唆
今回の訴訟事例と各国の動向を踏まえ、日本企業が取るべき対策は以下の通りです。
- 基盤モデルのリスク評価: 採用するLLMがどのようなデータで学習されているか、開発元が著作権問題にどう対応しているか(学習データの透明性や、著作権侵害時の補償制度の有無など)を確認し、選定基準の一つとする。
- グローバル展開時の法規制対応: 日本国内で開発したAIモデルやサービスであっても、EUや米国など海外市場で展開する場合は、現地の著作権法やAI規制(EU AI Actなど)が適用される可能性があるため、日本の法律のみを基準にしない。
- 社内ガイドラインと入力データ管理: 従業員が生成AIを利用する際、他者の著作物を安易に入力(プロンプト入力やアップロード)しないようガイドラインを整備する。特に、RAGなどで外部データを参照させる際は、そのデータの利用規約を確認するプロセスを業務フローに組み込む。
- 生成物のチェック体制: マーケティング資料やコード生成など、AI生成物を対外的に公開・利用する場合は、既存の著作物との類似性がないか、人間によるチェックや盗用検知ツールの活用を検討する。
AI技術の進化は待ったなしですが、それを支える法的・倫理的な基盤は現在進行形で形成されています。技術的なメリットだけでなく、こうしたリーガルリスクや社会的受容性もバランスよく考慮することが、持続可能なAI活用の鍵となります。
