米国において、Gemini Space Station, Inc.の投資家に対する集団訴訟(クラスアクション)の参加期限が通知されました。本稿ではこの事例を契機に、米国市場の訴訟リスクを踏まえ、日本企業がAI関連事業を展開・投資する際に求められるガバナンスとコンプライアンスのあり方について解説します。
Gemini Space Stationに関する集団訴訟の概要と背景
米国において、Kahn Swick & Foti, LLC(KSF)などの法律事務所が、Gemini Space Station, Inc.の投資家に向けて集団訴訟(クラスアクション)の参加期限(2026年5月18日)を通知しました。本件は、同社の事業運営や情報開示に関して何らかの問題が生じ、投資家が損害を被ったとして提起されたものです。米国では、上場・未上場を問わず、企業の情報開示の不備やコンプライアンス違反に対して、投資家や消費者が連帯して巨額の賠償を求める集団訴訟が日常的に行われています。
※注:本記事で言及している「Gemini」は、Googleが提供する生成AIモデル「Gemini」ではなく、同名の企業(Gemini Space Station, Inc.)を指しています。企業がAIを用いて自社の関連技術や競合他社のニュースを自動収集する際、こうした同名異義語による情報の混入(ノイズ)が発生しやすい点にも注意が必要です。
AIビジネスにおける「情報開示」と法的リスク
今回の訴訟事例は、AIを含む先端技術領域で事業を展開する企業にとって、決して対岸の火事ではありません。AI分野は技術の進展が法規制や社会規範の整備を上回るスピードで進んでいます。そのため、AIモデルの性能、学習データの著作権リスク、あるいはプロダクトの技術的限界について、投資家やユーザーに適切に情報を開示しない場合、後々重大な訴訟リスクに発展する可能性があります。
例えば、自社プロダクトに組み込んだLLM(大規模言語モデル)が「ハルシネーション(事実とは異なるもっともらしいウソを出力する現象)」を起こし、顧客の業務に損害を与えた場合を想定してみてください。事前のリスク説明(免責事項の明示や技術的限界の開示)が不十分であれば、提供元の企業が法的責任を問われるおそれがあります。海外市場への展開時だけでなく、日本国内においても、消費者保護や企業間取引における契約責任の観点から、透明性の高い情報開示が不可欠です。
日本企業に求められるAIガバナンスと組織文化
日本企業がAIを活用した新規事業開発や業務効率化を進める際、あるいはAI系スタートアップに投資を行う際には、技術的な優位性だけでなく、組織の「AIガバナンス」の成熟度を厳しく評価する必要があります。AIガバナンスには、データプライバシーの保護、出力のバイアス(偏見)の排除、セキュリティの確保など、多岐にわたる要素が含まれます。
日本の法規制(個人情報保護法や著作権法など)と、欧米の法規制(EUのAI法など)には差異が存在します。そのため、プロダクト担当者やエンジニアは、常に最新の法規制動向をウォッチしつつ、法務部門と連携する体制を構築しなければなりません。「AIができること・できないこと」や「想定されるリスクとその軽減策」をステークホルダーに対して誠実にコミュニケーションする組織文化こそが、長期的な信頼構築とリスク回避の要となります。
日本企業のAI活用への示唆
今回の事例と米国の訴訟リスクの背景を踏まえ、日本企業がAI実務において留意すべき要点は以下の通りです。
・透明性のある情報開示の徹底:AIプロダクトを社内外に提供する際は、業務効率化などのメリットだけでなく、ハルシネーションやセキュリティ上の限界といったリスクを明確に定義し、ユーザーや投資家に周知することが不可欠です。
・法務とエンジニアリングの連携による体制構築:技術の進化に合わせてAIガイドラインを継続的にアップデートし、コンプライアンス部門と開発部門が初期段階から緊密に連携(DevSecOpsやMLOpsへのガバナンス統合)できる体制を整える必要があります。
・情報収集時の文脈理解とノイズ管理:AIを用いたニュースクローリングや市場調査を行う際、同名企業や無関係な文脈の情報が混入するリスクを認識し、適切なフィルタリング(RAGを用いた文脈理解の向上など)を実装することが実務上有効です。
