米国の法律事務所がGemini Space Station, Inc.に対する集団訴訟(クラスアクション)の参加を呼びかける通知を行いました。本記事では、この事例を契機として、米国市場における企業の情報開示リスクと、日本企業がAI事業を展開する上で不可欠となるガバナンス・コンプライアンスのあり方について解説します。
米国市場におけるクラスアクション訴訟の現実
米国において、Gemini Space Station, Inc.(NASDAQ: GEMI)の投資家に対して、法律事務所がクラスアクション(集団訴訟)への参加を呼びかける通知を行いました。米国市場では、企業の情報開示に疑義が生じた場合や、ガバナンスの不備が投資家の損失につながったとみなされた場合、このような集団訴訟が日常的に提起されます。
この事例自体は特定のAI技術に直接関わるものではありませんが、「Gemini」という名称から昨今の生成AIの隆盛を連想された方も多いかもしれません。実際、昨今のAIブームを背景に急成長するテック企業やAI関連スタートアップにおいても、情報開示の正確性やコンプライアンス体制の不備が厳しく問われ、巨額の訴訟に発展するリスクが高まっています。
AIビジネスに伴う特有の法的・コンプライアンスリスク
AIを活用したプロダクト開発や新規事業を展開する際、企業は従来のソフトウェア開発にはなかった新たなリスクに直面します。例えば、大規模言語モデル(LLM)の学習データに含まれる著作権侵害リスク、生成物の不適切な出力(ハルシネーション)による顧客への損害、そしてAIシステムの性能や安全性に関する過剰なマーケティング(いわゆるAIウォッシング)などです。
米国市場においては、自社のAI技術の有効性を誇大にアピールし、実態と異なる情報開示を行った結果、証券取引委員会(SEC)の調査や投資家からのクラスアクションに発展するケースが出始めています。これは、日本企業が海外市場へ展開する際や、グローバルなステークホルダーと取引する際にも、決して対岸の火事ではありません。
日本企業に求められる「AIガバナンス」と透明性の確保
日本の法規制や商習慣を踏まえると、米国ほど即座に巨額の集団訴訟に発展するケースは多くないかもしれません。しかし、レピュテーション(企業ブランド)の毀損や、取引先からの信頼喪失はビジネスにおいて致命的なダメージとなります。したがって、日本企業がAIを業務効率化やサービスに組み込む際には、強固な「AIガバナンス」の構築が不可欠です。
具体的には、AIの性能や限界について透明性のある情報開示を行うこと、データプライバシーや著作権に関する社内ガイドラインを策定し運用状況を監査すること、そして「AIに何ができて、何ができないのか」を顧客や株主に対して正確に伝えることが求められます。過度な期待を煽るのではなく、事実と実務的なリスクをバランスよく説明する姿勢が、中長期的な信頼構築につながります。
日本企業のAI活用への示唆
今回の米国における集団訴訟のニュースを単なる他国の証券トラブルと捉えるのではなく、自社のガバナンス体制を見直す契機とすることが重要です。実務における要点は以下の通りです。
第一に、AIプロダクトやサービスのリリース時において、その能力を過大に表現しないことです。エンジニアリング部門とマーケティング・法務部門が密に連携し、技術の限界(正確性の完全な保証がないこと等)をユーザーに対して適切に開示するプロセスを設けてください。
第二に、AIベンダーや関連スタートアップへの投資・提携を行う際のリスク評価(デューデリジェンス)の徹底です。相手先企業のコンプライアンス体制や情報開示の誠実さを厳しくチェックすることが、結果的に自社の法的リスクを軽減することにつながります。経営層から現場のエンジニアに至るまで、AIのもたらす価値とリスクを冷静に評価し、責任あるAI(Responsible AI)の実装を進めていくことが求められます。
