海外の裁判において、企業トップが買収先創業者の解雇計画をChatGPTに相談していた履歴が発覚する事案が発生しました。本記事ではこの事例を教訓に、機密情報の取り扱いや法的責任の観点から、日本企業が経営層を含めてどのようにAIガバナンスを構築すべきかを解説します。
経営判断の「壁打ち相手」として生成AIを使う危うさ
近年、生成AI(大規模言語モデル)はアイデア出しや文書作成だけでなく、経営課題の整理や意思決定のサポートツールとしても活用され始めています。しかし、その利用方法を誤れば、企業に甚大なダメージを与えるリスクが潜んでいます。
米国のITメディア「The Register」の報道によると、ある韓国企業のCEOが、買収したゲームスタジオの創業者らを解雇し、最大2億5,000万ドルに上るアーンアウト(買収後の業績に応じて支払われる追加の買収対価)の支払いを免れるための計画を、ChatGPTに相談していたことが米国の裁判手続きの中で明らかになりました。
この事案は、単なる「AIの誤用」にとどまらず、企業のトップ自身が引き起こし得る重大なコンプライアンスリスクと、証拠開示によるレピュテーション(評判)低下の恐れを浮き彫りにしています。
プロンプト履歴は「意図」を示す決定的な証拠になる
生成AIから精度の高い回答を引き出すためには、詳細な背景情報の入力(プロンプト)が不可欠です。しかし、M&Aの契約内容や特定個人の人事評価といった高度な機密情報を安易に入力することは、情報漏洩リスクに直結します。
さらに留意すべきは、米国などの訴訟における「ディスカバリー(証拠開示手続き)」の存在です。今回のケースのように、CEOが「いかにして契約上の支払いを回避し、対象者を解雇するか」をAIに尋ねた履歴は、悪意や不当な目的を示す強力な証拠として扱われる可能性があります。
日本国内の商環境においても、内部監査や不祥事発生時のデジタルフォレンジック(電子情報の保全・調査)によって、クラウド上のAIプロンプト履歴が抽出されるケースは今後増えていくと予想されます。経営トップの軽率な入力が、企業全体の致命傷になりかねない時代といえます。
「AIの提案」と日本の法規制・組織文化の乖離
生成AIは、与えられた目的に対して論理的で「もっともらしい」計画を出力することに長けています。しかし、その内容が法的要件や企業の倫理基準を満たしているとは限りません。
特に日本の労働法制は解雇規制が厳格であり、手続きの正当性が強く問われます。また、日本的な商習慣においては、M&A後のPMI(経営統合)においても、労使間の対話やステークホルダーとの信頼関係構築が重視されます。AIが提示した「合理的なコスト削減策」や「契約の抜け穴を突くスキーム」を鵜呑みにし、法的専門家のレビューを経ずに実行に移すことは、極めてハイリスクです。最終的な意思決定とそれに伴う法的・道義的責任は、あくまで人間である経営陣が負わなければなりません。
日本企業のAI活用への示唆
本事例から日本企業が学ぶべき実務的な示唆は以下の3点に集約されます。
1. 経営層・エグゼクティブ向けAIリテラシー教育の徹底:AIガイドラインの策定や教育は現場の従業員向けに偏りがちですが、最も機密度の高い情報を扱う経営陣こそ、AIの限界や入力データのリスク(証拠化リスク含む)を深く理解する必要があります。
2. セキュアなAI利用環境の構築と監査体制:業務で生成AIを利用する場合は、入力データがAIの学習に利用されない法人向けプランを導入することが前提となります。その上で、機密情報の入力に関するルールを定め、必要に応じて利用状況をモニタリング・監査できる体制(AIガバナンス)を整えることが求められます。
3. 「AIの出力」に対する牽制機能の確保:AIを意思決定のサポートに用いること自体は有効ですが、人事や契約に関わる重大な判断を下すプロセスには、必ず法務部門や外部専門家によるヒューマン・イン・ザ・ループ(人間の介在による確認)を組み込む業務フローを構築すべきです。
