海外のゲーム企業CEOが、自社の法務部門の助言を無視してChatGPTの回答を元に巨額の契約解除を強行し、裁判で敗訴する事例が発生しました。本記事ではこの事例を教訓に、日本企業が陥りやすいAIへの過信と、意思決定層に求められるAIガバナンスのあり方を解説します。
法務の助言よりChatGPTを信じたCEOの敗訴
生成AI(大規模言語モデル)のビジネス活用が進む中、経営トップの不適切なAI利用が深刻な事態を招いた海外の事例が報じられました。韓国のゲーム大手KraftonのCEOが、傘下スタジオのトップを解任し2億5000万ドルの契約を無効にする方法をChatGPTに相談し、自社の法務チームの制止を振り切って実行した結果、裁判で大敗を喫するという事件です。
この事例は、AIの出力を過信し、社内の専門家の意見を軽視することが、企業にどれほど甚大な法的・財務的ダメージを与えるかを如実に示しています。
「確証バイアス」を増幅させる生成AIのもっともらしさ
なぜ経営トップは、法律の専門家である自社の法務チームよりもAIの回答を優先してしまったのでしょうか。現在の生成AIは、ユーザーの意図を汲み取り、論理的で自信に満ちた文章を生成することに長けています。CEOにとって都合の良い「契約を無効にする方法」をAIがもっともらしく出力したことで、自分の思い込みを裏付ける情報ばかりを集めてしまう「確証バイアス」が増幅されたと考えられます。
AIは相談役としての「壁打ち」には非常に有益ですが、事実関係の裏付けや法的な正確性を担保するものではありません。AIの回答に心地よさを感じてしまうこと自体が、意思決定における隠れたリスクになり得ます。
日本の法規制と組織文化におけるAI活用の限界
日本の法規制やビジネス環境に照らし合わせても、この事例は対岸の火事ではありません。特に人事・労務管理や契約解除に関わる領域は、日本の労働法制や過去の判例の蓄積が極めて重視される分野です。汎用的な生成AIは英語圏のデータや米国の法律に偏って学習しているケースが多く、日本の複雑な実務事情を正確に反映していない「ハルシネーション(もっともらしい嘘)」を引き起こすリスクが常に伴います。
さらに、日本の組織文化において、経営層がAIの回答だけを根拠に法務やコンプライアンス部門の専門的な知見を退けて強行することは、法的リスクを高めるだけでなく、組織内の信頼関係を根本から破壊する要因にもなります。
現場だけでなく「経営層」へのAIリテラシー教育が急務
現在、多くの日本企業で従業員向けの「生成AI利用ガイドライン」の策定が進んでいますが、権限を持つ経営層やマネジメント層に対する啓発が手薄になっているケースが散見されます。経営判断という重大な局面でAIの出力を鵜呑みにすれば、その影響は全社に及びます。
AIを業務効率化や新規事業のアイデア出しに活用するメリットは大きいものの、最終的な判断には必ず人間が関与する「ヒューマン・イン・ザ・ループ」の設計が不可欠です。経営層自身がAIの仕組みと限界を理解し、社内の専門家と適切に役割を分担する姿勢が求められます。
日本企業のAI活用への示唆
本事例から日本企業が学ぶべき、AIガバナンスと実務への示唆は以下の通りです。
1. 意思決定におけるAIの位置づけの明確化:AIはあくまで「選択肢の洗い出し」や「思考の整理」のためのツールであり、法務・財務・人事など専門家の意見を代替するものではないという原則を組織内で共有すること。
2. 経営層向けAIガバナンスの徹底:現場の従業員だけでなく、強力な決定権を持つ経営層やマネージャーに対しても、ハルシネーションや学習データの偏りといったAIの限界に関する教育を定期的に実施すること。
3. 専門業務における適切な技術選定:法務などの専門領域でAIを活用する場合、汎用モデルのチャット画面をそのまま使うのではなく、自社の過去の契約書や日本の判例データをAIに参照させるRAG(検索拡張生成)などの技術を導入し、最終的に専門家が必ずレビューする業務フローを構築すること。
