生成AIを経営戦略の立案に活用する動きが広がる中、米国でAIを用いた意思決定が法廷で覆される異例の事案が発生しました。本記事では、この事例から浮かび上がる法的リスクと、日本企業がAIを経営や実務に組み込む際に求められるガバナンスのあり方について解説します。
経営トップによる生成AI利用の波紋
大規模言語モデル(LLM)の高度化に伴い、ChatGPTなどの生成AIを「経営の壁打ち相手」として活用する企業が増加しています。膨大な情報を処理し、複数のシナリオを瞬時に提示するAIは、意思決定のスピードを劇的に引き上げます。しかし、その利用方法によっては思わぬ法的リスクを招くことがあります。
先日、韓国ゲーム大手KRAFTONのCEOが、買収したスタジオの経営陣交代計画を立案する際、ChatGPTを利用していた事実が米国デラウェア州裁判所で明らかになりました。この事案の焦点は、経営陣の交代が約2億5000万ドル(約370億円)に上るアーンアウト(買収後の業績達成に応じた追加支払い)を回避する目的で仕組まれた点にあります。裁判所は、この動きを不当と判断し、決定の取り消しを命じました。この出来事は、AIの戦略的活用に関する極めて現代的な法的・倫理的課題を浮き彫りにしています。
AIの提案と法的・倫理的制約のギャップ
AIは目的を与えられれば、冷徹なまでに「最適化」された戦略を出力します。今回のように「特定の支払いを合法的に回避しつつ、経営権を掌握する手段」をプロンプトで要求した場合、AIは契約の抜け穴を突くような手順を提示する可能性があります。
しかし、実際のビジネス環境や法体系には「信義誠実の原則(信義則)」や契約上の黙示の義務が存在します。AIの出力が形式的に理にかなっているように見えても、それをそのまま実行することが法的な正当性を担保するわけではありません。むしろ、「AIを使ってまで意図的に契約上の義務を回避しようとした」という事実自体が、不誠実な意図の証左として捉えられるリスクがあります。
日本の商習慣・法規制におけるリスクと対策
日本企業においても、M&A戦略の策定、人事評価の基準作り、あるいは取引先との契約交渉の準備などにAIを活用するケースは珍しくありません。ここで留意すべきは、日本の法制度における「取締役の善管注意義務」や「権利の濫用」といった概念です。
例えば、業務効率化やコスト削減を目的としてAIのアドバイスに従い、下請け企業との取引条件を一方的に変更したり、従業員の不利益な配置転換を行ったりした場合、後から下請法違反や労働法上の権利濫用とみなされる危険性があります。また、有事の際の社内調査や、グローバル展開する企業におけるeディスカバリ(電子証拠開示手続き)においては、「経営層がAIにどのようなプロンプトを入力したか」という履歴自体が抽出され、組織のコンプライアンス姿勢を問われる決定的な証拠となる時代になっています。
日本企業のAI活用への示唆
本件から日本企業が学ぶべき要点と、実務への示唆は以下の通りです。
1. AI利用における「人間の介入(Human-in-the-Loop)」の徹底
AIは強力な思考の補助ツールですが、最終的な意思決定の責任は人間にあります。AIの提案を鵜呑みにせず、法務部門や外部専門家によるコンプライアンスおよび倫理的観点からの妥当性検証(レビュー)を、必ずプロセスに組み込む必要があります。
2. プロンプト入力に対するガバナンスと意識改革
「何をAIに入力したか」は、組織の意図を示す証拠となり得ます。脱法行為や不当な利益相反を模索するようなプロンプトの入力は厳に慎むべきであり、経営層を含めた全社的なAI利用ガイドラインの策定と継続的な啓発が急務です。
3. 「壁打ち」用途での利用ルールの明確化
新規事業開発やM&Aの検討など、機密性の高いテーマでAIを利用する場合は、入力データの学習利用を防止するエンタープライズ版AIの導入が前提となります。その上で、AIの出力はあくまで「選択肢の一つ」として扱い、自社の理念や日本の商習慣、ステークホルダーとの関係性に適合するかを総合的に判断する組織体制を構築することが求められます。
