生成AIを経営戦略や人事領域に活用する動きが加速する中、AIの提案をそのまま実行に移したことで深刻な法的トラブルに発展するケースが出てきました。本記事では、海外企業がChatGPTの助言に従って子会社経営陣を解任し裁判所で敗訴した事例をふまえ、日本企業が留意すべき法規制やガバナンスのあり方を解説します。
AIの「アドバイス」が招いた経営トラブル
近年、生成AI(大規模言語モデルなど)を業務効率化だけでなく、経営戦略の策定や人事評価のサポートに活用しようとする企業が増えています。しかし、その活用方法を誤ると大きなリスクを伴うことが、ある海外の事例から浮き彫りになりました。
報道によると、韓国のゲーム企業であるKrafton社は、傘下にある海外開発スタジオの経営陣を不当に解任し、約2億5000万ドルという巨額の成果報酬(ボーナス)の支払いを回避しようとしました。注目すべきは、同社がこの複雑な人事・財務上の意思決定を下すにあたり、ChatGPT(生成AI)の「経営アドバイス」に従っていたとされている点です。結果として、この解任劇は裁判所によって違法性を指摘され、方針の撤回を余儀なくされました。
この事件は、AIの出力をそのまま重大な意思決定に直結させることの危険性を端的に示しています。AIは膨大なデータから尤もらしい回答を生成しますが、特定の法域における最新の判例や、契約上の信義則、倫理的な妥当性までを完全に理解しているわけではありません。
日本の法制下における「善管注意義務」とAI
この事例を日本のビジネス環境に置き換えて考えてみましょう。日本企業の取締役には、会社法に基づく「善管注意義務(善良な管理者の注意義務)」が課せられています。経営判断を下すにあたっては、十分な情報収集と合理的な検討プロセスを経ることが求められます。
もし日本企業が、AIの提案のみを根拠に重要なM&Aの条件変更や役員の解任、大規模なリストラなどを実行し、結果として会社に損害を与えた場合、経営陣は善管注意義務違反を問われる可能性が高いと言えます。AIには「ハルシネーション(事実とは異なるもっともらしい嘘を出力する現象)」や学習データに依存したバイアスが存在するため、専門家による法務・財務のデューデリジェンス(資産やリスクの適正評価)を代替するものではありません。
人事・労務領域におけるAI活用と透明性の確保
特に人事・労務領域でのAI活用は、日本の厳しい労働法制と組織文化を踏まえると、極めて慎重な取り扱いが求められます。日本では解雇規制が厳格であり、人事評価や処遇の決定にはプロセスの透明性と従業員の「納得感」が重んじられます。
AIを用いて従業員のパフォーマンスを分析したり、最適な配置をシミュレーションしたりすること自体は、業務効率化の観点で非常に有益です。しかし、評価の最終決定や、前述の事例のような「報酬の支払い回避」といったセンシティブな判断をAIに委ねることは、労働契約上の権利濫用とみなされるリスクがあります。AIはあくまで判断材料の一部を提供するツールにとどめ、最終的な意思決定は人間が責任を持って行う「Human-in-the-loop(人間の介在)」の仕組みが不可欠です。
日本企業のAI活用への示唆
今回の事例から、日本企業が安全かつ効果的にAIを活用し、ビジネスの成長につなげるための重要な示唆が3点得られます。
第1に、AIの位置づけの明確化です。AIは「優秀な壁打ち相手」や「選択肢の提示役」としては非常に強力ですが、「最終決定権者」ではありません。重大な意思決定においては、必ず人間による専門的な検証プロセスを組み込む必要があります。
第2に、法的・倫理的リスクに対するガバナンス体制の構築です。特に人事、契約、財務に関わる領域で生成AIを利用する場合、事前に法務部門やコンプライアンス部門と連携し、どこまでAIの出力を参考にしてよいかという社内ガイドラインを策定・周知することが重要です。
第3に、説明責任(アカウンタビリティ)の確保です。なぜその判断を下したのか、ステークホルダー(株主、従業員、取引先)に対して論理的に説明できる状態を維持しなければなりません。「AIがそう言ったから」は、法廷でもビジネスの現場でも通用しない免罪符であることを、組織全体で強く認識しておくべきでしょう。
