近年、業務効率化を超えて人事や経営の意思決定にAIを活用する機運が高まっています。しかし、海外では解雇プロセスにAIを用いたことで裁判に発展し、企業側が敗訴する事例も発生しています。本記事ではこの事例を教訓に、日本企業が人事領域でAIを活用する際の法的・倫理的リスクと、適切なガバナンスのあり方について解説します。
海外で起きた「ChatGPTによる解雇」の波紋
生成AI(大規模言語モデル:LLM)のビジネス導入が進む中、その用途は文書作成やデータ分析にとどまらず、組織内の意思決定プロセスにも及びつつあります。そんな中、グローバルで注目を集める裁判事例が報じられました。韓国の大手ゲーム企業Kraftonが、傘下スタジオの創業者を解雇した際、同社のCEOがChatGPTを使用していたことが発覚し、裁判所が解雇を無効として再雇用を命じたというものです。
この裁判におけるChatGPTの具体的な利用方法(解雇理由の正当化テキストを生成させたのか、パフォーマンスデータの評価をさせたのか等)の詳細は明らかではありませんが、「従業員の地位を奪うという極めて重大な意思決定」のプロセスに生成AIが関与していた事実が、法的に厳しく問われた形です。この事案は、AIの利便性だけでなく、人権や雇用に直結する領域での利用がいかに高いリスクを伴うかを如実に示しています。
人事領域におけるAI活用のリスクと限界
採用、評価、配置といった人事領域(HRTech)でのAI活用は、業務の効率化や隠れたタレントの発見といったメリットがある一方で、致命的なリスクも内包しています。まず挙げられるのが、AIの「ブラックボックス問題」と「説明責任(アカウンタビリティ)の欠如」です。AIがなぜその評価を下したのか、どのようなデータを重視したのかを人間が正確に説明できない場合、評価された側は到底納得することができません。
さらに、生成AI特有の課題として「ハルシネーション(事実に基づかないもっともらしい嘘)」や、学習データに含まれる偏見(バイアス)の問題があります。仮にAIが従業員の過去の業務チャットや成果物を読み込んで評価を行ったとしても、その過程で特定の属性に対する差別的な評価や、事実誤認が混入する可能性はゼロではありません。人間によるファクトチェックを経ずにAIの出力を意思決定の根拠とすることは、企業のコンプライアンス上、極めて危険な行為と言えます。
日本の法規制と組織文化から考える「AIと人事」
この海外の事例は、日本企業にとっても決して対岸の火事ではありません。日本は労働契約法において「解雇権濫用法理」が定められており、客観的に合理的な理由と社会通念上の相当性がなければ解雇は無効となります。日本の裁判所において、AIによる分析結果のみを「客観的で合理的な理由」として認める可能性は現時点では皆無に等しいと言えるでしょう。
また、日本の組織文化においては、上司と部下の対話(1on1など)を通じた「評価の納得感」や「ウェットな人間関係」が依然として重視される傾向にあります。AIによって機械的に下された評価や処分は、従業員のエンゲージメントを著しく低下させ、組織への不信感を増幅させるリスクがあります。グローバルなAIガバナンスの潮流(欧州のAI規則や日本のAI事業者ガイドライン等)においても、個人の権利や生活に重大な影響を与える高リスクな判断には「Human-in-the-loop(人間の関与・介入)」が不可欠であると強く警告されています。
日本企業のAI活用への示唆
これらの動向やリスクを踏まえ、日本企業が人事・組織管理においてAIを活用する際の実務的な示唆を整理します。
第一に、「AIは意思決定者ではなく、あくまで意思決定の支援ツールである」という原則を徹底することです。AIに大量のデータを分析させ、評価の参考材料となるサマリーを作成させること自体は有効ですが、最終的な判断と従業員へのフィードバックは、必ず責任ある人間が行わなければなりません。
第二に、社内の「AI利用ガイドライン(AIポリシー)」を策定・更新し、高リスク領域を明確に定義することです。情報漏洩リスクへの対応だけでなく、「人事評価、採用の合否、懲戒・解雇の判断において、生成AIの出力結果を直接的な根拠として用いてはならない」といった具体的な禁止事項を設けることが、無用な労使トラブルを防ぐ防波堤となります。
第三に、AIシステムを導入する際には、そのアルゴリズムにバイアスが含まれていないか、定期的な監査を行うガバナンス体制を構築することです。業務効率化と新規事業の創出にAIをフル活用しつつも、人間と組織の根幹に関わる部分では、人間としての倫理観と説明責任を果たす。これこそが、これからの日本企業に求められる健全なAI活用の姿と言えるでしょう。
