オーストラリアの労働争議において、生成AIが作り出した架空の情報を証拠として提出した労働者が、多額の法的費用を請求される可能性が浮上しました。本記事ではこの事例を教訓に、日本企業が業務効率化や法務・労務対応でAIを活用する際に押さえておくべきリスク管理とガバナンスの要点を解説します。
生成AIの「ハルシネーション」が引き起こした法廷トラブル
先日、オーストラリアで報じられた不当解雇申し立ての事例は、AIを実務で活用するあらゆる組織にとって重要な教訓を含んでいます。解雇された労働者が自身の主張を裏付けるために生成AI(人工知能)を利用しましたが、提出された資料には「ハルシネーション」と呼ばれる、AIが事実に基づかない架空の情報をあたかも真実であるかのように生成する現象が含まれていました。法廷でこの架空の証拠や判例が問題視された結果、この労働者は相手方の訴訟費用まで負担させられる危機に直面しています。
このニュースは、海外の特殊な事例として片付けるべきではありません。生成AIの利用が日常化する中、人間が気づかないうちにAIの「もっともらしいウソ」を重要な意思決定や外部への主張に組み込んでしまうリスクは、日本のビジネス現場にも確実に潜んでいます。
専門領域におけるAI利用の限界とリスク
現在、日本企業においても、契約書のドラフト作成や社内規定の照会、労務相談への一次対応など、法務・人事領域でのAI活用ニーズが急速に高まっています。慢性的な人手不足や働き方改革を背景に、膨大な文書処理をAIで効率化することは極めて合理的です。
しかし、現在主流となっている大規模言語モデル(LLM)は、膨大な学習データから「確率的に自然な文章」を生成する仕組みであり、出力の法的な正確性や真実性を担保するものではありません。特に、日本の複雑な労働法制や、企業ごとに異なる細かな就業規則に対して、一般的なAIは誤った解釈や架空の社内ルールを出力する危険性があります。緻密な法令順守(コンプライアンス)が求められる日本の商習慣において、AIの誤出力を確認せずに社外の取引先や公的機関に提出してしまえば、企業の信用失墜や損害賠償といった致命的な事態に直結します。
「Human in the Loop」と社内ガバナンスの構築
だからといって「AIはリスクが高いから一切使わない」という選択は、グローバルでの業務生産性や競争力を大きく損なうことになります。重要なのは、AIを完璧な存在として扱うのではなく、システムや業務プロセスの中に適切に組み込むことです。
そのための有効な概念が「Human in the Loop(人間の介入)」です。AIには文章の要約やドラフト作成、膨大な資料の検索といった初動の労力削減を任せ、最終的な事実確認や法的な意思決定は必ず専門知識を持った人間が行うという体制です。また、現場の従業員が個人の判断で無料のAIツールを業務に利用してしまう「シャドーAI」を防ぐためにも、企業として公式なAI利用ガイドラインを策定し、何を入力してはいけないか、出力結果をどう扱うべきかというリテラシー教育を徹底することが急務です。
日本企業のAI活用への示唆
今回の事例を踏まえ、日本企業が安全かつ効果的にAIを活用していくための実務的な示唆は大きく3点あります。
第一に、AIはあくまで「強力な下書き作成ツール」や「思考の壁打ち相手」として位置づけ、事実確認(ファクトチェック)の責任は人間が持つという原則を社内で徹底することです。AIが生成した情報をそのままコピー&ペーストして業務を完了させることは厳禁とする必要があります。
第二に、自社固有の社内規定や過去の正確なデータをAIに参照させながら回答を生成させる「RAG(検索拡張生成)」などの技術を活用することです。一般的な汎用AIに頼るのではなく、社内の信頼できるデータベースと連携させることで、ハルシネーションの発生確率を技術的に下げる仕組みづくりが求められます。
第三に、日本企業が古くから得意としてきた「承認フロー」を、AI時代に合わせて再設計することです。誰がAIを用いて資料を作成し、誰がその内容の正確性を担保して承認(ハンコを押す、あるいはシステム上でApproveする)するのか、責任の所在を明確にすることが重要です。AIという新しいテクノロジーを排除するのではなく、日本ならではの品質管理や組織文化の強みと掛け合わせることこそが、安全で競争力のあるAI活用への近道となります。
