オーストラリアの公正労働委員会で、生成AIの使用により労働紛争の申立てが70%急増しているという報告がなされました。従業員がChatGPT等を用いて申し立て内容を「洗練(gloss up)」させる動きは、法的文書作成のハードルを劇的に下げる一方で、企業の人事・法務部門には真偽の見極めという新たな負荷を課しています。このグローバルな潮流をヒントに、日本の労働慣行において想定されるリスクと対策を考察します。
「洗練された」苦情の急増:豪州からの警鐘
オーストラリアの労働問題を扱う公的機関、公正労働委員会(Fair Work Commission)のアダム・ハッチャー委員長は最近、職場における不当解雇やハラスメントなどの申し立て件数が70%も急増している背景に、ChatGPTなどの生成AIツールの存在があると指摘しました。
これまで、法的な申し立てを行うには専門的な知識や、論理的で説得力のある文書作成能力が必要でした。しかし、大規模言語モデル(LLM)の普及により、従業員は断片的な不満を入力するだけで、法的に整った「もっともらしい」文書を瞬時に作成できるようになりました。ハッチャー氏はこれを、申し立て内容がAIによって「glossed up(見栄え良く修飾)」されていると表現しています。
「法的リテラシーの民主化」が企業に突きつける課題
この現象は、単なる海外の事例として片付けることはできません。日本においても、退職代行サービスの普及に見られるように、従業員が組織に対して権利を主張する際の心理的・実務的ハードルは下がりつつあります。生成AIは、このハードルをさらに押し下げる「法的リテラシーの民主化」ツールとして機能します。
企業側にとっての最大のリスクは、AIによって作成された文書が、必ずしも「真実」を正確に反映しているとは限らない点にあります。生成AIは、入力された情報をもとに、相手(企業)にダメージを与えやすい論理構成や、過度に権利を主張する表現を生成することが可能です。その結果、人事・法務部門は、非常に流暢かつ専門用語で構成された、しかし実態とは乖離しているかもしれない大量の申し立てへの対応を迫られることになります。
日本企業におけるリスクと「ハルシネーション」の罠
日本の文脈においては、パワハラ防止法や内部通報制度の運用において、同様の課題が浮上すると予測されます。従業員が被害感情をAIに入力し、AIがそれを過剰に法的な文脈に当てはめて出力した場合、本来はコミュニケーションの齟齬で解決できた問題が、深刻なコンプライアンス事案としてエスカレートする恐れがあります。
また、生成AI特有の「ハルシネーション(事実に基づかない情報の生成)」のリスクも無視できません。AIが作成した報告書の中に、架空の判例や、実際には発言されていない文言がもっともらしく挿入されている可能性があります。企業側がこれを見抜けずに過剰反応したり、あるいは安易に無視してしまったりすることは、どちらも重大な経営リスクとなります。
日本企業のAI活用への示唆
生成AI時代の労使関係において、企業は「AIを禁止する」のではなく、「AIが介在することを前提としたプロセス」を構築する必要があります。具体的な示唆は以下の通りです。
1. ファクトチェックプロセスの厳格化
提出された文書の「流暢さ」や「専門性」に惑わされず、記載されている事実関係(いつ、どこで、誰が、何をしたか)の裏付け調査により一層のリソースを割く必要があります。文章の完成度が高いからといって、その内容が正しいとは限りません。
2. HR・法務部門のAIリテラシー向上
対応する側もまた、AIがどのような文章を生成する傾向があるかを知っておく必要があります。AI特有の言い回しや論理展開のパターンを理解することで、文書の違和感を早期に検知できる体制を整えるべきです。場合によっては、企業側もAIを活用して膨大な資料の論点整理を行うなど、対抗手段としてのAI活用(Defensive AI)も検討の余地があります。
3. ヒューマンタッチな対話の再評価
AIによる文書化が進むからこそ、対面や肉声による対話の価値が高まります。文書の応酬による法的な泥仕合に陥る前に、1on1ミーティングや産業医面談など、人間同士の信頼関係に基づいた問題解決のチャネルを強化することが、結果としてAIによって増幅された紛争を防ぐ防波堤となります。
