採用選考のAI化が進む中、AIスクリーニングツールが「人間よりもAIが書いた履歴書」を高く評価してしまうバイアスが研究で明らかになりました。本記事では、この「AIの自己選好」とも言える問題の実態と、日本の採用習慣やAIガバナンスを踏まえた公平な評価体制の構築方法について解説します。
AI採用スクリーニングにおける新たなバイアス問題
近年、採用プロセスにおける書類選考の自動化が進んでいますが、海外の最新研究により興味深い事実が報告されました。それは、採用担当者が導入しているAIスクリーニングツールが、「人間が書いた履歴書」よりも「AIが生成した履歴書」を高く評価する傾向があるというものです。特に、企業側がスクリーニングに使用している大規模言語モデル(LLM)と同じモデルを用いて候補者が書類を作成した場合、システム的に評価が底上げされるリスクが指摘されています。これは、AIが自身と同じ出力パターンや文章構造を「優れたもの」として判定してしまう、一種の「自己選好バイアス」と呼べる現象です。
日本の採用事情と生成AI利用の現状
日本国内においても、新卒一括採用などで大量に提出されるエントリーシート(ES)の処理を効率化するため、AIによる書類選考を導入する企業が増加しています。一方で、応募する学生や転職希望者の間でも、ChatGPTなどの生成AIを活用して自己PRや志望動機を作成、推敲することは一般的な手段となりつつあります。もし日本企業が導入するスクリーニングAIに上述のバイアスが存在していた場合、本来の候補者のポテンシャルや経験の深さではなく、「企業と同じAIモデルを偶然使ったか」あるいは「AIらしい整った文章を生成するプロンプトエンジニアリングに長けているか」が評価されてしまう懸念があります。
AIバイアスがもたらすリスクとガバナンスの必要性
このようなAIのバイアスを放置することは、採用活動における公平性を著しく損なうだけでなく、似通った思考プロセスを持つ同質的な人材ばかりが選考を通過し、組織の多様性(ダイバーシティ)を低下させるリスクにつながります。また、経済産業省などが策定している「AI事業者ガイドライン」や、昨今のAIガバナンスの観点からも、AIによる自動的な意思決定には透明性と説明責任が求められます。「なぜこの候補者を不採用にしたのか」という根拠がAIのブラックボックスによって説明できなくなることは、企業のコンプライアンスやブランドイメージにおいて大きな課題となります。
ヒューマン・イン・ザ・ループと評価基準の再定義
この問題に対する現実的なアプローチは、AIをあくまで「初期段階の補助ツール」として位置づけ、最終的な判断には人間が関与する「ヒューマン・イン・ザ・ループ(Human-in-the-loop:人間の介入)」の体制を構築することです。例えば、AIの役割を必須要件の確認や情報の構造化などに限定し、文章の文体に基づくスコアリングへの依存度を下げる工夫が必要です。また、誰もがAIで整った文章を作成できる時代になったからこそ、書類上の表現力ではなく、候補者固有の「生々しい経験の具体性」をどう評価するか、自社の採用基準そのものを再定義する時期にきていると言えます。
日本企業のAI活用への示唆
今回のAI履歴書に関する研究結果を踏まえ、日本企業がAIを活用する際の実務的な示唆を以下に整理します。
第一に、AIの出力や評価には必ず何らかのバイアスが潜んでいることを前提にシステムを運用することです。LLMを評価モデルとして活用する場合は、AIのスコアを鵜呑みにせず、定期的に人間の評価結果とのズレをモニタリングし、モデルやプロンプトの調整を継続的に行う必要があります。
第二に、ツールを導入・運用する業務部門(人事部など)と、IT・AI推進部門が連携したガバナンス体制の構築です。ベンダーが提供するAIツールのアルゴリズム特性を可能な限り把握し、それが自社の採用方針や倫理基準に合致しているかを確認するプロセスが不可欠です。
第三に、応募者が生成AIを活用することを前提とした業務プロセスのアップデートです。書類選考のウェイトを見直し、AIでは代替しにくい「対話」や「ケースワーク」などの多角的な評価手法を組み合わせることで、公平で本質的な人材評価を実現することが求められます。
