求職者が履歴書やカバーレターの作成にChatGPTなどの生成AIを利用することは、もはや世界的な潮流となりつつあります。候補者の「AI利用」を前提としたとき、日本企業の採用担当者や経営層は選考プロセスをどのように見直し、また自社の採用業務にAIをどう組み込むべきなのでしょうか。グローバルの動向と日本の実務を踏まえ、その功罪と対策を解説します。
候補者によるAI利用は「前提」となる
北米を中心に、求職者が職務経歴書(レジュメ)やカバーレターの作成にChatGPTを活用するケースが急増しています。日本国内においても、特にITリテラシーの高い層や新卒採用の「エントリーシート(ES)」作成において、生成AIの活用は既に一般化しつつあると考えるべきでしょう。
これまで、文章の構成力や表現力は候補者の能力を測る一つの指標でしたが、LLM(大規模言語モデル)の普及により、誰もが「整った、ミスのない文章」を容易に生成できるようになりました。これは、従来の書類選考の基準が機能しなくなることを意味します。企業側は、提出された書類が「本人の生の言葉」なのか「AIによって最適化された出力」なのかを判別することにリソースを割くのではなく、AI利用を前提とした新たな評価軸を構築する必要があります。
「均質化」する応募書類と選考の難しさ
生成AIを活用することで、候補者は自身のスキルを職務記述書(JD)に合わせて最適化できます。しかし、これには「過学習」のようなリスクも潜んでいます。AIが生成する文章は、一般的で無難な表現(いわゆる「正解」に近い回答)に収束する傾向があり、候補者ごとの個性や独自の経験が見えにくくなる「均質化」の問題が発生します。
また、実務経験以上に自分を良く見せる「ハルシネーション(もっともらしい嘘)」のリスクも無視できません。AIが補完したスキルセットと、本人の実力との乖離を見抜くため、書類選考の比重を下げ、構造化面接や実技テスト、あるいは「AIをどう使いこなして成果を出したか」を問うような選考プロセスへのシフトが求められます。
採用側(企業)におけるAI活用のメリットとガバナンス
一方で、企業側が採用業務にAIを活用する動きも加速しています。膨大な応募書類の要約、スカウトメールの文面作成、面接の文字起こしと分析など、業務効率化の余地は非常に大きいです。しかし、ここで日本企業が特に注意すべきなのは「データプライバシー」と「公平性」です。
日本の個人情報保護法において、採用候補者の情報は厳格に管理されるべき個人情報です。パブリックな生成AIサービスに候補者の職務経歴書をそのまま入力することは、情報漏洩のリスクに直結します。エンタープライズ版の契約や、学習データに利用されない設定(オプトアウト)の確認、あるいはローカル環境で動作するLLMの活用など、技術的なガバナンス体制が不可欠です。
また、AIによるスクリーニングは、過去の採用データのバイアス(偏見)を増幅させる可能性があります。「自社に合いそうな人」をAIに判定させると、過去に採用実績の多い属性ばかりが選ばれ、多様性が損なわれるリスクがあることを認識しておく必要があります。
日本企業のAI活用への示唆
以上の動向を踏まえ、日本の経営層や人事責任者、プロダクト担当者が意識すべきポイントは以下の通りです。
- 「AI禁止」ではなく「プロセス評価」へ:候補者のAI利用を禁止・検知しようとするのではなく、AIを使ったアウトプットをスタートラインとし、そこからどう深掘りできるかという「対話能力」や「思考プロセス」を評価する選考に変革する。
- ハイタッチとハイテクの使い分け:定型的な業務(日程調整、一次スクリーニングの補助)にはAIを積極活用し、候補者の意向醸成やカルチャーマッチの確認といった「人間にしかできない業務」にリソースを集中させる。
- ガバナンスの徹底:採用データは機微情報の塊であるため、AIツールの導入時はセキュリティ要件を厳格に定義する。また、AIによる合否判定を「最終決定」とせず、必ず人間が判断する「Human-in-the-loop」の体制を維持し、ブラックボックス化を防ぐ。
