海外において、求職者に対し「ChatGPTを使って自身の行動特性を分析し提出すること」を求める企業が現れ、議論を呼んでいます。AIによる採用活動の効率化は世界的な潮流ですが、LLM(大規模言語モデル)を心理分析や人物評価に直接利用することには、技術的・倫理的、そして法的なリスクが伴います。本記事では、この事例を端緒に、日本企業が人事・採用領域でAIを活用する際の適切なアプローチと、避けるべき「落とし穴」について解説します。
「AIに自己分析させる」という新たな採用手法の是非
先日、海外のブログ記事にて「求職者が企業から、ChatGPTを用いて自身の行動特性(Behavioral Tendencies)を評価するよう求められた」という事例が紹介されました。このエピソードは、生成AIの普及に伴い、企業の採用プロセスが実験的な段階に入っていることを示唆しています。
一見すると、この手法は候補者のAIリテラシーを測ると同時に、客観的と思われる分析結果を得られる効率的な手段のように思えるかもしれません。しかし、ここにはLLM(大規模言語モデル)の仕組みに対する根本的な誤解と、人事評価としての妥当性に大きな疑問符がつきます。
LLMは「心理学の専門家」ではない
まず技術的な観点から言えば、ChatGPTなどのLLMは、入力されたテキストに対して確率的に「もっともらしい」回答を生成するツールであり、科学的な妥当性が検証された心理検査ツールではありません。
候補者が自身の履歴書や自己PR文を入力し、「私の行動特性を分析して」とプロンプトを投げた場合、AIは一般的で誰にでも当てはまるような「バーナム効果」に近い記述を出力する可能性があります。また、AIは時として事実に基づかない情報を生成する「ハルシネーション(幻覚)」を起こすリスクもあります。これを採用の判断材料にすることは、サイコロを振って合否を決めるのと大差ない危険性を孕んでいます。
日本国内の法規制と「公正な採用選考」の観点
日本においてこの手法をそのまま導入することは、法務・コンプライアンスの観点からも推奨できません。職業安定法や厚生労働省の指針では、「公正な採用選考」が強く求められており、本人の適性・能力に関係のない事柄による採否決定は避けるべきとされています。
ブラックボックス化したAIアルゴリズムに評価を委ねることは、なぜその評価に至ったのかという「説明責任」を果たせなくなるリスクがあります。また、候補者に対し、プライベートな情報を含む職務経歴を、学習データとして利用される可能性のある公衆の生成AIサービスに入力させることは、プライバシー保護の観点からも不適切です。
日本企業における現実的なAI活用のアプローチ
では、人事・採用領域でAIは使えないのでしょうか。決してそうではありません。重要なのは「評価・判断」をAIに丸投げするのではなく、「判断材料の整理・効率化」に活用することです。
例えば、以下のような活用は日本企業でも現実的であり、生産性向上に寄与します。
- エントリーシートの要約・構造化: 大量の応募書類から、必要なスキルセットや経験の有無を抽出・要約させ、人間のリクルーターが読む時間を短縮する。
- 面接質問案の生成: 候補者の経歴に基づき、深掘りすべき質問のたたき台をAIに作成させ、面接官の準備をサポートする。
- 採用広報コンテンツの作成: 募集要項やスカウトメールの文面を、ターゲット層に合わせて最適化する。
いずれのケースも、最終的な「決定」や「対話」は人間が行うこと(Human-in-the-loop)が大前提となります。
日本企業のAI活用への示唆
今回の事例は、AI活用において「できること」と「やってよいこと」の区別をつける重要性を教えてくれます。日本企業が取るべきスタンスは以下の通りです。
- 「判断」をAIに委ねないガバナンスの徹底: 人のキャリアや人生を左右する意思決定(採用、人事評価、与信など)において、AIを「唯一の判定者」にしないこと。AIはあくまで支援ツールと位置づける必要があります。
- 商習慣と技術特性の適合性検証: 日本の採用慣行や法規制(個人情報保護法、職業安定法)と照らし合わせ、利用するAIモデルがどのようにデータを処理するかを確認してください。特に入力データがAIの学習に利用されない設定(オプトアウトやエンタープライズ版の利用)は必須です。
- 候補者体験(UX)への配慮: 候補者に不必要なAI利用を強制することは、企業ブランドを毀損するリスクがあります。「AIを使いこなす先進的な企業」と「AIに手抜きをさせる企業」の境界線は、その利用目的の透明性にあります。
