グローバルで広がる「AIを活用した給与の適正チェック」。日本企業においても、ジョブ型雇用への移行や人材流動化を背景に、従業員が自身の市場価値をAIに問う時代が到来しています。本記事では、このトレンドがもたらす組織マネジメントへの影響と、企業が取るべきガバナンス対応について解説します。
従業員がAIに「自分の給与」を相談する時代
最近の海外の動向において、従業員や求職者がChatGPTなどの生成AIを利用して、自身の給与水準や市場価値を確認するケースが増加しています。「私の勤続年数とスキルセット、現在の役職において、この給与額は適正か?」といった質問をAIに投げかけ、転職の検討や給与交渉の材料とする動きです。
元記事でも指摘されている通り、AIツールの普及と法的な給与透明化の動きが相まって、労働者は以前よりも簡単に自身の待遇を客観視できるようになりました。経営層や人事担当者、現場のマネージャーは、従業員がAIを片手に「自分に対する会社の評価」を問い直すシナリオに備える必要があります。
ジョブ型雇用への移行と日本企業への影響
この潮流は、決して海外だけのものではありません。日本国内でも、従来の年功序列型の賃金体系からジョブ型雇用(職務内容に基づいて報酬を決める制度)への移行が進んでおり、従業員自身の「市場価値」に対する関心がかつてなく高まっています。
もし企業の給与決定プロセスや評価基準が不透明なままであれば、従業員はAIが提示した一般的な市場データと自身の給与を比較し、「自分は不当に低く評価されている」と不満を抱く可能性があります。AIの回答が常に自社や業界の実情を正確に反映しているとは限りませんが、それがエンゲージメントの低下や離職の引き金になるという事実は、組織運営において軽視できないリスクです。
「シャドーAI」と機密情報漏洩のリスク
ガバナンスやコンプライアンスの観点から見逃せないのが、従業員による「シャドーAI(企業が許可・管理していないAIツールの無断利用)」のリスクです。従業員が自身の待遇の妥当性をAIに判定させる際、プロンプト(AIへの指示文)に社内の詳細な評価シート、給与テーブルの一部、あるいは人事規定などの機密情報を入力してしまう恐れがあります。
一般向けの大規模言語モデル(LLM)の多くは、入力されたデータをAIの学習に利用する初期設定になっていることがあり、社内の機密情報が意図せず外部に漏洩する危険性があります。企業は、業務効率化の文脈だけでなく、こうした従業員の個人的な利用シナリオも想定した上で、AI利用ガイドラインの策定やセキュアな社内AI環境の整備を進める必要があります。
マネジメント層に求められる「対話力」と「透明性」
従業員がAIの提示したデータを根拠に給与交渉や待遇改善を求めてきた場合、「AIの情報は当てにならない」と一蹴するのは得策ではありません。AIが算出した市場価値にはハルシネーション(もっともらしいが事実とは異なる情報の生成)が含まれる限界がある一方で、従業員が自身のキャリアや待遇に真剣に向き合っている証拠でもあります。
企業やマネージャーに求められるのは、報酬の決定プロセスを可能な限り透明化し、客観的な評価指標に基づいた対話を行うことです。なぜその評価になり、なぜその報酬額なのかを、自社のビジネスモデルや業界内の立ち位置と結びつけて論理的に説明できるマネジメント体制の構築が急務となります。
日本企業のAI活用への示唆
ここまでの内容を踏まえ、日本の経営層や人事担当者が押さえておくべき要点と実務への示唆を整理します。
・人事評価と報酬の透明性確保:AIによって従業員が簡単に自身の市場価値を推測できる前提に立ち、評価基準と給与体系の透明性を高め、日頃から納得感のあるフィードバックを行える体制を整えることが求められます。
・シャドーAI対策とガイドラインの再周知:社内規定や評価データなどを外部のAIに安易に入力しないよう、従業員に対する啓発とコンプライアンス教育を徹底すること。必要に応じて、入力データが学習に利用されない法人向けのセキュアなAI環境を提供することが有効です。
・マネジメント層の対話スキルの向上:AIによる市場データを持参する従業員に対して、頭ごなしに否定するのではなく、自社の評価軸に基づいて客観的かつ建設的な対話ができるよう、管理職向けのトレーニングやサポート体制を強化することが重要です。
