OpenAIの報告によると、1日約300万件もの賃金・給与に関する質問がChatGPTに寄せられています。従業員がAIをキャリアの相談相手とする中、日本企業が直面するガバナンス上のリスクと、社内体制構築のポイントを解説します。
従業員がChatGPTに「給与の相談」を持ちかける時代
OpenAIの最新の報告によると、世界中の労働者からChatGPTに対して、賃金や給与に関するメッセージが1日に約300万件も寄せられていることが明らかになりました。これは、従業員がキャリアプランや自身の待遇の妥当性について、上司や人事部門ではなく、まずは生成AIに相談する行動が一般化しつつあることを示しています。
生成AIは24時間いつでも対応してくれ、かつ「心理的安全性」が完全に担保された相談相手です。上司には直接聞きづらい自身の市場価値の確認や、昇給交渉のシナリオ作成などをAIに頼る心理は、国や地域を問わず共通していると言えるでしょう。
日本の組織文化とAIへの「キャリア相談」
日本国内の企業においても、この動向は決して対岸の火事ではありません。近年、ジョブ型雇用の導入や人的資本経営の推進により、従業員一人ひとりが自身のキャリアや市場価値を客観的に見つめ直す機会が増えています。一方で、日本企業には「お金や待遇の話を直接的に交渉しづらい」という組織文化が根強く残っています。
こうした背景から、日本のビジネスパーソンもまた、大規模言語モデル(LLM)に対して、給与の妥当性や転職の相談を持ちかけるケースが増加していると推測されます。企業や経営層は、従業員がAIをパーソナルなキャリアアドバイザーとして活用し始めている事実を、前提として認識しておく必要があります。
企業が直面するリスクとガバナンスの課題
従業員が私的にAIを活用することには、企業にとって見過ごせないリスクも潜んでいます。最大の懸念は「情報漏洩」です。自身の給与水準が妥当かをAIに判定させるため、社内の評価基準や給与テーブル、場合によっては他者の待遇などの機密情報を、公開されている汎用AIサービスに入力してしまう危険性があります。会社が把握していないAI利用、いわゆる「シャドーAI」の典型例です。
また、ハルシネーション(AIが事実に基づかないもっともらしい嘘を生成する現象)による労務トラブルのリスクも考えられます。AIが提示した不正確な市場相場や、誤った労働法制の解釈を従業員が鵜呑みにし、会社に対する不満を募らせたり、現実離れした要求につながったりする可能性もゼロではありません。
社内AIの整備と人事部門の業務効率化
これらのリスクに対応しつつ、AIの利点を前向きに活かすためには、セキュアな社内専用のAI環境を整備することが有効です。たとえば、自社の就業規則、人事評価制度、福利厚生などの社内規定をRAG(検索拡張生成:外部データを取り込んでAIの回答精度を高める技術)によって学習させた「社内人事向けAIアシスタント」を構築するアプローチです。
これにより、従業員は安全な環境で制度に関する疑問をいつでも自己解決できるようになります。人事・総務部門にとっても、定型的な問い合わせ対応から解放され、より高度な制度設計や従業員との1on1など、人間ならではの業務に時間を割くことが可能になります。
日本企業のAI活用への示唆
今回の動向から得られる、日本企業が取り組むべき実務的な示唆は以下の通りです。
第一に、従業員向けのAI利用ガイドラインの策定と継続的な啓発です。業務データだけでなく、自身や他者の給与・評価データなど機密性の高い情報を、会社が許可していない外部のAIに入力しないよう明確に周知・教育する必要があります。
第二に、人事制度の透明性確保です。従業員が外部のAIに正解を求めざるを得ない状況は、裏を返せば社内の評価基準や報酬決定プロセスに対する理解や納得感が不足しているサインかもしれません。AIの回答に揺さぶられない、透明性の高い制度設計と丁寧な社内コミュニケーションが不可欠です。
第三に、安全なAI環境の提供です。利用をただ禁止するのではなく、エンタープライズ向けのセキュアな生成AI環境を導入し、業務効率化や自己学習のためのツールとして正しく活用できる基盤を整えることが、これからの企業競争力を左右する鍵となります。
