米国の大学でChatGPTによる「成績インフレ」が議論を呼んでいます。この現象は教育現場にとどまらず、日本企業における採用や人事評価、そして「人間の仕事の価値」をどう測るかという根源的な問いを投げかけています。
生成AIがもたらす「アウトプットのインフレ」とは
米国メディアのAxiosは、ChatGPTの普及によって大学の授業で「A」評価を受ける学生が急増し、いわゆる成績インフレ(Grade Inflation)の議論が悪化していると報じました。生成AI(文章や画像などを自動生成するAI)を活用することで、学生が提出するレポートや課題の質が全体的に底上げされ、従来の基準では個人の真の理解度や能力を測ることが難しくなっているという現状があります。
この現象は、決して遠い国の教育現場だけの問題ではありません。AIの業務利用が進む日本企業においても、これと全く同じ構図の「アウトプットのインフレ」が起き始めています。文章作成、データ集計、さらにはプログラミングに至るまで、AIを使えば一定水準以上の成果物を誰でも短時間で生み出せるようになりました。これにより、私たちは「成果物だけで人の能力を評価する」というこれまでの常識を見直す時期に直面しています。
採用や人事評価におけるAI前提の課題
日本企業において、この「インフレ」が最も顕著に表れるのが採用活動です。新卒一括採用などで提出されるエントリーシートや職務経歴書は、生成AIの推敲を経ることでどれも論理的で洗練された文章になりつつあります。文章の美しさや体裁といった表面的なクオリティで候補者をスクリーニングすることは、もはや意味を成さなくなりつつあると言えます。
また、社内の人事評価においても同様の課題が生じます。日本の組織文化では、整然とした稟議書や詳細な報告書を作成する能力が、しばしば「仕事ができる」という評価に直結してきました。しかし、AIがドキュメント作成の大部分を代替できるようになった今、そうした「文書作成スキル」の価値は相対的に低下しています。AIが作った美しい資料を評価するのか、それともその背景にある思考プロセスを評価するのか、評価者側のリテラシーが問われているのです。
プロセス評価と「問いを立てる力」へのシフト
成果物の質がAIによって均質化・底上げされる時代においては、評価の軸足を「アウトプット(結果)」から「プロセス(過程)」へとシフトさせる必要があります。具体的には、どのような課題を設定し、AIに対してどのような指示(プロンプト)を与え、出てきた結果をいかに批判的に検証し(もっともらしいウソを出力するハルシネーションのチェックを含む)、最終的なビジネス価値に結びつけたかという一連のプロセスです。
日本企業はもともと、現場の改善活動やチームでの協調性など、プロセスを重んじる組織文化を持っています。この強みを活かし、AIを単なる「ズルをする道具」として遠ざけるのではなく、「有能なアシスタント」として使いこなすプロセスそのものを評価指標に組み込むことが現実的なアプローチとなります。ただし、そのためにはAIの利用を隠れて行うシャドーAIを防ぎ、セキュリティや機密情報保護の観点から社内での利用ルールやガバナンスを明確に定めることが大前提となります。
日本企業のAI活用への示唆
大学の成績インフレを報じた元記事の事象から、日本企業が実務において考慮すべきポイントは以下の通りです。
第一に、採用・評価基準のアップデートです。文章作成やコーディングのスピードといったAIが代替しやすいスキルではなく、現場の一次情報を獲得する行動力、ステークホルダーとの対人コミュニケーション、そしてゼロから「問いを立てる力」を評価する仕組みへ移行することが求められます。
第二に、AI利用を前提とした業務プロセスの再構築です。成果物の均質化を受け入れ、AIを使えばすぐ終わる業務は標準化・自動化し、浮いたリソースを新規事業のアイデア創出や顧客対応など、人間ならではの付加価値を生む領域に集中させるべきです。
最後に、透明性の高いAIガバナンスの確保です。AIの利用を前提とした評価を行うためには、業務において「どこまでAIを使ったか」を申告できる心理的安全性と明確なガイドラインが必要です。AIによるアウトプットのインフレを脅威ではなく、組織全体の生産性を底上げする機会と捉え、制度と文化の両面からアップデートを進めることが、AI時代を生き抜く日本企業の鍵となるでしょう。
