生成AIの普及により、これまで若手社員がOJTを通じて担ってきたリサーチや資料作成などの「下積み業務」が代替されつつあります。本記事では、海外の最新事例をヒントに、日本企業がAI時代に直面する人材育成の課題と、実務への向き合い方を考察します。
生成AIが奪う「下積み」と、揺らぐ日本のOJT文化
大規模言語モデル(LLM)をはじめとする生成AIの導入が日本企業で進む中、最も顕著な効果を上げているのが定型業務の効率化です。議事録の要約、市場データの基礎的なリサーチ、社内向け資料のドラフト作成など、これまで新入社員や若手社員が「下積み」として担ってきた業務が、瞬時に、かつ一定以上の品質で処理できるようになりました。
これは企業全体の生産性向上という観点では大きなメリットですが、日本の組織文化において重要な「OJT(オン・ザ・ジョブ・トレーニング)」の機会が失われるという新たな課題を生み出しています。日本の多くの企業は、こうした基礎的な作業を通じて、自社の商習慣や業界の専門知識、顧客の特性を若手に体得させてきました。AIが下積み作業を代替する時代において、「若手をどう育て、どのような役割を与えるか」は、経営層や人事、現場のマネージャーにとって喫緊の課題となっています。
海外事例に見る「若手の役割」の再定義
こうした課題に対する一つのアプローチとして、海外の最新動向が参考になります。米国の広告マーケティング専門誌『Ad Age』の報道によれば、ある広告代理店では、若手クリエイターに「特定のプロジェクト要件に対して最も効果的なアナリストとして機能するよう、AIエージェントを訓練する」という新たな役割を与えています。AIエージェントとは、人間の指示に基づいて自律的に計画を立て、タスクを実行するAIプログラムのことです。
この事例が示唆するのは、若手社員から単に仕事を奪うのではなく、彼らを「AIの利用者」から「AIの調教師(トレーナー)」へと役割をシフトさせている点です。最新のテクノロジーに対する適応力や柔軟な発想を持つ若手層に、AIを活用した新しい業務プロセスの構築を任せることで、組織全体のAIリテラシー底上げを図っています。
日本企業における「AI×若手」の実務的なアプローチ
日本国内の企業においても、この考え方は十分に適用可能です。例えば、自社の独自データをAIに参照させて回答精度を高める「RAG(検索拡張生成)」という技術を社内システムに組み込む際、若手社員をそのプロジェクトメンバーに抜擢することが考えられます。
彼らに自社データの前処理(データの整理やタグ付け)や、社内ユーザーからのプロンプト(指示文)に対するAIの回答精度を検証する役割を任せることで、業務効率化や新規プロダクト開発に貢献しながら、自社のビジネスドメインに対する理解を深めさせることができます。若手がAIの限界や特性を実務を通じて学ぶことは、将来のAIガバナンスを担う人材の育成にも直結します。
AI活用におけるリスクと「ドメイン知識」のジレンマ
一方で、実務への適用にあたってはリスクや限界も正しく認識する必要があります。最大の懸念は「ドメイン知識(業務領域の専門知識)」の欠如によるリスクの看過です。生成AIは、もっともらしい嘘を出力する「ハルシネーション」を起こすことがあります。
ベテラン社員であれば、長年の経験から「このAIの回答は自社の過去の事例と矛盾している」「この提案は現在の日本の商習慣やコンプライアンス基準に照らして危うい」と直感的に見抜くことができます。しかし、基礎業務の経験が浅い若手社員がAIの出力をそのまま鵜呑みにしてしまうと、重大なトラブルや品質低下を招く恐れがあります。AIへの依存度が高まるほど、皮肉にも「AIの出力を批判的に検証するための人間独自の専門知識」がより一層求められるというジレンマが存在します。
日本企業のAI活用への示唆
これまでの考察を踏まえ、日本企業がAI時代の人材育成と業務へのAI組み込みを進めるための要点と実務への示唆を整理します。
・若手を「作業者」から「AI活用プロセスの構築者」へ引き上げる:若手を単純なアシスタント業務から解放し、社内のAIツールのプロンプト作成や、RAGシステムの精度検証など、テクノロジーを活用して業務を再設計する役割を与え、成功体験を積ませることが有効です。
・「答え合わせ」を通じた新しいOJTの設計:AIが出力した結果をそのまま実務に使うのではなく、若手とベテランが一緒にその出力をレビューするプロセスを設けるべきです。「なぜAIはこの結論に至ったのか」「自社の商習慣や日本の法規制に照らして、どこを修正すべきか」を議論することが、新たなOJTの形となります。
・育成とガバナンスの一体化:誰がAIの出力に最終責任を持つのか、組織内のルールを明確にする必要があります。若手の大胆なAI活用を奨励しつつも、出力結果のファクトチェックやコンプライアンス確認にはベテランのドメイン知識を介入させるなど、人とAIが相互に補完し合うガバナンス体制を構築することが、安全で持続的なAI運用の鍵となります。
