1 3月 2026, 日

Googleの評価制度変更が示唆する「AIリテラシー」の必須化と、日本企業が直面する組織課題

Googleが全従業員に対し、AIスキルを人事評価の対象とすることを伝達したという報道は、テクノロジー業界における「AI活用」がもはや推奨事項ではなく、必須の業務要件へとシフトしたことを象徴しています。本記事では、この動きを単なる外資系テック企業のトレンドとして片付けるのではなく、日本企業の組織開発や人材育成における重要な転換点として捉え、実務的な観点から解説します。

「推奨」から「評価基準」へ:Googleの決断が意味するもの

GoogleのCEOであるスンダー・ピチャイ氏は以前より、従業員に対してAIに精通すること(AI-savvy)を推奨してきました。しかし、最近の報道によれば、同社はマネージャー層に対し、部下の評価においてAI活用の度合いを考慮するよう指示を出したとされています。これは、AI活用が「あれば望ましいスキル(Nice to have)」から「必須スキル(Must have)」へと明確に昇格したことを意味します。

この背景には、AIによる業務効率化が競争力の源泉に直結しているという現実があります。しかし、より重要なのは「自社製品(この場合はGeminiなどのAIモデル)を自ら使い倒すことで、製品改善のフィードバックループを高速化する」というドッグフーディング(自社製品利用)の側面と、AIネイティブなワークフローへの強制的な移行です。

何をもって「AIに精通している」とみなすのか

日本企業がこの事例を参照する際、最も注意すべき点は「AIスキル」の定義です。エンジニアであれば、LLM(大規模言語モデル)を用いたコーディング支援ツールの活用や、RAG(検索拡張生成)の実装能力などが問われるでしょう。しかし、非エンジニア職においてはどうでしょうか。

ここでは、単にチャットボットと雑談できることではなく、以下の3点が実務的な「AIリテラシー」として求められます。

  • 課題の分解とプロンプト設計: 複雑な業務課題をAIが処理可能なタスクに分解し、適切な指示(プロンプト)を与える能力。
  • ハルシネーション(幻覚)の識別とリスク管理: AIが出力する誤情報を批判的に検証し、責任を持って業務に適用する判断力。
  • ワークフローの再構築: 既存の業務プロセスを前提とせず、AI活用を前提とした新しいプロセスを提案・構築する力。

日本の雇用慣行とAI評価のジレンマ

日本企業、特にメンバーシップ型雇用が主流の組織において、Googleのようなドラスティックな評価制度の導入には慎重さが求められます。日本の労働法制や企業文化において、従業員の職務記述書(ジョブディスクリプション)が曖昧なまま、突然「AIを使っていないから低評価」とすることは、法的なリスクやモチベーションの低下を招きかねません。

また、日本国内では「AIに仕事を奪われる」という心理的な抵抗感も根強く残っています。そのため、評価制度に組み込む前の段階として、安全な検証環境(サンドボックス)の提供や、業務時間内でのリスキリング(学び直し)機会の確保が先決です。「評価のためのAI利用」ではなく、「本質的な生産性向上のためのツール」として定着させるための文脈作りが、日本の経営層や人事責任者には求められます。

ガバナンスなき「AI活用推進」の危険性

「AIを使え」と号令をかける一方で、セキュリティやコンプライアンスのガイドラインが未整備な日本企業も散見されます。評価への焦りから、従業員が機密情報を不用意にパブリックな生成AIに入力してしまう「シャドーAI」のリスクが高まる懸念があります。

AI活用を評価に組み込むのであれば、セットで以下のガバナンス体制を整備する必要があります。

  • 入力データの区分け: 個人情報や機密情報の取り扱いに関する明確なガイドライン策定。
  • 利用ツールの標準化: エンタープライズ版契約など、ログ監査が可能で学習データに利用されない環境の提供。
  • 著作権侵害リスクへの教育: 生成物の利用における権利関係の教育。

日本企業のAI活用への示唆

Googleの事例は極端に見えるかもしれませんが、方向性自体は不可逆なものです。日本企業が取るべきアクションは以下の通りです。

  • 評価基準の言語化: 「AIを使う」という曖昧な表現ではなく、「AIを用いて業務時間を〇〇%削減した」「AIを活用して新規提案の質を高めた」といった、具体的な成果ベースでの評価基準を設けること。
  • 加点主義からのスタート: 最初から未利用者を減点するのではなく、AI活用によって既存の枠組みを超えた成果を出した人材を高く評価する「加点主義」から導入し、成功体験を組織内に広めること。
  • 環境とルールの同時提供: 「勝手にやっておいて」ではなく、セキュアなAI環境と利用ガイドラインを会社が用意した上で、活用を求めること。これが組織としての誠実さ(インテグリティ)につながります。

AIは魔法の杖ではなく、使い手のリテラシーに依存するツールです。組織全体のリテラシー底上げこそが、日本企業のDX(デジタルトランスフォーメーション)を停滞から救う鍵となるでしょう。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です