AirbnbのCEOブライアン・チェスキー氏が語った「AI時代に生き残れない人材」の指摘は、日本企業の組織構造にも重い課題を突きつけています。本記事では、AI導入がもたらす組織文化の変革と、実務担当者や意思決定者が取り組むべきAIガバナンスの実践について解説します。
Airbnb CEOが指摘する「AI時代を生き残れない人材」とは
Fortune誌の報道によれば、AirbnbのCEOであるブライアン・チェスキー氏は、AI時代において生き残ることが難しい人材として「純粋なピープルマネージャー(部下の管理や調整のみに特化し、自ら実務を行わない管理職)」と「変化を拒む労働者」の2つを挙げています。テクノロジーの進化がこれまでの業務プロセスを根本から変えようとしている中、この指摘は単なる米国のIT企業に限った話ではなく、日本のビジネス環境においても非常に示唆に富む内容です。
「管理だけのマネージャー」が直面する危機と日本の組織文化
日本企業には伝統的に、年功序列やメンバーシップ型雇用を背景とした「実務から離れ、進捗や労務の管理に専念する中間管理職」が多く存在してきました。しかし、大規模言語モデル(LLM)やプロジェクト管理に特化したAIツールが普及するにつれ、タスクの進捗把握、リソース配分の最適化、定常的なレポーティングといった「管理業務」の多くは自動化されていきます。
これからのマネージャーには、AIには代替できない「意思決定力」や「人間ならではの高度なコミュニケーション」が求められます。同時に、現場のテクノロジーを理解するプレイングマネージャーとしての側面が再び重要視されています。エンジニアやプロダクト担当者を束ねるリーダーであっても、AIツールがどのようにコードを生成し、顧客データを分析しているのかという「実務の手ざわり」を持っていなければ、適切な評価やリスク判断を下すことが難しくなるでしょう。
「変化を拒む姿勢」とAI導入における見えない壁
もう一つの「変化を拒む労働者」は、日本企業がAIを活用する上で頻繁に直面する課題です。業務効率化のために社内向けChatGPT環境やコーディング支援AI(GitHub Copilotなど)を導入しても、「これまでのやり方を変えたくない」「AIが出力する結果が信用できない」といった理由で利用が進まないケースは少なくありません。
もちろん、AIの出力には事実と異なる情報(ハルシネーション)が含まれるリスクや、個人情報・機密情報の漏洩、著作権侵害の懸念など、実務上の正当なリスクが存在します。しかし、こうしたリスクを過大評価して「使わない理由」にするのではなく、日本の個人情報保護法や著作権法などの法規制に則したルールを整備し、「リスクをコントロールしながらどう活用するか」へと発想を転換することが求められます。
プロダクトへの組み込みと組織全体のAIリテラシー向上
企業が自社サービスやプロダクトにAIを組み込み、新規事業を創出していくためには、一部のAIエンジニアやデータサイエンティストだけでなく、企画、法務、営業といった非エンジニア層も含めた組織全体のAIリテラシー向上が不可欠です。例えば、AIが顧客応対の一部を担うサービスを開発する場合、どのようなデータを学習させ、どのような基準で不適切な出力を弾くのかという「AIガバナンス」を多角的な視点で議論する必要があります。
日本特有の高い品質要求や、失敗を許容しにくい商習慣の中では、AIの不確実性をどのようにプロダクトの仕様として顧客に説明し、合意形成を図るかも重要なテーマとなります。AIの限界を理解した上で、トライ&エラーを前提としたアジャイルな組織文化へ変革できるかどうかが、AI活用の成否を分けると言っても過言ではありません。
日本企業のAI活用への示唆
ここまでの考察を踏まえ、日本企業の意思決定者、プロダクト担当者、エンジニアに向けた実務的な示唆を整理します。
1. 管理職のリスキリングと実務への回帰:管理業務のAI代替が進む中、マネージャー層も積極的にAIツールの利用経験を持ち、テクノロジーの現在地を把握することが求められます。現場の解像度を上げることが、精度の高い意思決定につながります。
2. 守りと攻めのAIガバナンスの構築:変化を拒む層の不安を払拭するためには、明確な利用ガイドラインの策定が不可欠です。日本の法規制や商習慣を踏まえたデータガバナンスを敷き、安全に実験できる環境を提供することで、組織全体の活用を促進しましょう。
3. 「完璧さ」より「継続的な改善」を重んじる文化の醸成:AIは万能ではなく、間違いを犯すことを前提としたテクノロジーです。初期の精度に固執せず、人間によるチェック(Human-in-the-loop)を業務プロセスに組み込みながら、段階的に自動化の範囲を広げていく柔軟な組織文化を育むことが重要です。
