11 3月 2026, 水

「AIによる生産性向上」の落とし穴:米Block社の大規模レイオフから日本企業が学ぶべき教訓

米Block社(旧Square)のジャック・ドーシーCEOが、「AIによる生産性向上」を理由に全従業員の約半数にあたる4,000人を削減したという報道が波紋を広げています。経営層が描く「AIによる効率化」と、現場が直面する「代替不可能性」の乖離は、日本企業にとっても対岸の火事ではありません。本稿では、この事例をもとに、日本企業が陥りやすいAI活用の罠と、現実的な組織実装のあり方について解説します。

経営層の期待と現場の実態:乖離する「AIの能力」

報道によれば、Block社のCEOはAIによる生産性の向上を理由に、従業員の半数近くを削減する決断を下しました。しかし、現職および元従業員からは「AIには自分たちの仕事はこなせない」という反論の声が上がっています。この対立構造は、生成AI(Generative AI)の導入を検討する多くの企業で発生しうる現象です。

経営層は往々にして、AIのデモや一部の成功事例(例えば、コーディング速度の向上や定型メールの作成など)を見て、「業務の大部分が自動化できる」と判断しがちです。しかし、現場の業務は「タスク(作業)」の集合体だけではありません。文脈の理解、部門間の調整、責任ある意思決定、そして社内固有の「暗黙知」に基づいた判断が含まれています。現在のLLM(大規模言語モデル)は、個別のタスク処理能力には長けていますが、これらを統合して自律的にプロジェクトを遂行する能力には依然として限界があります。

「タスクの自動化」と「職務の代替」を混同するリスク

AI活用の議論において最も重要なのは、「タスクの自動化(Task Automation)」と「職務の代替(Job Replacement)」を明確に区別することです。

例えば、エンジニアリングにおいてGitHub Copilotのようなツールはコード記述を高速化しますが、システム全体のアーキテクチャ設計や、ビジネス要件を技術要件に翻訳する業務までを全自動化するわけではありません。カスタマーサポートにおいても、AIは一次回答を効率化できますが、複雑なクレーム対応や顧客の潜在ニーズを汲み取った提案には、人間の介入(Human-in-the-Loop)が不可欠です。

Block社の事例のように、タスクレベルの効率化を職務全体の代替と短絡的に結びつけ、性急な人員削減を行うことは、組織の運営能力(オペレーション・キャパシティ)を著しく損なうリスクがあります。結果として、残された従業員にAIの修正や補完業務がのしかかり、かえって疲弊を招く「AIパラドックス」に陥る可能性すらあります。

日本企業における示唆:人手不足解消としてのAI

欧米企業におけるAI導入は、しばしば株主価値向上のための「コスト削減(リストラ)」の文脈で語られます。しかし、日本の商習慣や労働市場においては、文脈が大きく異なります。

日本では少子高齢化による慢性的な「人手不足」が深刻な課題です。また、解雇規制が厳しく、終身雇用的なカルチャーが残る日本企業において、Block社のようなドラスティックな人員整理は法適応性や社会的信用の面で現実的ではありません。したがって、日本企業におけるAI活用の本質は、「人を減らすこと」ではなく、「限られた人数でより多くの価値を生み出す(Augmentation:人間の拡張)」ことに置くべきです。

日本の現場には、マニュアル化されていない「職人芸」や「阿吽の呼吸」が多く存在します。これらを無理にAIに置き換えようとするのではなく、若手社員の教育支援や、ベテラン社員が創造的な業務に集中するための「相棒」としてAIを位置づけるアプローチが、組織文化に馴染みやすく、実効性が高いと言えます。

日本企業のAI活用への示唆

今回の米Block社の事例を踏まえ、日本の意思決定者や実務責任者は以下の点に留意してAI戦略を進めるべきです。

1. 「削減」ではなく「再配置」を前提にする

AI導入のKPIを単なる「工数削減」や「人員削減」に置くと、現場の抵抗を招き、ナレッジの断絶を引き起こします。創出された余力を、新規事業開発や顧客接点の強化など、付加価値の高い業務へ「再配置(リスキリングを含む)」するシナリオを描くことが重要です。

2. 現場主導のPoCで「できないこと」を見極める

トップダウンで「AIを使え」と指示するだけでは、現場のリアリティと乖離します。小規模な実証実験(PoC)を通じて、AIが得意な領域と、人間が担うべき領域(責任、倫理判断、高度な文脈理解)を現場レベルで切り分けるプロセスを重視してください。

3. ガバナンスと品質責任の所在を明確にする

AIが生成したアウトプットに対する最終責任は誰が負うのか。人員を減らしすぎると、AIの成果物をダブルチェックする機能が失われ、品質事故やコンプライアンス違反のリスクが高まります。特に金融やインフラなど信頼性が重視される業界では、AIはあくまで「支援ツール」であり、最終的な品質保証プロセスには人間を残す設計が求められます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です