海外で「ChatGPTを業務に使った従業員に対し、マネージャーが激怒する」という動画が拡散され、議論を呼んでいます。この事例は決して対岸の火事ではなく、日本企業においても「生成AIの業務利用」を巡る組織内の認識ギャップやガバナンスの課題を浮き彫りにしています。
海外で話題となった「AI利用を巡る労使の衝突」
最近、海外のSNSで拡散されたある動画が波紋を呼んでいます。動画の中では、マネージャーが従業員に対して「高い給与を払っているのにChatGPTに仕事をさせているのか」と激しく叱責する様子が収められていました。この背景には、「人間自身の頭と手を動かすことに対して給与を支払っている」というマネジメント側の認識と、「効率的に成果を出すためのツールとしてAIを活用する」という現場の認識の間に、大きなズレが存在していることが伺えます。
日本企業に潜む「プロセス評価」と「AI活用」の矛盾
この事例は、日本企業にとっても非常に重要な示唆を含んでいます。日本の組織文化では、最終的な成果だけでなく「どれだけ時間と労力をかけて丁寧に取り組んだか」というプロセスが評価される傾向が依然として根強く残っています。そのため、従業員が生成AIを活用して数時間かかる資料作成やコードの土台作りを数十分で終わらせた場合、それを「高い生産性」として正当に評価できる組織と、無意識のうちに「手抜き」とみなしてしまう組織に分かれるリスクがあります。
企業としてAI活用による業務効率化や新規プロダクト開発を目指すのであれば、人事評価の基準も見直す必要があります。「AIを使って浮いた時間を、より付加価値の高い業務(戦略立案、顧客との対話、クリエイティブな発想など)にどう転換したか」を評価する仕組みがなければ、現場はAIの利用を隠すようになり、組織全体の生産性向上にはつながりません。
「シャドーAI」がもたらす深刻なセキュリティリスク
マネージャーが激怒したもう一つの合理的な理由として推測されるのが、セキュリティやコンプライアンスへの懸念です。会社が許可していないAIツールを業務で無断使用する「シャドーAI」は、機密情報や個人情報の漏洩リスクに直結します。特に、大規模言語モデル(LLM)の無料版などに社外秘のデータや顧客情報を入力してしまうと、そのデータがAIの学習に利用され、意図せず他者への回答として出力されてしまう危険性があります。
日本企業がこの問題に対処するためには、単に「AIの利用を一律禁止する」という後ろ向きなアプローチではなく、実務者が安全に利用できる環境を提供することが不可欠です。入力データが学習に利用されない法人向けプランの契約や、自社専用のセキュアなAI環境を構築し、明確なルールを敷いた上で現場に提供することが求められます。
日本企業のAI活用への示唆
今回の海外の事例から、日本企業が生成AIの活用を進める上で検討すべき要点と実務への示唆を整理します。
1. AI利用に関する明確なガイドラインの策定:現場のエンジニアや実務担当者が萎縮することなく、かつ安全にAIを活用できるよう、入力してよい情報と禁止する情報の基準(データ分類)や、生成物のファクトチェック(事実確認)の責任の所在を明文化することが急務です。
2. セキュアなAI環境の提供:「シャドーAI」を防ぐ最も効果的な方法は、会社が公式に安全なAIツールを提供することです。情報漏洩リスクをコントロールできるエンタープライズ向けの環境整備は、AIガバナンスの第一歩となります。
3. 評価制度のアップデートと組織文化の醸成:「AIを使うことは手抜きである」といった古い価値観をマネジメント層から払拭し、ツールを駆使した生産性の向上を正当に評価する仕組みが必要です。浮いた時間を新規事業やより高度な業務にどう振り向けるかという、経営層の組織設計力が問われています。
