生成AIの導入が進む一方で、多くの企業が「メール作成や要約」といった初歩的な活用に留まっています。創業200年を超える日用品大手コルゲート・パーモリーブ(Colgate-Palmolive)では、AIエバンジェリストという役割を設け、組織文化そのものを変革しようとしています。伝統的な製造業がいかにしてAIを実務の中核へ組み込もうとしているのか、そのアプローチと日本企業への示唆を解説します。
「メールの推敲」を超えた活用への挑戦
ウォール・ストリート・ジャーナルの報道によると、創業220年を誇る歯磨き粉メーカー、コルゲート・パーモリーブがAI活用において興味深い転換点を迎えています。同社は、Iraklis 'Kli' Pappas氏をAI活用推進のキーマンとして据え、従業員に対し「単にメールをきれいに書くため(polishing emails)」以上のAI活用を求めています。
これは日本の多くの大企業が直面している課題と重なります。ChatGPTなどの大規模言語モデル(LLM)が普及して以降、議事録の要約や翻訳、メールの下書きといった「個人の事務作業効率化」は急速に進みました。しかし、研究開発(R&D)、サプライチェーンの最適化、あるいはマーケティングの意思決定といった「事業の中核(コア)」での活用には、依然として壁が存在します。
コルゲートの事例は、伝統的な製造業であっても、強力なリーダーシップと適切なガイドラインがあれば、AIを単なる便利ツールから「ビジネスドライバー」へと昇華させられる可能性を示しています。
組織変革を担う「AIエバンジェリスト」の役割
記事で紹介されているPappas氏のような「AIエバンジェリスト」の存在は、AI導入を成功させる上で極めて重要です。日本企業において、AI導入は情報システム部門やDX推進室が主導することが一般的ですが、技術的な環境整備(守り)に偏りがちか、あるいは現場の業務フローとかけ離れたトップダウンの施策になりがちです。
AIエバンジェリストに求められるのは、以下の3つの役割を統合することです。
- 技術の翻訳者:最新のAIトレンドを、現場の社員が理解できる言葉(ビジネス上のメリット)に変換して伝えること。
- 利用の促進者:リスクを過度に恐れて萎縮する現場に対し、安全な利用ガイドラインを示しつつ、積極的な実験を促すこと。
- 文化の変革者:「従来のやり方」を重んじる企業文化の中で、AIによる自動化や拡張を受け入れるマインドセットを醸成すること。
特に歴史ある企業では、過去の成功体験がAI導入の阻害要因になることがあります。Pappas氏のような役割は、技術を導入するだけでなく、組織の「心理的な壁」を取り払うために機能しています。
「シャドーAI」のリスクとガバナンスのバランス
従業員に積極的な利用を促す一方で、避けて通れないのがガバナンスの問題です。会社が認可していないAIツールを従業員が勝手に業務利用する「シャドーAI」は、機密情報の漏洩や著作権侵害のリスクを孕んでいます。
しかし、リスクを恐れて全面禁止にすれば、イノベーションの芽を摘むことになります。コルゲートのようなグローバル企業が目指しているのは、ガバナンスを効かせつつも、現場の自律性を損なわないバランスです。具体的には、社内データで安全に利用できるサンドボックス環境(実験環境)の提供や、入力データに関する明確なルール作り(PII:個人識別情報の入力禁止など)が挙げられます。
日本企業においても、「禁止」から「管理された許可」へとフェーズを移行させる時期に来ています。現場がAIを使って何を実現したいのかを吸い上げ、それを安全に実現できるインフラを整えることが、IT部門や経営層の責務となります。
日本企業のAI活用への示唆
コルゲート・パーモリーブの事例は、日本の製造業や歴史ある組織にとって、以下の3つの重要な示唆を与えています。
1. 「事務効率化」から「コア業務」へのシフト
議事録作成やメール返信などの効率化は「守りのDX」に過ぎません。これからは、自社独自のデータ(製造ログ、顧客の声、過去の研究データなど)をLLMと連携させ(RAGなどの技術活用)、製品開発のリードタイム短縮や需要予測の高度化など、競争優位に直結する領域での活用を目指すべきです。
2. 現場と技術をつなぐ「人間」への投資
高価なGPUやソフトウェアを導入するだけでは現場は変わりません。AIの可能性と限界を理解し、各事業部の現場リーダーと対話できる「エバンジェリスト」や「ブリッジエンジニア」の育成・採用が急務です。この役割が不在のままでは、PoC(概念実証)疲れに陥る可能性が高まります。
3. 減点主義からの脱却と「安全な失敗」の推奨
日本の組織文化では、AIの回答に含まれるハルシネーション(もっともらしい嘘)などの不確実性が嫌われる傾向にあります。しかし、AIは確率的なツールであり、100%の正解を保証するものではありません。「AIは間違える前提」でワークフローを組み、人間が最終確認を行うプロセス(Human-in-the-loop)を標準化することで、リスクを管理しながらAIの恩恵を最大化する姿勢が求められます。
