ウォルマートが生成AIを活用した「即時決済」から撤退し、自社AIを複数プラットフォームへ連携させる方針へ転換しました。本記事ではこの事例を紐解きながら、日本企業が消費者向けAIサービスを設計する際の現実的なアプローチとガバナンスのあり方を解説します。
ウォルマートのAI戦略転換が意味するもの
米ウォルマートが、OpenAIの技術を活用した「Instant Checkout(即時決済)」の取り組みを見直し、自社のAIアシスタントである「Sparky」をChatGPTやGoogleのGeminiなどに組み込む方針へとピボット(方向転換)したことが報じられました。この短いニュースの裏には、生成AI(Generative AI)を実際のビジネス、特に消費者向けの購買プロセスにどう組み込むべきかという、多くの企業が直面している試行錯誤のプロセスが透けて見えます。
企業がAIを活用して顧客との接点を作る際、「自社のアプリやサイトにAIを搭載する」アプローチと、「消費者が日常的に使う汎用的なAIプラットフォームに自社サービスを組み込む」アプローチの二つが存在します。今回のウォルマートの決断は、AIインターフェースを通じた購買体験の難しさと、特定ベンダーに依存しないマルチLLM(大規模言語モデル)戦略の重要性を示唆しています。
チャットUIでの「即時決済」が抱えるハードル
ウォルマートが撤退した「Instant Checkout」は、チャットのインターフェース上で直接商品の決済まで完結させる試みであったと推測されます。しかし、対話型AIを通じた購買、いわゆる「チャットコマース(Conversational Commerce)」において、決済までを一気通貫で行うことにはいくつかのハードルがあります。
ユーザーは、AIとの対話を情報収集や商品比較には便利だと感じますが、いざ決済の段になると「本当に正しい商品がカートに入っているか」「配送先や決済手段は意図通りか」といった不安を抱きやすくなります。GUI(グラフィカル・ユーザー・インターフェース)のように視覚的に全体を一覧できる画面のほうが、最終確認には適しているためです。
日本国内においても、LINEなどのメッセージアプリを通じた顧客対応は一般的ですが、高額商品や複雑な条件を伴う購買においては、対話型UIでの決済完結は心理的抵抗を生みやすい傾向があります。日本企業が自社サービスに生成AIを組み込む際は、購入ファネルの「検索」「比較」「提案」といった段階にAIの強みを活かし、最終的な決済は使い慣れた従来のWeb・アプリ画面に誘導するハイブリッドなUX(ユーザー体験)設計が現実的です。
顧客がいる場所にAIを配置する「マルチLLM戦略」
ウォルマートのもう一つの重要な決断は、自社のAIアシスタント「Sparky」を、ChatGPTだけでなくGoogleのGeminiにも組み込む(プラグインや拡張機能として提供する)という点です。これは、特定のLLMベンダーに依存するリスク(ベンダーロックイン)を回避しつつ、顧客が普段使っているツールのなかに自社のサービスを潜り込ませる戦略と言えます。
日本の組織文化では、長らく「自社アプリを開発し、いかにそこへ顧客を囲い込むか」がデジタルトランスフォーメーション(DX)の主流とされてきました。しかし、汎用的なAIアシスタントが普及するなかで、消費者の情報収集の起点は検索エンジンからAIチャットへと移りつつあります。企業は自社プラットフォームへの誘導に固執するのではなく、外部のAIプラットフォームから自社のAPI(システム間の連携窓口)やデータが適切に参照される仕組みづくりを検討する時期に来ています。
日本企業のAI活用への示唆
今回のウォルマートの事例から、日本企業が消費者向けAIサービスを企画・運用する上で押さえておくべきポイントは以下の3点に集約されます。
1つ目は「UXの適材適所を見極めること」です。AIによる自然言語の対話は万能ではありません。情報探索やパーソナライズされた提案にはAIの対話力を活かしつつ、正確性が求められる決済や契約手続きには従来のGUIを用いるなど、ユーザーの心理的安全性に配慮した導線設計が不可欠です。
2つ目は「APIを通じたサービス提供モデルの構築」です。顧客がChatGPTやGeminiなどのプラットフォーム上で自社の商品を検索しやすくするために、自社システムを外部のAIから安全に呼び出せるAPIの整備を進めることが、今後のマーケティングにおいて重要な意味を持ちます。
3つ目は「ガバナンスとセキュリティの確保」です。外部のLLMに自社のサービスを組み込む場合、どこまでの顧客データや商品データを連携させるかの線引きが重要です。日本の個人情報保護法やプラットフォーマーの規約変更に柔軟に対応できるよう、データの取り扱いポリシーを明確にし、特定のAIモデルに過度に依存しないシステムアーキテクチャを構築することが、中長期的なリスク対応に繋がります。
