生成AIを顧客接点にどう組み込むか。多くの企業が模索する中、米ウォルマートが試みた「ChatGPT上での直接決済」が従来の手法よりも成果を下回ったことがわかりました。この試行錯誤から見えてくるチャットUIの限界と、日本企業の実務に向けた現実的なアプローチを解説します。
ウォルマートの「ChatGPT内決済」が直面したUXの壁
米小売り大手のウォルマートは、ChatGPT内で商品の検索から即時決済(インスタントチェックアウト)までを完結させる機能を導入していましたが、結果としてこの試みは期待通りには進みませんでした。通常の自社Webサイトへ誘導するリンク(クリックアウト)方式に比べて、コンバージョン(購買などの最終成果)が3分の1にとどまったと報じられています。
この失敗の背景には、インターフェース(UI)とユーザー体験(UX)のミスマッチがあります。大規模言語モデル(LLM)を活用したチャット形式のUIは、曖昧な条件からの検索や相談には非常に優れています。しかし、配送先の確認、支払い方法の選択、商品のバリエーションの最終チェックといった「間違いが許されない複雑な確認作業」においては、テキストベースの対話よりも、一覧性の高い従来のWeb画面の方が圧倒的に使いやすいのが現実です。
日本の商習慣・消費者心理から考えるチャット決済のリスク
日本国内でECサイトやオンラインサービスを展開する企業にとって、この事例は大きな教訓となります。日本の商習慣においては、決済プロセスがより複雑になる傾向があるためです。
例えば、ポイントの利用、各種クーポンの適用、細かな配送日時の指定、ギフトラッピングの有無など、日本の消費者は購入直前の画面で多くの確認事項を求めます。これらをすべてチャットの対話だけで完結させようとすると、ユーザーの認知負荷が極めて高くなります。
また、セキュリティ意識やコンプライアンスの観点も見逃せません。外部の汎用AIチャット画面にクレジットカード情報などの個人情報を入力することに対して、日本の消費者は強い心理的抵抗を抱きがちです。企業側としても、決済に関わる機密性の高いデータをどこまで外部のLLMを経由させるかは、AIガバナンスや個人情報保護法の観点から慎重な判断が求められます。
次なる一手:自社特化型AIエージェントの外部展開
決済機能の不調を受け、ウォルマートは戦略を軌道修正しています。具体的には、独自に開発したAIアシスタント「Sparky」を、ChatGPTやGoogleのGeminiといった外部のAIプラットフォームに連携させる方針へと舵を切りました。
これは「汎用的なAIに決済まで全て任せる」のではなく、「自社のドメイン知識を持った専門AIエージェントを外部プラットフォームに出張させ、接客を行わせる」というアプローチです。ユーザーとの初期の対話やレコメンドは外部AI上の自社エージェントが行い、実際のトランザクション(決済処理)は、安全で使い慣れた自社のアプリやサイトに誘導して実行させるという、明確な役割分担へと移行しているのです。
日本企業のAI活用への示唆
ウォルマートの事例を踏まえ、日本企業がプロダクトやサービスに生成AIを組み込む際の重要な示唆を3点に整理します。
1. 「対話」と「トランザクション」を切り分ける
AIは、顧客の潜在的なニーズを引き出し、適切な商品を提案する「接客・相談」のフェーズに特化させるのが現状のベストプラクティスです。購買や個人情報の入力といった確実性が求められるトランザクションは、既存の使い慣れたUI(カート画面や決済画面)に委ねることで、ユーザーの離脱を防ぐことができます。
2. 顧客のいる場所へ自社AIを展開する(オムニチャネルAI)
ユーザーが日常的に利用するプラットフォーム(ChatGPTなどのAIツールや、日本ではLINEなどのメッセージングアプリ)に、自社の専門知識を持たせたAIエージェントを展開するアプローチが今後重要になります。自社サイトへの訪問を待つのではなく、顧客のいる場所でAIが接客し、自社のセキュアな環境へ送客する導線設計が求められます。
3. AIガバナンスと顧客の安心感を両立する
新しい技術を導入する際、利便性だけでなく「顧客が安心して使えるか」という視点が不可欠です。決済情報などのセンシティブなデータは自社の堅牢なシステムで処理し、汎用LLMには個人情報を含まない商品データや対話履歴のみを処理させるといった、リスクをコントロールするシステムアーキテクチャの設計が、日本企業には強く求められます。
