国際送金サービスのRemitlyがChatGPT内で直接送金手続きを行える機能をローンチしました。AIが単なる情報検索のツールから「行動を代行するエージェント」へと進化する中、日本企業が顧客向けサービスにAIを組み込む際の可能性と、法規制やガバナンスの壁をどう乗り越えるべきかを解説します。
AIが「相談相手」から「実行役」へ:RemitlyのChatGPT連携が示す未来
米国を拠点とする国際送金サービス大手のRemitly(レミトリー)は先日、ChatGPT内で動作するアプリをローンチし、同プラットフォーム上で初のクロスボーダー(国際)送金プロバイダーとなりました。これは、ユーザーがChatGPTとの自然な対話を通じて、アプリを切り替えることなくそのまま送金手続きまで進められることを意味しています。
これまで、ChatGPTをはじめとする大規模言語モデル(LLM)は、情報検索、文章作成、アイデア出しといった「知的作業の補助」として広く使われてきました。しかし、Remitlyの取り組みは、AIがユーザーの意図を汲み取り、外部システムと連携してトランザクション(取引や手続き)を直接実行する「エージェント(代理人)」へと進化しつつあることを明確に示しています。
顧客体験の革新と「対話型UI」の可能性
このようなトランザクション型AIの最大のメリットは、顧客体験(UX)の劇的な向上にあります。従来、専用アプリを開いてメニューを探し、金額や送金先を一つひとつ入力するという複数のステップが必要だった作業が、「〇〇さんに1万円送金して」とAIに話しかけるだけで完結するようになります。
日本国内においても、ECサイトでの商品購入、レストランやホテルの予約、さらには社内システムにおける経費精算や備品発注など、日常的な業務やサービスにおいて、対話型UI(ユーザーインターフェース)が従来の画面操作を代替していく可能性は十分に考えられます。これにより、ITリテラシーに依存しない直感的なサービスの提供が期待できます。
日本における法規制とセキュリティの壁
一方で、送金のような金融取引や個人情報を取り扱う手続きをAIに委ねる場合、重大なリスクも伴います。特に日本の金融業界では、資金決済法や銀行法などの厳格な法規制が存在し、マネーロンダリング対策(AML)や本人確認(KYC)の徹底が求められます。
LLMには「ハルシネーション(AIが事実とは異なるもっともらしい情報を生成してしまう現象)」という根本的な課題があります。AIが送金先や金額を誤って解釈して手続きを進めてしまった場合、誰が責任を負うのかという問題が生じます。また、悪意のあるユーザーがAIを騙して不正な操作を行わせる「プロンプトインジェクション」と呼ばれるサイバー攻撃への対策も不可欠です。
日本企業の組織文化に合った「現実的なアプローチ」
ミスを厳しく問う傾向があり、責任の所在を明確にすることを重んじる日本の組織文化において、重要な手続きのすべてをAIに一任するフルオートメーションは現実的ではありません。そこで重要になるのが、人間とAIの役割分担を明確にする「ヒューマン・イン・ザ・ループ(人間の確認プロセスをシステムに組み込む設計)」の考え方です。
たとえば、AIには「自然言語での曖昧な要望をヒアリングし、送金や予約に必要なデータ(誰に、いくら、いつ)を抽出・整理する」というフロントエンドの役割に徹してもらいます。そして、最終的な実行(送金ボタンのクリックや決済パスワードの入力)は、既存のセキュアなシステム上でユーザー自身が行うように設計します。これにより、利便性の向上とコンプライアンス(法令遵守)の要件を両立させることが可能です。
日本企業のAI活用への示唆
Remitlyの事例は、AIの活用が情報提供から「行動の代行」という次のフェーズへ移行していることを示しています。日本企業がこの潮流を自社のプロダクトや業務に取り入れるための実務的な示唆は以下の3点です。
第1に、自社サービスの「入り口」を再定義することです。顧客が実現したい目的(購入、予約、手続きなど)に対し、従来の画面操作ではなく「自然言語での対話」を起点とした場合、どのような新しいユーザー体験を提供できるかを検討する時期に来ています。
第2に、AIと既存システムの責任分界点を明確にすることです。AIはあくまで意図の解釈とユーザーへの案内に留め、データ更新や決済処理そのものは、堅牢で監査可能な既存のバックエンドシステム(APIなど)に委ねるアーキテクチャを採用すべきです。AIにすべてを任せるのではなく、既存のガバナンス体制を活かす設計が求められます。
第3に、リスク評価と「小さく始める」ステップアップのアプローチです。いきなり高リスクな金融取引から始めるのではなく、まずは社内の会議室予約や、顧客向けのおすすめ商品の提案・カートへの追加など、万が一ハルシネーションが起きても影響が限定的でリカバリー可能な領域から実装し、組織内に知見と運用ルールを蓄積していくことが成功の鍵となります。
