生成AIの進化は、対話によるテキスト生成から「実務を遂行するAI(エージェント)」へとフェーズを移しつつあります。AkamaiとVisaが発表したAIエージェントの決済認証に関する協業は、AIが人間に代わって商取引を行う「Agentic Commerce」の社会実装に向けた重要な布石です。本稿では、この世界的動向が日本企業のビジネスモデルやセキュリティ戦略にどのような影響を与えるかを解説します。
「Agentic Commerce」:AIが財布を持つ日
生成AIブームの次の波として注目されているのが「Agentic AI(自律型AIエージェント)」です。これは、ユーザーの指示を受けて単に回答を生成するだけでなく、旅行の予約、備品の購入、ソフトウェアのライセンス更新といった「具体的なアクション」までを完結させるAIを指します。そして、このエージェントが商取引(コマース)の主体となる概念が「Agentic Commerce」です。
これまでEコマースやB2B取引は「人対システム」が前提でした。しかし、AIエージェントが普及すれば、ユーザーが寝ている間にAIが最適な商品を比較検討し、決済まで完了させる世界が到来します。ここで最大の実務的課題となるのが、「そのAIエージェントは本当に信頼できるのか?」「その決済は所有者の意図に基づいているか?」という認証とセキュリティの問題です。
AkamaiとVisaの提携が示唆する「AIの身分証明」
今回のAkamaiとVisaの協業は、まさにこの課題に対するインフラ整備の動きと言えます。両社が推進する「Trusted Agent Protocol」は、商取引を行うAIエージェントに対して信頼性を付与し、認証を行うための仕組みです。
実務的な観点では、これは「KYC(Know Your Customer:本人確認)」ならぬ「KYM(Know Your Machine)」の概念が必要になることを意味します。企業が開発したAIボットや、個人のパーソナルアシスタントAIがVisaの決済ネットワークにアクセスする際、Akamaiのセキュリティ技術を用いて「このアクセスは正当なAIエージェントによるものであり、ボットネットによる攻撃やなりすましではない」ことを保証するレイヤーが形成されようとしています。
これは、単なる不正利用防止にとどまらず、AIエージェントが経済活動の「正当なプレイヤー」として認められるための法的・技術的な基盤作りが進んでいることを示しています。
日本企業が直面するリスクとガバナンス
日本国内に目を向けると、業務効率化の一環としてAI活用が進む一方で、権限管理やガバナンスへの懸念が根強くあります。もし、従業員が利用するAIエージェントが誤作動を起こし、企業のクレジットカードで不必要な高額サービスを契約してしまった場合、誰が責任を負うのでしょうか。
現状の日本の商習慣や法律では、AIの行為に対する責任の所在は曖昧な部分が残ります。そのため、技術的な認証(今回のVisaとAkamaiのような仕組み)に加え、組織内での「AI利用規定」の厳格化が求められます。具体的には、AIエージェントに決済権限を持たせる場合の上限金額設定、承認フローへの人間の介在(Human-in-the-loop)、そして使用するエージェント自体のホワイトリスト化などが必須となるでしょう。
日本企業のAI活用への示唆
AIエージェントによる自動取引は、特に人手不足が深刻な日本において、調達業務や経費精算、在庫補充などのB2B領域で大きなメリットをもたらす可能性があります。しかし、本格導入には以下の準備が必要です。
1. 「AIのID管理」をセキュリティ戦略に組み込む
従業員のID管理(IAM)と同様に、社内で稼働するAIエージェントにもIDを付与し、その権限と行動ログを管理・監査できる体制を今のうちから検討する必要があります。
2. 決済を伴うAI活用のガイドライン策定
「AIが勝手に契約した」という事態を防ぐため、AIが実行可能なアクションの範囲を明確に定義し、外部サービスとの連携におけるAPIセキュリティを見直すことが急務です。
3. グローバル標準の追跡
AkamaiやVisaのようなプラットフォーマーが主導するプロトコルがデファクトスタンダードになる可能性があります。自社で開発・導入するAIサービスが、将来的にこうした国際的な認証基盤と互換性を持てるよう、技術選定においては「閉じられた系」で作らない視点が重要です。
