29 1月 2026, 木

AIエージェントにも「本人確認」を──自律化するAIと人間の責任所在をどう担保するか

生成AIの進化は、対話型のチャットボットから、自律的にタスクを遂行する「AIエージェント」へと移行しつつあります。その中で浮上しているのが、AIによる操作や取引が本当に正当な権限に基づいているのかという「身元確認」の問題です。本人確認ソリューションを提供するSumsubが発表した「AI Agent Verification」を端緒に、日本企業が直面するAIガバナンスとセキュリティの新たな論点について解説します。

「チャット」から「エージェント」へ、変化するリスクの所在

現在、生成AIの活用トレンドは、単に文章やコードを生成する段階から、人間の代わりにシステム操作や外部APIとの連携を行う「自律型AIエージェント」へと急速にシフトしています。これまで人間が行っていた予約手続き、金融取引、契約更新などの実務をAIが代行する未来がすぐそこまで来ています。

しかし、ここで重大な課題が浮上します。「その操作を行っているAIは、誰の指示に基づいているのか」「そのAIは本当に正規の権限を持っているのか」という点です。従来のセキュリティは「人間」か「ボット(攻撃者)」かを区別することに主眼を置いてきましたが、業務を代行する「正規のAIエージェント」が増えることで、この境界線が曖昧になりつつあります。

AIと人間のIDを紐づけるアプローチ

こうした背景の中、本人確認(KYC: Know Your Customer)技術の大手であるSumsubが発表した「AI Agent Verification」は、非常に示唆に富んだソリューションです。この技術の核心は、AIエージェントによる自動化されたアクションを、検証済みの人間のID(身元)と暗号技術を用いて紐づけることにあります。

具体的には、AIが何らかのアクション(資金移動やデータアクセスなど)を行う際、その背後にいる人間が実在し、かつ正当な承認を与えていることをシステム的に担保しようとするものです。これは、いわば「AIのための身分証明書」を発行し、その行動に対する責任追跡性(トレーサビリティ)を確保する試みと言えます。

ディープフェイク技術の高度化により、CEOになりすましたAIアバターが部下に送金を指示するといった詐欺被害も世界的に報告されています。AIエージェント自体が検証プロセスに組み込まれることで、こうしたなりすましや、権限を持たない「野良AI(Shadow AI)」による不正操作を防ぐ防波堤となることが期待されます。

日本企業における「AIガバナンス」と商習慣への適用

日本の商習慣において、この「AIの身元確認」という概念は特に親和性が高いと考えられます。日本企業は伝統的に、稟議制度や押印(ハンコ)文化に見られるように、「誰が承認したか」というプロセスと証跡を非常に重視する傾向があるからです。

DX(デジタルトランスフォーメーション)推進の中で、多くの企業が業務自動化に取り組んでいますが、コンプライアンス部門やセキュリティ部門が懸念するのは「AIが勝手なことをした時の責任」です。金融、保険、不動産といった規制産業においては、犯収法(犯罪収益移転防止法)に基づく厳格な本人確認(eKYC)が求められますが、今後は「顧客がAIを使って手続きを行う場合」の法的な解釈や技術的な担保も議論の遡上に載ってくるでしょう。

また、社内システムにおいても、RAG(検索拡張生成)を用いた社内botが人事情報や機密データにアクセスする際、そのリクエストを行っているAIエージェントが、権限を持った社員の代理として動いているのかを検証する仕組みは、ゼロトラストセキュリティの観点からも必須となります。

日本企業のAI活用への示唆

AIエージェントの普及を見据え、日本の意思決定者や実務者は以下の3点を意識する必要があります。

1. 「KYA(Know Your Agent)」という視点の導入
顧客(KYC)や取引先(KYB)の確認に加え、今後は「そのAIエージェントは誰のものか(KYA)」を確認する仕組みが必要になります。外部ベンダーのAIサービスを利用する場合でも、自社開発のエージェントを展開する場合でも、ID管理とAIの紐づけをアーキテクチャ設計の初期段階から組み込むことが重要です。

2. 責任分界点の明確化と規定の整備
AIエージェントが誤った発注や送金を行った場合、その責任は「AIベンダー」にあるのか、「指示を出したユーザー(従業員)」にあるのか、それとも「ガバナンスを怠った管理者」にあるのか。技術的な紐づけが可能になることで、逆に責任の所在も明確になります。社内のAI利用ガイドラインにおいて、自動化されたアクションの承認プロセスを再定義する必要があります。

3. ディープフェイク・なりすまし対策の高度化
単なるパスワード認証や従来の多要素認証だけでは、高度なAI攻撃を防げない可能性があります。生体認証(liveness detection)を含めた高度な本人確認プロセスと、AIエージェントの動作検証をセットで考える「アイデンティティ中心のセキュリティ」へ投資配分をシフトすべき時期に来ています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です