グローバルで注目を集めるAI検索サービス「Perplexity」が、自律型AIエージェントへのシフトにより収益を急拡大させています。本記事では、この「検索からエージェントへの進化」という世界的潮流を踏まえ、日本企業が次世代のAI活用を進める上で直面する課題や、法規制・組織文化に即した実践的なアプローチについて解説します。
「検索」から「行動」へ:AIエージェントへのシフトがもたらす収益増
米サンフランシスコに拠点を置くAIスタートアップのPerplexity(パープレキシティ)は、従来のAI検索機能から、より複雑で収益性の高い「AIエージェント」サービスへと事業の軸足を移すことで、収益を50%急増させたと報じられています。AIエージェントとは、ユーザーの質問に単にテキストで答えるだけでなく、与えられた目標を達成するために自律的に計画を立て、外部ツールやシステムを操作してタスクを実行する技術を指します。この事例は、AIの価値が「情報提供」から「業務の代行・完結」へと一段階進化したことを明確に示しています。
日本企業におけるAI活用の現状と次なるステップ
現在、日本国内の多くの企業では、ChatGPTをはじめとする大規模言語モデル(LLM)と社内データを組み合わせたRAG(検索拡張生成)の導入が進んでいます。しかし、実態としては「社内規定の検索」や「マニュアルの照会」といった用途に留まるケースが多く、投資対効果(ROI)の創出に課題を感じている意思決定者も少なくありません。
Perplexityの動向が示すように、今後の企業AIの焦点は「行動するAI」へと移ります。例えば、経理部門において領収書データを読み取るだけでなく、社内システムと連携して経費精算の妥当性をチェックし、不備があれば申請者に自動で差し戻すといった一連のプロセスをAIエージェントが担うことが想定されます。これにより、単なる検索時間への削減を超えた、抜本的な業務プロセス全体の効率化が可能になります。
日本の組織文化とAIエージェント導入のリスク
一方で、AIエージェントの実業務への適用には慎重な検討が必要です。AIが自律的に外部システムを操作するということは、AIが事実に基づかない情報をもっともらしく出力する「ハルシネーション」を起こした場合、誤ったデータの書き換えや、顧客への不適切な自動返信といった重大なインシデントに直結するリスクを意味します。
特に、権限規定や責任の所在を厳格に定め、稟議による合意形成を重んじる日本の組織文化においては、「AIにどこまでの決裁権(システム操作権限)を持たせるか」が大きな壁となります。また、個人情報保護法や著作権法などのコンプライアンス要件を満たしつつ、監査に堪えうるログ取得の仕組みを整えることも不可欠です。
Human-in-the-Loopによる段階的なアプローチ
こうした日本の商習慣やリスク許容度を踏まえると、最初から完全自動化を目指すのではなく、「Human-in-the-Loop(人間の介在)」を前提とした設計が推奨されます。情報の収集から草案の作成、システムの入力まではAIエージェントに任せつつ、最終的な「送信」や「承認」のボタンは必ず人間が押すというプロセスです。これにより、AIの利便性を享受しながら、ガバナンスと責任の担保を両立させることができます。
日本企業のAI活用への示唆
今回のグローバルトレンドから、日本企業が今後のAI活用において留意すべき要点と実務への示唆は以下の通りです。
第一に、「検索・回答AI」から「自律実行型AI(エージェント)」への移行を見据え、既存の業務プロセスのどの部分をAIに委譲できるかの棚卸しを始めることです。単なるツールの導入ではなく、業務フロー全体の再設計が必要になります。
第二に、AIガバナンス体制の構築です。AIエージェントに付与するシステムアクセス権限は最小限に留め、操作ログを監視・追跡できる仕組みをあらかじめ組み込むことが、セキュリティとコンプライアンスの観点から強く求められます。
第三に、組織の受容性を高めるための段階的導入です。日本の組織文化に合わせ、まずは人間が最終判断を下す「Human-in-the-Loop」の仕組みからスモールスタートを切り、実運用の中でAIの精度と社内の信頼を醸成していくことが、中長期的な成功の鍵となるでしょう。
