RPA(ロボティック・プロセス・オートメーション)世界大手のUiPathが、Googleの大規模言語モデル(LLM)であるGeminiをドキュメント自動化の主要モデルに採用しました。定型業務の自動化から非定型業務の高度化へと進むAI活用の現在地を踏まえ、日本独自の商習慣において企業がどのようにこの潮流を捉え、実務に活かすべきかを解説します。
RPAと生成AIの融合がもたらす業務自動化の進化
RPA大手のUiPathが、Googleの生成AIモデルである「Gemini」を、複雑なドキュメント自動化機能のデフォルトのサードパーティモデルとして採用したことが報じられました。従来、RPAはあらかじめ定められたルールに従って定型作業を繰り返すことを得意としてきましたが、請求書や契約書のようなフォーマットがバラバラな「非定型ドキュメント」の処理には限界がありました。今回、テキストや画像を同時に理解できるマルチモーダル(複合的な情報処理)能力に長けたGeminiが組み込まれることで、RPAがより人間に近い柔軟な文脈理解力を持つことになります。
日本の商習慣における「非定型ドキュメント」の課題と突破口
日本企業においては、取引先ごとに異なるフォーマットの請求書、手書きのFAX、独自の稟議書、押印が必須の紙書類など、依然として複雑なドキュメント文化が根強く残っています。これまで多くの企業がOCR(光学文字認識)技術を導入してきましたが、文字の読み取り精度にばらつきがあり、結局は担当者による目視確認や手修正の工数がかさむという課題を抱えていました。Geminiのような高度なLLMをドキュメント処理に適用することで、単なる文字の読み取りではなく、「この項目は請求金額である」「このただし書きは特例条件を示している」といった文脈の推論が可能になります。これにより、日本特有の複雑な商習慣に依存した書類処理においても、飛躍的な業務効率化が期待できます。
メリットの裏にあるリスクとガバナンスへの対応
一方で、生成AIを基幹業務に組み込むことには慎重な姿勢も求められます。最大の懸念事項は、AIがもっともらしい嘘を出力する「ハルシネーション(幻覚)」と呼ばれる現象です。特に財務や契約に関わるドキュメントにおいて、金額や日付を誤認することは重大なコンプライアンス違反や経済的損失につながりかねません。また、クラウド上のサードパーティモデルに機密性の高い顧客情報や経営データを送信する際の情報漏洩リスクも考慮する必要があります。日本の個人情報保護法や、各業界の監督官庁が定めるガイドラインに準拠するためには、入力データがAIの学習に利用されないオプトアウト設定の徹底や、自社のセキュリティポリシーに合致した環境構築が不可欠です。
日本企業のAI活用への示唆
今回の動向から、日本企業がAIを活用するにあたって実務上考慮すべきポイントは以下の3点に集約されます。
第一に、「Human-in-the-loop(人間の介在)」を前提としたプロセス設計です。AIにすべてを丸投げするのではなく、AIが抽出・入力したデータを最終的に人間が確認し承認するフローを組み込むことで、ハルシネーションによるリスクを最小限に抑え、業務の品質を担保することができます。
第二に、自社のドキュメントの実態把握とデータの標準化です。AIの文脈理解力が高まったとはいえ、不完全な書類を完全に処理できるわけではありません。AI導入を機に、社内外のフォーマットの統一や、電子帳簿保存法に沿ったペーパーレス化を並行して進めることが、AIの投資対効果を最大化する鍵となります。
第三に、明確なAIガバナンスの策定です。現場の効率化を急ぐあまり、シャドーAI(会社が把握していないAIツールの利用)が蔓延することは避けなければなりません。経営層やセキュリティ担当者が主導し、どの業務にどのAIモデルを利用してよいか、入力してはならないデータは何かを明確に定めた社内ガイドラインの継続的なアップデートが求められます。
