米Y Combinator発のスタートアップが掲げる「AIネイティブBPO」という概念と、それを支える「Harness Engineer」という新職種に注目が集まっています。医療という複雑で規制の厳しい領域で進むこの最新トレンドを紐解き、日本企業がAIを実業務に組み込むために必要な視点と体制づくりについて解説します。
AIネイティブBPOという新たな潮流
米国トップクラスのスタートアップ支援機関であるY Combinatorから、「世界初のAIネイティブBPO」を掲げるSubstrateという企業が登場しました。従来のBPO(ビジネス・プロセス・アウトソーシング)は、人件費の安い国内外の拠点に業務を移管する労働集約型のビジネスモデルでした。対して「AIネイティブBPO」は、大規模言語モデル(LLM)をはじめとする生成AIを業務プロセスの中核に据え、これまで人手に頼っていた非構造化データの読み取りや文脈判断を伴うタスクを自律的に処理しようとするアプローチです。
日本国内に目を向けると、深刻な少子高齢化による人手不足を背景に、従来型BPO企業自体が人材確保に苦心し、委託コストも高騰傾向にあります。このような環境下において、システムへの入力作業を自動化するRPA(ロボティック・プロセス・オートメーション)の次の段階として、AIが業務の大部分を担い、人間が例外処理や最終確認に注力するAIネイティブな業務設計は、日本企業にとって親和性が高く、喫緊の検討課題と言えます。
複雑な業務プロセスにAIを組み込む挑戦:医療RCM領域
Substrateが最初のターゲットとして選んだのは「Healthcare RCM(医療収益サイクル管理)」です。これは、患者の予約から保険資格の確認、医療行為のコーディング、そして保険機関への請求・回収に至るまでの非常に複雑なプロセスを指します。日本における「レセプト(診療報酬明細書)作成・請求業務」に近い領域です。
医療情報の取り扱いは、米国におけるHIPAA(医療保険の携行性と責任に関する法律)や、日本における個人情報保護法、厚生労働省の「医療情報システムの安全管理に関するガイドライン」など、極めて厳格な法規制とコンプライアンスの遵守が求められます。また、請求ミスは直接的な収益悪化に直結するため、高い正確性が必要です。このような「ミスが許されない」「ドメイン知識が必要」「規制が厳しい」領域でAIネイティブ化が進みつつある事実は、重要な示唆を与えてくれます。AIの適用範囲は、単なるテキストの要約やアイデア出しといった汎用的なタスクから、特定業界のクリティカルな実業務へと確実に移行しつつあるのです。
「Harness Engineer」に見る、AI実装に必要な新しい役割
注目すべきは、同社が「Harness Engineer(ハーネス・エンジニア)」という職種を募集している点です。「Harness」には「自然の力を制御して利用する」といった意味があります。強力でありながら、時に「ハルシネーション(もっともらしい嘘)」を引き起こす不確実性を持ったLLMを、既存の基幹システムや厳格な業務ワークフローに安全かつ確実に統合(制御)するためのソフトウェアエンジニアリングを指していると考えられます。
日本の多くの企業が「AIのPoC(概念実証)は実施したものの、本番導入に至らず頓挫してしまう」という課題を抱えています。その主な原因は、AIモデルの性能そのものよりも、不確実なAIの出力をどうエラーハンドリングし、既存の業務フローの中で人間による監視(Human-in-the-Loop)をどう組み込むかという「業務プロセスへの実装力(Harnessing)」の不足にあります。モデルを開発するデータサイエンティストとも、プロンプトを工夫するユーザーとも異なる、AIと本番システムを繋ぎ込むエンジニアリングの役割が、今後ますます重要になるでしょう。
日本企業のAI活用への示唆
これらのグローバルな動向を踏まえ、日本企業がAI活用を進める上で重要となるポイントは以下の3点です。
1. AIを前提とした業務プロセスの再設計(AIネイティブ)
既存の業務フローにAIを「便利なツール」として後付けするのではなく、AIが中心となって処理を行うことを前提に、業務プロセス全体をゼロベースで再設計する視点が求められます。人にしかできない高度な判断や対人コミュニケーションに人的リソースを集中させる構造への転換が必要です。
2. 「AIを制御しシステムに統合する人材」の育成と確保
「Harness Engineer」に象徴されるように、AIの不確実性を理解し、本番環境で安全に動作するシステムアーキテクチャを構築できる人材が不可欠です。MLOps(機械学習システムの継続的運用・改善)の知見を持ち、AIと既存の社内システムを堅牢に繋ぐエンジニアの育成・評価体制を整える必要があります。
3. 実務に即したリスク管理とガバナンスの徹底
医療や金融といった機微なデータを扱う領域でAIを活用する場合、日本の各種法規制や業界特有の商習慣への適合が不可欠です。入力データがAIの学習に利用されないようなセキュアな環境(閉域網やエンタープライズ契約の活用)の構築や、AIの判断根拠を追跡できる監査証跡の仕組みなど、守りのガバナンスを設計の初期段階から組み込むことが求められます。
