機密性の高い専門データを大規模言語モデル(LLM)で活用する際、セキュリティと正確性の確保は最大の壁となります。米金融情報大手S&P GlobalのAIイノベーション部門による取り組みを紐解き、日本企業が社内データを安全にAIと連携するための実践的なアプローチとガバナンスの要点を解説します。
専門データとLLM連携における最大の壁
昨今、日本国内の企業においても、ChatGPTやClaudeといった大規模言語モデル(LLM)を活用し、業務効率化や新規サービス開発を進める動きが加速しています。特に、社内に蓄積された独自データをLLMに読み込ませて回答を生成させるRAG(検索拡張生成)という手法は、多くの企業でPoC(概念実証)が進められています。
しかし、金融データ、製造業の設計情報、顧客の個人情報など、高い機密性と正確性が求められる「専門データ」を扱う場合、単純なRAGでは限界に直面します。AIが事実と異なる情報を生成してしまう「ハルシネーション」のリスクに加え、社内の複雑なアクセス権限をどう制御するかというセキュリティ上の課題が立ち塞がるためです。日本の企業文化特有の、部署間ファイアウォールや役職に応じたきめ細やかな情報アクセス制限をLLM上で再現することは、技術的に容易ではありません。
LLMから安全にデータを引き出す「LLM-Ready API」というアプローチ
こうした課題に対する一つの解として注目されるのが、米S&P GlobalのAIイノベーション部門であるKenshoが採用した「LLM-Ready API(LLM向けに最適化されたAPI)」の構築です。同社は、自社の膨大な金融データに対して、LLMが自然言語を通じて安全にアクセスできる専用のインターフェース(API)を開発しました。
このアプローチの要点は、LLMに直接データをすべて読み込ませるのではなく、LLMが必要なときにだけ、外部システムを操作する仕組み(Function Calling機能など)を用いてAPIを呼び出し、データを取りに行く点にあります。Kenshoのエンジニアは、このAPIに厳格な「セーフガード(安全装置)」を組み込みました。これにより、AIが勝手に想定外のデータにアクセスしたり、不適切な計算を行ったりするリスクをシステム側で物理的に遮断しています。
日本企業におけるセキュリティと権限管理への応用
この「API側にセーフガードを設ける」という設計思想は、コンプライアンスや情報管理に厳格な日本の企業にとって非常に示唆に富んでいます。たとえば、国内の金融機関や大企業で社内データとLLMを連携させたチャットボットを導入する場合、APIの呼び出し時に「そのリクエストを実行している社員の認証情報(誰がアクセスしているか)」をシステム側で照合する仕組みを構築できます。
これにより、LLM自体は権限の概念を持たなくても、API側で「この社員は人事評価データにはアクセスできない」「このユーザーは未公開の財務情報にはアクセスできない」といった制御を確実に行うことが可能になります。また、万が一の情報漏洩や不正アクセスに備え、APIの呼び出し履歴を監査ログとして確実に保存できる点も、日本の法規制や内部統制の観点から大きなメリットとなります。
プロダクト組み込みにおけるリスクと限界
一方で、LLM-Ready APIを用いたシステム構築にもリスクや限界が存在します。第一に、LLMがユーザーの曖昧な質問を正しく解釈し、適切なAPIを、正しいパラメータ(条件)で呼び出せるかどうかは、LLM自身の性能に依存します。プロンプト(指示文)の工夫や、APIの設計を可能な限りシンプルにするなど、AIが迷わないためのエンジニアリングが不可欠です。
第二に、APIが正しいデータを返したとしても、最終的にそれをユーザーに分かりやすい文章にまとめる過程で、LLMがニュアンスを変えてしまったり、誤った解釈を加えたりするリスクはゼロになりません。特に投資判断や経営の意思決定に関わる重要な数値を扱う場合、AIの出力を鵜呑みにせず、元のデータソースへのリンクを必ず提示し、人間が最終確認を行う「Human-in-the-loop(人間の介在)」のプロセスを業務フローに組み込むことが必須となります。
日本企業のAI活用への示唆
今回の事例から得られる日本企業への実務的な示唆は以下の通りです。
1. LLMにすべてを任せないアーキテクチャの採用:機密データや厳密な計算が必要なタスクはLLMに直接処理させるのではなく、既存の堅牢な社内システム(データベースや計算エンジン)をAPIとして切り出し、LLMには「ユーザーとの対話」と「APIの呼び出し指示」のみに専念させる役割分担が有効です。
2. ガバナンスの起点をAPIに置く:複雑なアクセス権限管理やセキュリティ監査の要件は、ブラックボックスになりがちなLLM内部で解決しようとせず、APIゲートウェイ側で確実に行うことで、監査やコンプライアンス対応が容易になります。
3. 段階的な適用と業務フローの再設計:最初は社内の公開情報やリスクの低い業務からAPI連携を試し、システムの挙動やログの蓄積を確認しながら、徐々に機密性の高いデータへと適用範囲を広げていくアプローチが安全です。同時に、AIの出力を人間が検証するプロセスを前提とした業務フローの再設計が求められます。
