エンタープライズ検索AIプラットフォームのGleanがMCP(Model Context Protocol)サーバーに対応し、ChatGPTやClaudeから社内データへ安全かつ直接的にアクセスできる環境が整いつつあります。この技術的進展が日本企業のAI活用やデータガバナンスにどのような影響を与えるのか、実務的な視点から解説します。
LLMと社内システムをつなぐ新標準「MCP」の衝撃
生成AIの業務活用が進む中、注目を集めているのが「MCP(Model Context Protocol)」という技術標準です。MCPは、AIモデル(LLM)が外部のツールやデータソースに安全かつ標準化された方法でアクセスするための規格であり、Anthropic社が主導して発表して以来、急速に業界標準となりつつあります。
今回、社内のさまざまなSaaSやデータベースを横断検索できるエンタープライズAIプラットフォーム「Glean」が、このMCPサーバーの提供を開始しました。これにより、ユーザーはOpenAIのChatGPTやAnthropicのClaudeといった汎用的なチャットUIを使いながら、背後でGleanを呼び出し、自社の業務データにアクセスさせることが可能になります。これまで企業が自前で多大なコストをかけて開発していた「RAG(検索拡張生成:外部データを取り込んで回答精度を上げる技術)」の仕組みが、標準プロトコルによるプラグイン的な接続へと置き換わりつつあることを意味しています。
サイロ化したデータ環境に「事情通のAI」をもたらすメリット
日本企業では、長年にわたるデジタル化の過程で、ファイルサーバー、SharePoint、Box、Teams、Slack、kintoneなど、部署やシステムごとにデータが分散(サイロ化)しているケースが少なくありません。Gleanのような統合検索プラットフォームがLLMから直接呼び出せるようになる最大のメリットは、ユーザーがデータの保存場所を意識することなく、「昨日の経営会議の議事録を踏まえて、次回の提案書のアウトラインを作って」といった自然言語での指示が可能になる点です。
汎用的なAIが「自社の文脈」や「最新の社内事情」を理解した真のCopilot(副操縦士)として機能することで、情報探索にかかる膨大な時間を削減し、より創造的な業務や意思決定にリソースを集中できるようになります。
立ちはだかる「権限管理」と「データガバナンス」の壁
一方で、日本特有の組織文化や商習慣を背景とした課題も浮き彫りになります。日本企業は、役職や部門、プロジェクトの参加状況に応じて、ファイルやシステムへのアクセス権限を非常に細かく設定する傾向があります。AIが社内データを参照して回答を生成する際、最大のボトルネックとなるのが「そのユーザーが見るべきではない情報(人事評価、未公開のM&A情報、特定顧客の機密情報など)をAIがうっかり答えてしまう」という情報漏洩・コンプライアンスリスクです。
Gleanのようなプラットフォームは、連携先システムのアクセス権限を厳格に継承する機能を持ち合わせていますが、そもそも日本企業の多くは「社内システムの現在の権限設定がどうなっているか」という棚卸しができていない(過去の不要な権限が残ったままになっている)ことが少なくありません。AIをつなぐことで、これら「隠れたガバナンスの綻び」が顕在化する危険性があります。また、個人情報保護法や営業秘密の管理の観点からも、AIによるデータの取り扱いルールの策定は急務です。
クラウドへのデータ送信とハルシネーションのリスク
さらに実務上の留意点として、ChatGPTやClaudeのチャットUIから社内データを呼び出す場合、プロンプトや検索結果のデータがLLMベンダー側のクラウド環境(APIなど)へ送信されることになります。入力データがAIの学習に利用されないオプトアウト(学習拒否)設定や、エンタープライズ版の契約が必須であることは言うまでもありません。
また、どれほど優秀な検索システムと連携しても、AIがもっともらしい嘘をつく「ハルシネーション」のリスクを完全にゼロにすることはできません。生成された文書やデータは鵜呑みにせず、最終的な事実確認や責任の所在は人間が担う「Human-in-the-loop(人間を介在させるプロセス)」の運用フローを組み込むことが不可欠です。
日本企業のAI活用への示唆
今回のGleanのMCP対応のニュースから、日本企業が自社のAI活用において考慮すべき要点と実務への示唆は以下の通りです。
1. AIシステム開発から「連携」へのシフト
MCPのような標準プロトコルの普及により、自社でLLMと社内システムをつなぐ複雑なプログラムをゼロから構築する時代は終わりつつあります。今後は、自社のITインフラがこれらの標準規格に対応したツールで構成されているかを見直す「アーキテクチャの選定」が重要になります。
2. データガバナンスとアクセス権限の棚卸しを急ぐ
高度なAIを安全に導入するための絶対条件は、社内のデータ管理が整っていることです。AI導入のプロジェクトと並行して、「誰がどのデータにアクセスできるべきか」という権限設定の棚卸しと、不要なアクセス権の剥奪などのクレンジングを速やかに進める必要があります。
3. リスクベースのアプローチで小さく始める
最初から全社のあらゆる機密データをAIに連携させるのはリスクが高すぎます。まずは社内規程、マニュアル、製品カタログなど、万が一権限の越権アクセスが発生しても事業への影響が少ない(情報感度が低い)領域からPoC(概念実証)を始め、システム連携の挙動や従業員のAIリテラシーを高めていくアプローチが現実的です。
