ServiceNowがデータセキュリティ企業Vezaの買収に合意したというニュースは、企業向けAIのフェーズが変わりつつあることを示唆しています。生成AIが単なる対話ツールから、自律的にシステム操作を行う「AIエージェント」へと進化する中で、企業が直面する新たなセキュリティとガバナンスの課題について解説します。
ServiceNowによるVeza買収の狙いと背景
ITサービスマネジメント(ITSM)大手のServiceNowは、データセキュリティプラットフォームを提供するVezaの買収に合意しました。Forbesなどの報道によると、この買収の主たる目的は「AIエージェントの権限(パーミッション)管理を大規模に行うこと」にあります。
これまで企業における生成AIの活用は、人間がチャット形式で質問し、AIが回答を作成するという「コパイロット(副操縦士)」型が主流でした。しかし現在、AIが人間の指示に基づき、あるいは自律的に判断して社内システムを操作し、タスクを完遂する「AIエージェント」への移行が進んでいます。
ServiceNowのようなワークフロー自動化プラットフォームにとって、AIエージェントが社内の様々なデータやアプリケーションにアクセスする際のセキュリティ確保は喫緊の課題です。Vezaの技術を取り込むことで、AIが「誰の権限で」「どのデータにアクセスし」「どのような操作が可能か」を厳格に管理する体制を整えようとしています。
「AIエージェント」がもたらす新たなセキュリティリスク
AIエージェントの導入は業務効率化を飛躍的に高める可能性がありますが、同時に従来とは異なるリスクをもたらします。元記事でも指摘されている通り、企業のAI導入スピードに対し、ガバナンス(統制)能力が追いついていないのが現状です。
最大のリスクは「過剰な権限(Over-permissioning)」です。例えば、AIエージェントが従業員の代わりにタスクを実行する際、そのAIに広範すぎるアクセス権限を与えてしまうと、本来閲覧すべきでない人事データや機密情報にアクセスしたり、誤って重要なデータを削除・変更したりする恐れがあります。
また、外部からの悪意ある入力によってAIの挙動を操作する「プロンプトインジェクション」攻撃を受けた場合、AIが持つ権限が悪用されるリスクもあります。したがって、AIエージェントには「必要な時に、必要なデータだけ」にアクセスさせる「最小権限の原則」を、従来の人間に対する管理以上に動的かつ厳密に適用する必要があります。
日本企業のAI活用への示唆
日本企業においてAIエージェントを活用し、デジタルトランスフォーメーション(DX)を加速させるためには、以下の視点が不可欠です。
1. IDガバナンスとセキュリティの再定義
多くの日本企業では、人事システムと連動したID管理は行われていても、各アプリケーション内部の詳細なアクセス権限までは可視化・管理しきれていないケースが散見されます。AIエージェントを導入する場合、曖昧な権限管理は致命的なセキュリティホールになり得ます。「AIに何をさせても良いか」を定義するためには、まず既存のシステムにおける人間やシステムの権限棚卸しが必要です。
2. 「信頼」から「検証」へのシフト
日本的な組織文化では、性善説や暗黙の了解に基づく運用が残っている場合がありますが、AIガバナンスにおいては「ゼロトラスト(何も信頼せず、常に検証する)」の考え方が前提となります。AIによる自律的な操作を許可する範囲を限定し、その操作ログを常に監視・監査できる仕組みを整えることが、経営層やコンプライアンス部門を説得し、導入を進める鍵となります。
3. 段階的な導入とガードレールの設置
いきなり基幹システムへの書き込み権限をAIに渡すのではなく、まずは参照権限のみを与えた情報検索エージェントから始め、権限管理の仕組み(ガードレール)が機能することを確認した上で、徐々に更新・実行権限を付与していく段階的なアプローチが推奨されます。
ServiceNowによるVezaの買収は、AI活用の焦点が「精度の高さ」から「安全に動かすためのガバナンス」へとシフトしていることを象徴しています。日本企業においても、AIを実務で使いこなすためには、技術的な検証と並行して、ガバナンス体制の整備を先行して進めることが求められます。
