11 4月 2026, 土

AIエージェント時代の新リスク「非人間アイデンティティ」とは:Ciscoの買収報道から考える日本企業のセキュリティ対策

生成AIが自律的にタスクをこなす「AIエージェント」の実用化が進む中、システム間連携におけるアクセス権限の管理が新たな課題となっています。Ciscoによる関連スタートアップの買収報道を起点に、日本企業が直面するリスクと実務的な対応策を解説します。

AIエージェントの普及とセキュリティ市場の地殻変動

米国の大手ネットワーク機器・セキュリティ企業であるCisco Systemsが、イスラエル発のセキュリティスタートアップAstrix Securityを2億5,000万ドル(約375億円)以上で買収する交渉に入ったと報じられています。この動向は、単なるM&Aのニュースにとどまらず、エンタープライズITにおけるセキュリティの主戦場が大きくシフトしつつあることを示唆しています。

Astrix Securityは「非人間アイデンティティ(Non-Human Identities: NHI)」の管理と保護に特化した企業です。これまで企業のセキュリティ対策といえば、従業員など「人間」のパスワード管理や多要素認証(MFA)が中心でした。しかし、SaaSの普及やクラウド化に伴い、システム同士が連携するためのAPIキー、OAuthトークン、サービスアカウントといった「人間以外の認証情報」が爆発的に増加しています。特に、ユーザーの代わりに自律的にツールを操作して業務を遂行する「AIエージェント」の登場により、このNHIの保護が急務となっているのです。

なぜAIエージェント連携が新たな脆弱性となるのか

AIエージェントは、指示を受けると社内のデータベースを検索し、SaaS上のドキュメントを読み込み、必要に応じてメールを送信するといった複数のアクションを自動で行います。この際、AIは各種システムへアクセスするための「鍵(トークンやAPIキー)」を保持して動くことになります。

利便性が飛躍的に高まる一方で、この「鍵」の管理には大きなリスクが伴います。例えば、開発テスト用として安易に過剰な権限(フルアクセス権限など)を付与したAPIキーがそのまま本番環境で運用されてしまったり、連携が不要になった後もアクセス権が放置される「ゴーストトークン」が発生したりするケースです。万が一、悪意のある第三者がこの鍵を奪取した場合、人間のアカウント乗っ取りと同様、あるいはそれ以上の規模で社内機密情報にアクセスされ、外部へ流出する事態に発展しかねません。

日本の組織文化と商習慣に潜む「シャドーAIエージェント」のリスク

日本国内の企業においても、業務効率化や新規サービス開発を目的としたAIエージェントの検証・導入が急速に進んでいます。しかし、日本の組織文化や商習慣を踏まえると、いくつか特有のリスクが浮かび上がります。

第一に、部門ごとのサイロ化による「野良AI(シャドーAI)」の発生です。日本の大企業では、現場主導のDXが推奨される一方で、IT部門がすべてのクラウドサービスやツール連携を把握しきれていないケースが散見されます。事業部門の担当者が業務効率化のために良かれと思ってSaaSとAIツールを連携させ、情報システム部門の管理外でAPIキーが発行・運用される状態は、セキュリティ上の巨大な盲点となります。

第二に、外部SIerや開発パートナーへの依存による責任所在の曖昧化です。社内システムの構築やSaaS連携の開発を外部ベンダーに委託する際、APIキーの管理ルールやアクセス権限の最小化(必要最低限の権限のみを付与する原則)について明確な要件定義がなされないままプロジェクトが進行することがあります。システムが納品された後、誰がその「非人間アイデンティティ」のライフサイクル(発行から廃棄まで)を管理するのかが曖昧になりがちです。

日本企業のAI活用への示唆

Ciscoの買収報道に象徴されるように、AIとシステムの自律的な連携は不可逆なトレンドであり、それを保護する仕組みは今後の企業インフラにおいて必須となります。日本企業がAIエージェントの恩恵を安全に享受するためには、以下の実務的なアクションが求められます。

1. 「非人間アイデンティティ(NHI)」の棚卸しと可視化
まずは、自社の環境内で「どのAIやシステムが、どのSaaSやデータに対して、どのような権限でアクセスしているか」を可視化することが第一歩です。利用されていないAPIキーや、退職者が過去に許可したOAuth連携などは速やかに無効化するプロセスを構築する必要があります。

2. 「最小権限の原則」の徹底
AIツールやエージェントに社内データへのアクセスを許可する際は、業務遂行に必要な最低限の権限(例えば、書き込み権限は与えず読み取り権限のみにするなど)に絞り込むことが重要です。開発者や外部ベンダーに対しても、この原則に基づいた実装をガイドラインとして要求すべきです。

3. AI推進部門とセキュリティ部門の早期連携
AIの業務組み込みを推進するDX部門と、リスク管理を担うセキュリティ部門・法務部門は、プロジェクトの構想段階から連携をとる必要があります。AIガバナンスは「AIのハルシネーション(もっともらしい嘘)」や「著作権問題」に目が行きがちですが、今後は「AIが持つアクセス権限の管理(NHIセキュリティ)」も、コンプライアンスや情報保護の重要アジェンダとして組み込むべきです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です