Microsoft Copilot Studioなどに代表されるノーコードツールの普及により、専門知識を持たないビジネスパーソンでも強力な「AIエージェント」を作成できる時代が到来しました。しかし、Tenable Researchなどの調査機関は、こうした開発の民主化が重大なセキュリティリスクを招く可能性を警告しています。本記事では、日本企業が直面する「市民開発者」によるAI活用と、それに伴うガバナンスのあり方について解説します。
「Agentic AI(自律型AI)」の台頭とノーコード開発の光
生成AIのトレンドは、単に人間と会話するチャットボットから、具体的なタスクを自律的に遂行する「Agentic AI(自律型AIエージェント)」へと移行しつつあります。これまでのAIが「情報の検索・要約」を得意としていたのに対し、エージェントは「APIを叩いて決済処理を行う」「社内データベースを更新する」「メールを自動送信する」といった、実社会への「アクション」を伴う機能を持っています。
MicrosoftのCopilot StudioやSalesforceのAgentforceなど、主要なプラットフォーマーはこぞって、プログラミングコードを書かずにこれらのエージェントを作成できる「ノーコード/ローコード環境」を提供し始めました。これは、IT人材不足に悩む多くの日本企業にとって、現場主導の業務効率化(DX)を加速させる福音のように見えます。
開発の民主化が招く「意図せぬ権限行使」のリスク
しかし、Tenable Researchをはじめとするセキュリティ専門家たちは、この「開発の民主化」に警鐘を鳴らしています。誰でも簡単に強力なツールを作れるということは、裏を返せば「セキュリティ意識の低い作成者による脆弱なエージェント」や「悪意を持ったエージェント」が容易に組織内に増殖することを意味します。
特に懸念されているのが、認証と権限管理の不備です。例えば、ノーコードツールで作成されたAIエージェントが、作成者の権限をそのまま引き継ぎ、本来アクセスすべきでない機密データ(人事情報や未公開の財務情報など)を参照したり、外部への送金指示のような重大なトランザクションを実行したりするリスクです。
クラウド設定ミスがセキュリティ事故の主因となるケースが多いのと同様に、AIエージェントの設定ミスにより、社内のチャットツールから誰でも機密情報へアクセスできる「穴」が開いてしまう可能性があります。これは外部からの攻撃だけでなく、内部不正や、悪気のない従業員の操作ミスによるインシデントリスクを飛躍的に高めます。
日本企業特有の「性善説」と「市民開発」の課題
日本企業には、現場の創意工夫を尊重する文化があり、kintoneやPower Platformなどを活用した「市民開発(Citizen Development)」が積極的に推進されています。しかし、ここにAIエージェントが加わると、リスクの質が変わります。
従来のツールであれば、影響範囲は限定的でしたが、LLM(大規模言語モデル)を搭載したエージェントは、曖昧な指示でも解釈して実行に移す能力があります。さらに、プロンプトインジェクション(AIに対する特殊な命令入力によるハッキング)への対策が不十分なまま社内公開されれば、外部の攻撃者がエージェントを乗っ取り、社内システムへの踏み台として利用するシナリオも考えられます。
日本の組織にありがちな「性善説」に基づいた緩やかな権限管理や、「便利ならとりあえず使ってみよう」という現場判断は、Agentic AIの時代においては致命的な脆弱性となり得ます。
最小権限の原則と「Human-in-the-loop」の徹底
こうしたリスクに対応するため、企業は以下の対策を講じる必要があります。
第一に、「最小権限の原則(PoLP)」の徹底です。AIエージェントには、そのタスク遂行に必要最低限の権限のみを付与し、作成者の全権限を委譲しない仕組みが不可欠です。ID管理(IAM)とAIガバナンスを統合して考える必要があります。
第二に、重要なアクションにおける「Human-in-the-loop(人間の介在)」の維持です。例えば、決済処理や外部へのデータ送信など、取り消しが困難なアクションについては、必ず人間が承認ボタンを押すプロセスを組み込むことが、現段階の技術レベルでは安全策として推奨されます。
日本企業のAI活用への示唆
ノーコードによるAIエージェント開発は、業務効率化の強力な武器ですが、同時に「シャドーAI(管理外のAI利用)」のリスクを最大化させます。意思決定者と実務担当者は以下の点に留意すべきです。
- 「作るガバナンス」の策定:単に「生成AIを使ってよいか」だけでなく、「AIエージェントを自作して公開してよいか」という基準を設ける必要があります。
- サンドボックス環境の提供:現場のイノベーションを阻害しないよう、本番データにはアクセスできない安全な検証環境(サンドボックス)を提供し、そこで十分なテストを行ったものだけを本番環境へ移行させるプロセスを確立してください。
- アイデンティティ管理の強化:AIエージェントを「一人の従業員」あるいは「特権ID」と同様に見なし、そのアクセスログを監視・監査できる体制を整えることが、これからのセキュリティ運用の要となります。
