セキュリティ企業が攻撃用AIエージェントを用い、コンサルティング大手・マッキンゼーの社内AIをわずか2時間で攻略した事例が報告されました。本記事では、この事例から見えてくる「自律型AIと古典的攻撃手法の融合」という脅威と、日本企業が社内AI環境を安全に構築・運用するための実践的なアプローチを解説します。
マッキンゼーの社内AI「Lilli」がハッキングされた事例の衝撃
世界的なコンサルティングファームであるマッキンゼー・アンド・カンパニーは、4万人以上の従業員が利用する独自の社内AIプラットフォーム「Lilli(リリー)」を運用しています。しかし先日、セキュリティ企業Codewallが開発した攻撃用AIエージェントが、この強固なはずのプラットフォームをわずか2時間でハッキングすることに成功したというレポートが波紋を呼んでいます。
注目すべきは、最新鋭のAIシステムを攻略した手法が「数十年前から存在する古典的なハッキング手法」であった点です。これは、AIモデル自体の問題ではなく、AIを組み込んだシステム全体のアーキテクチャや権限管理に根本的な隙があったことを示唆しています。
最新AIシステムに潜む「古典的」な脆弱性
大規模言語モデル(LLM)を用いた社内システムでは、社内文書を検索して回答を生成するRAG(Retrieval-Augmented Generation:検索拡張生成)という技術が一般的に用いられます。このシステムにおいて、AIは膨大なデータベースに対する「インターフェース」として機能します。
今回の事例で浮き彫りになったのは、AIという最新技術の導入に目を奪われるあまり、システムに接続されたバックエンドのアクセス制御や、SQLインジェクションなどの従来のWebアプリケーションで防ぐべき古典的なセキュリティ対策が疎かになるリスクです。AIを経由することで、一見安全に見えるシステムでも、予期せぬ経路からシステム内部に侵入される可能性があります。
日本企業の社内AI環境におけるリスクと現状
日本国内でも、業務効率化やナレッジ共有を目的に「社内専用ChatGPT」やRAGシステムの導入が急速に進んでいます。しかし、セキュリティやガバナンスの観点から見ると、多くの日本企業は潜在的なリスクを抱えています。
例えば、既存のファイルサーバーのデータをそのままAIの検索対象にした結果、本来は役員や人事部しかアクセスできない機密情報が、一般社員からのプロンプト(指示や質問)によって引き出されてしまう事故が懸念されます。日本の組織文化では、長年の運用によりファイルサーバーのアクセス権限管理が形骸化していることも多く、AIの導入によってその「負の遺産」が表面化する構造にあります。また、自社プロダクトにAIを組み込む場合も、設計の甘さが情報漏洩や不正操作の温床となり得ます。
「AIエージェント」がもたらす攻防パラダイムの変化
今回のハッキングを成功させたのが「人間」ではなく「AIエージェント(自律的にタスクを実行するAIプログラム)」であることも重要なポイントです。AIエージェントは、膨大なパターンの攻撃を自動かつ高速に試行できるため、これまで人間が見落としていた些細なシステムの隙を瞬時に突くことができます。
これは、サイバー攻撃の高度化・自動化が進むことを意味します。一方で、防御側もAIを活用して自社システムの脆弱性を継続的にテストするアプローチが求められるようになっています。人間による定期的な監査だけでなく、AIを用いた常時監視の仕組みを構築することが、今後のセキュリティ運用の鍵となるでしょう。
日本企業のAI活用への示唆
社内AIやAIプロダクトの安全な導入・運用に向けて、日本の意思決定者や実務者が取るべきアクションは以下の通りです。
第一に、AI導入前の「データガバナンスとアクセス権限の再設計」です。AIに読み込ませるデータは、ゼロトラスト(何も信頼しない)の前提で厳格にアクセス権限(ロールベースの制御)を設定する必要があります。既存の権限設定の甘さをAIが可視化してしまう前に、社内の情報管理体制を見直すことが急務です。
第二に、AIシステムに対する「総合的なセキュリティテスト」の実施です。AIモデル単体の安全性だけでなく、AIを組み込んだシステム全体としての脆弱性診断を実施してください。特に、レッドチーム演習(攻撃者の視点から疑似攻撃を行うテスト)を取り入れ、プロンプトインジェクションなどのAI特有のリスクと、古典的なWeb脆弱性の両面からリスクを洗い出すことが有効です。
AIは強力な業務変革の武器になりますが、魔法の杖ではありません。セキュリティ担当部門と緊密に連携し、従来のITセキュリティの基本を疎かにしない堅実なシステム設計こそが、日本企業が安全にAIの恩恵を享受するための最短ルートと言えます。
