13 3月 2026, 金

AIに対する「AIを用いたサイバー攻撃」の脅威——マッキンゼーの事例から学ぶ日本企業のセキュリティ対策

グローバルコンサルティング大手のマッキンゼーが自社AIシステムの脆弱性を指摘され、迅速な修正対応に追われました。攻撃側が「AIエージェント」を用いて脆弱性を特定したという事象は、日本のAI実務者にとっても対岸の火事ではありません。AIシステムを安全に運用するための新たなセキュリティ要件とガバナンスのあり方を考察します。

AIシステムがサイバー攻撃の標的となる時代

近年、多くの企業が業務効率化や新規事業創出を目指して生成AIや大規模言語モデル(LLM)の導入を進めています。しかし、新たな技術の普及は同時に新たなセキュリティリスクを生み出します。先日、Financial Timesが報じたところによると、グローバルコンサルティング大手のマッキンゼー(McKinsey)が運用するAIシステムに対し、サイバーセキュリティ企業であるCodeWallが脆弱性を発見し、マッキンゼー側がその修正に追われるという事態が発生しました。

注目すべきは、CodeWall社がこの脆弱性探索に「独自のAIエージェント」を使用したと述べている点です。AIエージェントとは、与えられた目標を達成するために自律的に計画を立てて行動するAIプログラムのことです。つまり、人間が手動で攻撃の糸口を探るのではなく、AIが自律的にAIシステムの隙を突く「AIによるAIへの攻撃」が現実のものとなっているのです。

「AIによるAIへの攻撃」がもたらす脅威とは

従来のサイバー攻撃は、既知のソフトウェアの脆弱性やネットワークの設定ミスを狙うものが主流でした。しかし、AIシステムに対する攻撃は性質が異なります。例えば、悪意のあるプロンプト(指示文)を入力してAIに意図しない動作をさせる「プロンプトインジェクション」や、学習データや連携された社内データベースから機密情報を引き出す攻撃などが挙げられます。

攻撃側がAIエージェントを活用することで、膨大なパターンの攻撃手法を自動的かつ高速に試行することが可能になります。日本国内でも、自社専用のデータを参照して回答を生成するRAG(検索拡張生成)システムを構築し、社内規定や顧客情報を扱うケースが増えていますが、アクセス制御が不十分な場合、こうしたシステムは高度化するAI攻撃の格好の標的となり得ます。

日本の組織文化とAIガバナンスの課題

日本企業におけるAI導入では、「まずはPoC(概念実証)として動くものを作ろう」というアプローチがよく見られます。これはアジャイルな開発手法として有効である反面、セキュリティやガバナンスの観点が後回しになりがちであるという側面も持っています。

日本の商習慣や社会環境において、一度でも顧客情報や機密情報の漏洩インシデントが発生すれば、企業への信頼失墜は計り知れません。法規制の面でも、個人情報保護法や各種関連ガイドラインへの厳格な対応が求められます。そのため、AIシステムの利便性を追求するあまり、出力結果の監視やデータ連携時の権限管理が甘くなることは、経営上の重大なリスクに直結します。

開発初期段階からのセキュリティ対策の重要性

こうしたリスクに対応するためには、AIシステムの設計段階からセキュリティを組み込む「Security by Design(セキュリティ・バイ・デザイン)」の徹底が不可欠です。社内のどのデータにアクセスさせるべきか、出力結果に機微な情報が含まれていないかをチェックする仕組みなど、多層的な防御策を講じる必要があります。

また、今回のCodeWall社のようなホワイトハッカー(善意のハッカー)の視点を取り入れることも有効です。自社のAIシステムに対して、あえて攻撃者として振る舞い脆弱性を洗い出す「レッドチーム演習」を実施することで、未知のリスクを事前に特定し、システムの堅牢性を高めることが可能になります。

日本企業のAI活用への示唆

マッキンゼーの事例は、高度な専門性と技術力を持つグローバル企業であっても、AIシステムの脆弱性から完全に逃れることは難しいという現実を示しています。日本国内でAIの実装を推進する意思決定者やプロダクト担当者に向けて、以下の3点を実務への示唆として提起します。

第一に、「AIシステム自体が攻撃の標的になる」という前提でプロジェクトを進めることです。社内向けの業務効率化ツールであっても、機密情報が紐づく限り、厳格なセキュリティ基準を設ける必要があります。

第二に、AIのリスク評価を継続的に行う仕組みの構築です。AI技術の進化に伴い、攻撃手法も日々アップデートされます。導入時に一度だけテストするのではなく、定期的なレッドチーム演習や脆弱性診断を実施する体制を整えることが推奨されます。

第三に、スピードとガバナンスのバランスを取ることです。イノベーションを阻害しないよう現場の裁量を認めつつも、重大なインシデントを防ぐためのガードレール(安全対策のルール)を全社レベルで策定し、安全かつ持続可能なAI活用を目指していくことが、日本企業に求められる次世代のAI戦略と言えるでしょう。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です