セキュリティベンダーのカスペルスキーが、ChatGPTに関連した検索キーワードを悪用したmacOS向けのマルウェアキャンペーンについて警告を発しました。生成AIへの関心が高まる中、従業員が業務効率化のために非公式のツールを安易に導入しようとする動きは、企業にとって新たなセキュリティホールとなり得ます。本記事では、この事例をもとに、日本企業が意識すべき「シャドーAI」のリスクと、現実的なガバナンスのあり方について解説します。
ChatGPT人気を悪用した「マルバタイジング」の手口
カスペルスキーの報告によると、攻撃者は「ChatGPT」やそれに関連するキーワード(例:「chatgpt atlas」など)を含む検索クエリに対して、スポンサード広告(検索連動型広告)を出稿しています。ユーザーが正規のツールを探そうとして検索結果のトップに表示された広告をクリックすると、偽のダウンロードサイトに誘導され、結果としてマルウェアをインストールしてしまうという手口です。
この手法は「マルバタイジング(Malvertising)」と呼ばれ、古くからある攻撃手法ですが、昨今の生成AIブームに便乗することで再び活発化しています。特に今回はmacOSが標的とされていますが、これは開発者やクリエイター層など、比較的高性能なマシンを使用し、かつ機密性の高いデータを扱う可能性が高いユーザー層を狙い撃ちにしている可能性があります。
業務効率化への焦りが招く「シャドーAI」のリスク
日本国内でも、業務効率化や生産性向上を目的として、現場レベルで生成AIツールを導入したいというニーズは急速に高まっています。しかし、企業側が正規のAIツール(ChatGPT EnterpriseやMicrosoft Copilotなど)を正式に提供していない、あるいは利用ガイドラインが曖昧な場合、従業員は自らツールを探し始めます。
ここで問題となるのが、いわゆる「シャドーAI」です。従業員が悪意なく「もっと便利なツールはないか」「APIを使えるアプリはないか」と検索を行った結果、今回のような偽アプリや、セキュリティ対策が不十分なサードパーティ製アプリに行き着いてしまうリスクがあります。正規のOpenAIサイトではなく、App Store外で配布されている「高機能なラッパーアプリ」などを安易にインストールすることは、情報漏洩や端末の乗っ取りに直結します。
単なる「禁止」では防げない時代のガバナンス
かつての日本企業のセキュリティ対策であれば、「許可されたソフトウェア以外はインストール禁止」とし、Webフィルタリングでアクセスを遮断するのが一般的でした。しかし、生成AIの進化は早く、またブラウザベースで動作するものも多いため、従来の境界型防御やブラックリスト方式だけでは対応しきれないのが現状です。
また、過度に利用を制限することは、従業員が隠れて個人のスマートフォンや自宅PCで業務を行うリスクを高めるだけでなく、日本企業の課題であるDX(デジタルトランスフォーメーション)やイノベーションの阻害要因にもなりかねません。リスクを恐れるあまりAI活用を全面的に禁止すれば、競合他社に対する競争力を失うことにも繋がります。
日本企業のAI活用への示唆
今回のマルウェア事例は、単なるウイルス対策の話にとどまらず、組織としてのAIガバナンスのあり方を問いかけています。日本企業が取るべき対策は以下の通りです。
- 公式なAI環境の整備と提供:
従業員が怪しいフリーソフトや偽アプリに頼らなくて済むよう、会社として安全性が確認された生成AI環境(法人契約したChatGPTや、Azure OpenAI Serviceを利用した社内チャットボットなど)を整備し、積極的に利用を促すことが最も効果的な防御策です。 - 検索・ダウンロード行動への啓蒙:
「検索結果の最上位にある広告が必ずしも安全ではない」という基本的なリテラシー教育を再徹底する必要があります。特にAI関連のツールは、公式サイト(例:openai.com)のURLを直接確認する習慣づけが重要です。 - エンドポイントセキュリティの強化:
テレワークの普及により、社内ネットワーク外でPCを利用する機会が増えています。EDR(Endpoint Detection and Response)などの導入により、万が一マルウェアがダウンロードされた場合でも、実行を阻止・検知できる体制が必要です。 - 「禁止」から「管理」への意識転換:
すべてのAIツールを把握することは困難ですが、利用申請フローを簡素化したり、サンドボックス環境での検証を行ったりするなど、現場のスピード感を損なわずに安全性を担保する「ガードレール型」のガバナンスへの移行が求められます。
