米国のセキュリティベンダーMalwarebytesが、ChatGPT上で不審なリンクやメールを検証できる専用GPTを公開しました。この事例は、専門的なセキュリティデータベースと汎用的な生成AIを組み合わせる新たな潮流を示唆しています。本記事では、この「対話型セキュリティ」の仕組みを解説するとともに、日本企業が従業員に外部のAIツールを利用させる際のリスク管理と、今後のセキュリティ運用におけるAI活用のあり方について考察します。
「対話型セキュリティ」という新たなユーザー体験
サイバーセキュリティ大手のMalwarebytesが、ChatGPTのカスタムバージョン(GPTs)として、不審なメールや電話番号、URLを検証できるツールを公開しました。これは、ユーザーがChatGPTのチャット画面上で「このメールは怪しいか?」「このリンクは安全か?」と問いかけるだけで、Malwarebytesの脅威インテリジェンス(脅威情報データベース)と照合し、回答を得られる仕組みです。
これまで、不審なURLやファイルをチェックするには「VirusTotal」のような専門的なサイトへアクセスする必要があり、一般従業員にはハードルが高い作業でした。しかし、生成AIをインターフェース(接点)にすることで、誰もが自然言語で直感的にセキュリティチェックを行えるようになります。これは、セキュリティ業務の「民主化」とも言える動きであり、AIが単なる文章作成だけでなく、専門的な判断を支援するエージェントとして機能し始めている好例です。
LLMとドメイン固有データの連携による信頼性の向上
技術的な観点から注目すべきは、このツールが大規模言語モデル(LLM)の学習済み知識だけで回答しているわけではない点です。LLM単体では「もっともらしい嘘(ハルシネーション)」をつくリスクがありますが、このシステムは「RAG(検索拡張生成)」やAPI連携に近いアプローチをとっていると推測されます。
ユーザーの入力(URLや電話番号)をクエリとして、ベンダーが持つ最新のブラックリストや脅威データベースに問い合わせ、その結果をLLMが分かりやすく要約して回答するという構造です。企業が自社サービスにAIを組み込む際、この「汎用LLMの言語能力」と「自社の信頼できる独自データ」を切り分けて連携させるアーキテクチャは、信頼性を担保する上で必須の構成となります。
日本企業が直面する「利便性と機密保持」のジレンマ
一方で、企業利用の観点からはリスクも存在します。従業員が「怪しいメールが届いた」と思い、そのメール本文をそのままChatGPTにコピー&ペーストしてしまうリスクです。もしそのメールが標的型攻撃ではなく、取引先からの真正な機密情報を含んだメールであった場合、意図せず情報を外部(OpenAIやプラグイン提供者)に送信してしまうことになります。
OpenAIは企業向けプラン(ChatGPT Enterprise等)でデータ学習の除外を保証していますが、サードパーティ製のGPTsを利用する場合、データがどのように処理されるか、提供ベンダーのプライバシーポリシーを個別に確認する必要があります。特に日本の商習慣では、メール本文に個人名や詳細な取引条件が含まれることが多いため、安易なAI利用が情報漏洩事故につながる懸念は拭えません。
日本企業のAI活用への示唆
今回の事例は、セキュリティ運用の効率化というメリットと同時に、ガバナンス上の課題も浮き彫りにしています。日本企業が取るべきアクションは以下の通りです。
1. 「入力データ」のガイドライン策定と周知
外部のAIサービスを利用する際、「URLやドメイン名は入力しても良いが、メール本文や個人情報は入力してはならない」といった具体的なルールを策定する必要があります。抽象的な「AI利用禁止」はシャドーIT(会社の許可を得ないツールの利用)を招くため、許容範囲を明確にすることが重要です。
2. APIベースの社内ツール統合の検討
セキュリティレベルが高い組織では、従業員にChatGPTを直接触らせるのではなく、SlackやTeamsなどの社内チャットツールに、セキュリティベンダーのAPIを組み込んだBotを導入する方が安全です。これにより、入力データがAIの学習に使われない契約下で、同様の利便性を提供できます。
3. 日本固有の脅威への対応確認
グローバルなAIツールは便利ですが、日本の「振り込め詐欺」や「日本語特有のビジネスメール詐欺」への検知精度にはばらつきがあります。導入・推奨にあたっては、日本の脅威情報に強い国内ベンダーのソリューションや、日本語データでファインチューニングされたモデルとの比較検討が不可欠です。
