OpenAIのChatGPTが、特定の国家に関連する主体によるサイバー攻撃や嫌がらせ活動の計画・実行に利用されていたことが報じられました。生成AIの「民主化」は、同時に攻撃能力の民主化も意味します。本記事では、この事例を単なる海外のニュースとしてではなく、日本企業に対する現実的な脅威として捉え直し、組織として講じるべきセキュリティ対策とガバナンスのあり方を解説します。
攻撃者の「生産性」も向上させる生成AI
PCMagなどの報道によると、中国を拠点とするユーザーのチャットログから、ChatGPTが米国内の反体制派に対する嫌がらせや、「サイバー特別作戦(Cyber Special Operations)」の計画・編集に利用されていた形跡が確認されました。これは、OpenAIなどのAI開発企業が定期的に報告している「脅威アクターによる悪用」の一端を示すものです。
私たち実務家がここで直視すべき事実は、企業が業務効率化のためにAIを活用するのと全く同じ論理で、攻撃者もまた、攻撃の効率化と高度化のためにAIを利用しているという点です。これを専門用語でAIの「デュアルユース(軍民両用・善悪両用)」問題と呼びます。
具体的には、以下のような悪用ケースが想定されます。
- フィッシングメールの高度化:従来の機械翻訳とは比較にならないほど自然な文章を作成できるため、日本人特有の言い回しやビジネス敬語を模倣した、見破るのが困難な標的型メールが作成可能になります。
- プロパガンダと偽情報:SNS上での世論操作(Influence Operations)を行うための投稿文言を大量かつ多言語で生成し、ボット運用を効率化します。
- コーディング支援の悪用:マルウェアの作成や、脆弱性を突くスクリプトのデバッグにLLM(大規模言語モデル)のコーディング能力が利用されます。
「日本語の壁」はもはや防御壁ではない
かつて、日本のサイバーセキュリティには「日本語の壁」という一種の防波堤が存在しました。日本語という言語の複雑さが、海外の攻撃者によるソーシャルエンジニアリング(人の心理的な隙や行動のミスにつけ込む攻撃)の難易度を高めていたのです。
しかし、GPT-4などの高性能なLLMの登場により、この壁は事実上崩壊しました。攻撃者は流暢な日本語を操り、日本の商習慣に合わせたもっともらしいシナリオを作成できます。今回の報道にあるような「特定の個人に対する執拗な嫌がらせ」や「組織的な風評被害」といった攻撃が、日本企業やその役員・従業員に向けられるリスクは、これまで以上に高まっています。
日本企業のAI活用への示唆
AIの恩恵を享受しつつ、こうした新たな脅威に対抗するために、日本の意思決定者やエンジニアは以下の観点を持つ必要があります。
1. AIガバナンスを「防御」の視点でも捉え直す
多くの日本企業におけるAIガイドラインは、「自社社員が情報を漏洩しないこと」や「著作権侵害をしないこと」に主眼が置かれています。しかし今後は、「AIで武装した攻撃者からどう身を守るか」という視点をセキュリティポリシーに組み込む必要があります。従業員に対し、不自然なほど流暢なメールや、SNS上の組織的なネガティブキャンペーンに対するリテラシー教育(セキュリティアウェアネス)を強化することが急務です。
2. 自社AIプロダクトへの「悪用対策」の実装
自社でLLMを組み込んだサービスを開発・提供する場合、そのサービスが攻撃者の踏み台にされないよう注意が必要です。例えば、自社のチャットボットがプロンプトインジェクション攻撃(AIへの特殊な命令入力)を受け、不適切なコンテンツ生成や他者への攻撃に加担させられるリスクがあります。開発段階でのレッドチーミング(攻撃者視点でのテスト)や、入出力に対するガードレールの実装は、MLOps(機械学習基盤の運用)における必須要件となります。
3. リスクを正しく恐れ、活用を止めない
悪用の事実があるからといって、AI活用自体を忌避するのは得策ではありません。攻撃者がAIを使って生産性を上げている以上、守る側もAIを活用してログ分析や脅威検知の自動化を進める必要があります。AIのリスクは「排除」するものではなく、「管理」するものであるという認識を持ち、技術的な対策と組織的なルールの両輪で対応していくことが、競争力を維持する鍵となります。
