中国の当局者が反体制派への威嚇工作にChatGPTを利用していたとされる事例が明らかになりました。この事実は、生成AIが国家レベルの工作活動だけでなく、企業のセキュリティリスクをも変質させていることを示唆しています。本稿では、AIによるサイバー攻撃の高度化と、日本企業が講じるべきガバナンスおよび防御策について解説します。
生成AIによる攻撃の「民主化」と言語の壁の崩壊
報道によると、中国の工作員と見られる人物が、米国の入国管理官になりすまして反体制派を威嚇するための文章作成にChatGPTを利用していたとされています。この事例は、生成AIが悪意あるアクターにとって強力な武器になり得ることを如実に示しています。
これまで、他国の組織や個人を標的としたソーシャルエンジニアリング(人間の心理的な隙や行動のミスにつけ込む攻撃手法)においては、言語の壁が一定の防波堤となっていました。不自然な文法や違和感のある表現が、フィッシングやなりすましを見抜く手がかりとなっていたからです。
しかし、大規模言語モデル(LLM)の進化により、攻撃者はネイティブレベルの自然な文章を、文脈に合わせて大量かつ安価に生成できるようになりました。これは、日本企業にとっても他人事ではありません。かつて「日本語は難解だから海外からのサイバー攻撃を受けにくい」と言われた時代は終わり、流暢な日本語によるビジネスメール詐欺(BEC)や、巧妙ななりすまし攻撃のリスクが急激に高まっています。
プラットフォーム側の監視と「いたちごっこ」の現実
OpenAIなどのAI開発ベンダーも手をこまねいているわけではありません。彼らは国家支援型ハッカー集団や悪意あるアクターによるAPI利用を監視し、アカウント停止やパターン分析による防御策を講じています。今回の事例が明るみに出たのも、プラットフォーム側やセキュリティ研究者による追跡の成果と言える側面があります。
しかし、攻撃側もまた、AIの検知回避技術を学習し、商用LLMではなくオープンソースのモデルを悪用するなど、手口を巧妙化させています。企業の実務担当者は、AIプラットフォーム側の安全対策に依存するのではなく、「AIによって生成された高度な攻撃」が自社の従業員やシステムに到達することを前提とした対策を構築する必要があります。
日本企業におけるガバナンスと教育の再定義
この事例は、企業のAIガバナンスにおいて「自社がいかにAIを使うか」だけでなく、「他者がAIを使って自社をどう攻撃してくるか」という視点が不可欠であることを示唆しています。
従来のセキュリティ教育では「怪しい日本語のメールに注意する」といった指導が一般的でしたが、生成AI時代には通用しません。文面だけで真偽を判断することは困難であり、多要素認証の徹底や、重要な意思決定・送金指示における別ルートでの確認プロセス(電話確認など)の義務化など、業務プロセス自体の堅牢性が問われます。
また、自社のブランドや経営層になりすましたフェイクニュースや偽情報が流布されるリスク(ディスインフォメーション)への対応も、広報や法務を含めた全社的な課題として認識する必要があります。
日本企業のAI活用への示唆
今回の事例を踏まえ、日本の経営層や実務担当者は以下の点に着目して対策を進めるべきです。
1. セキュリティ教育のアップデート
「不自然な日本語」を攻撃の兆候とする従来の教育を改め、文脈の整合性や送信元の技術的検証(SPF/DKIM/DMARC等)の重要性を周知してください。AIは「完璧な日本語」を書くことができる前提で、ゼロトラストの考え方を組織文化に浸透させる必要があります。
2. 業務プロセスの見直し(アナログ的な確認の価値)
AIによるなりすましが高度化する中で、重要な契約や送金においては、デジタルのみで完結させず、信頼できる物理的な手段や対面・音声(ただし音声もAI音声合成のリスクがあるため注意が必要)による多重チェックをプロセスに組み込むことが、結果として最強の防御になります。
3. 脅威インテリジェンスへの投資と連携
攻撃手法は日々進化しています。自社だけで守るのではなく、業界団体やセキュリティベンダーと連携し、AIを悪用した最新の攻撃トレンドやIoC(侵害の痕跡)情報を共有・活用できる体制を整えてください。
