OpenAIの新たなレポートにおいて、中国の法執行機関に関連するユーザーがChatGPTを悪用し、日本の首相を標的とした中傷キャンペーン(smear campaigns)を試みていたことが明らかになりました。この事実は、生成AIが国家レベルの「影響工作」に利用されている現実を示すと同時に、日本企業にとっても、自社のブランドや信用を毀損する新たな脅威となり得ることを示唆しています。
生成AIを用いた「影響工作」の実態
OpenAIが明らかにした事例は、生成AIのリスク議論において重要な転換点を示しています。中国の法執行機関と関連があるとされる主体が、ChatGPTの高度な言語生成能力を利用して、日本の政治指導者を標的としたネガティブな言説を作成・拡散しようと試みました。これまでもSNSを用いた世論操作は存在しましたが、大規模言語モデル(LLM)の登場により、文法的に自然で、文脈に適応した日本語の偽情報や中傷テキストを、低コストかつ大量に生成することが可能になっています。
これは、サイバーセキュリティの領域が「システムのハッキング」から「認知のハッキング(Cognitive Hacking)」へと拡大していることを意味します。攻撃者は、ターゲットとなる組織や個人の信頼を失墜させるために、AIを「増幅装置」として利用しています。
企業にとっての脅威:ブランド毀損と株価操作
この事例は政治的な文脈で語られていますが、同様の手法は容易に民間企業へ転用可能です。競合他社や悪意あるアクターが生成AIを利用し、以下のような攻撃を行うリスクが現実味を帯びてきています。
- 特定の製品に対する根拠のない欠陥情報の拡散
- 経営層の不祥事を捏造したフェイクニュースの流布
- カスタマーサポートを装ったフィッシング詐欺や偽情報の提供
特に日本企業は、高い品質と信頼をブランドの根幹としている場合が多く、AIによって生成されたもっともらしい嘘(ハルシネーションの悪用や意図的なデマ)が拡散された場合、そのダメージは甚大です。従来の炎上対策に加え、AI生成コンテンツ特有の拡散スピードと量に対応する準備が求められます。
防御策としてのテクノロジーとガバナンス
こうした脅威に対抗するため、技術と組織の両面からのアプローチが必要です。技術面では、AIが生成したコンテンツであることを識別するための透かし技術や、コンテンツの来歴証明(C2PAなど)の導入議論がグローバルで進んでおり、日本国内でもOriginator Profile(OP)などの技術検証が始まっています。
一方、組織面では、AIガバナンスの枠組みを「社内利用の規程」だけでなく「外部からのAI攻撃への対応」にまで広げる必要があります。SNS上の不自然な言説の急増を検知するモニタリング体制の強化や、ディープフェイクやAI生成テキストによる風評被害が発生した際のクライシスコミュニケーションプランの策定が急務です。
日本企業のAI活用への示唆
今回の事例を踏まえ、日本の経営層やAI担当者が意識すべきポイントは以下の通りです。
1. リスクシナリオの再評価
AIのリスクを「自社社員による情報漏洩」や「ハルシネーションによる誤回答」だけに限定せず、「外部からのAIを用いた意図的な攻撃(偽情報の拡散、なりすまし)」をリスクマップに追加し、広報・法務・IT部門が連携した対応フローを整備すること。
2. 真贋判定技術への注視と導入検討
自社が発信する情報が「公式」であることを証明する技術(電子署名や来歴管理技術)の動向を注視し、将来的にWebサイトやプレスリリースへの導入を検討すること。これは、自社ブランドを守る防波堤となります。
3. 従業員のリテラシー教育の高度化
従業員に対し、精巧な日本語で書かれたメールやSNSの投稿であっても、AIによって自動生成された攻撃である可能性を考慮するよう教育を行うこと。特にソーシャルエンジニアリングへの耐性を高めることが重要です。
