ChatGPTなどの生成AI活用が進む中、自身のプロンプトや生成結果のスクリーンショットをSNSで共有するトレンドが広がっています。しかし、この行為が攻撃者に攻撃の糸口を与える「ソーシャルエンジニアリング」のリスクを高めているという警鐘が鳴らされています。本稿では、無自覚な情報漏洩を防ぐために日本企業が意識すべきガバナンスのあり方を解説します。
「AI Work Pic」トレンドの裏側にあるリスク
生成AIの普及に伴い、LinkedInやX(旧Twitter)などのソーシャルメディア上で、自身の業務効率化の成果をアピールするために、ChatGPTやCopilotとの対話画面をスクリーンショットとして共有するケースが増えています。これを「AI Work Pic」トレンドと呼びますが、セキュリティアナリストの間では、これが新たなセキュリティリスクの温床になっていると指摘されています。
一見、機密情報(個人名や売上数字など)が含まれていなければ問題ないように思えます。しかし、攻撃者の視点に立つと、これらの画像は「その企業が現在どのような課題を抱えているか」「どのようなツールやロジックで業務を遂行しているか」というコンテキスト(文脈)情報の宝庫です。
コンテキストを悪用したソーシャルエンジニアリング
最大のリスクは、これらの情報をもとにした高度な「ソーシャルエンジニアリング」攻撃です。ソーシャルエンジニアリングとは、システムの脆弱性ではなく、人間の心理的な隙や行動のミスにつけ込んで情報を盗む手法です。
例えば、ある社員が「社内システムのAPI仕様書を要約させた画面」をSNSに投稿したとします。たとえ仕様書の具体的な中身が隠されていたとしても、攻撃者は「この社員がAPI連携の業務に従事している」こと、「特定のLLMを使用している」ことを把握できます。攻撃者はその情報を利用し、IT部門やベンダーを装って「API連携の不具合について」という件名でフィッシングメールを送るかもしれません。文脈が正確であるため、社員が騙される確率は格段に上がります。
プロンプト自体が「企業の知的財産」になり得る
日本企業においても、業務効率化のために「プロンプトエンジニアリング(AIへの指示出し技術)」のスキルアップが奨励されています。しかし、高度にチューニングされたプロンプトは、企業の業務プロセスそのものを反映した知的財産(IP)に近い性質を持ち始めています。
SNSでの「知見共有」という善意の行動が、結果として競合他社に自社の業務フローや、AI活用の独自ノウハウを無償で公開してしまうことになりかねません。特に、複雑な推論を行わせるChain-of-Thought(思考の連鎖)を含むプロンプトなどは、それ自体が競争優位の源泉となる場合があります。
日本企業特有の「画面撮影」文化と対策の難しさ
日本国内の現場、特に製造業や金融機関の一部では、セキュリティ上の理由から業務用PCでのSNSアクセスが制限されていることが多いです。しかし、これが逆に「業務用PCの画面を個人のスマートフォンで撮影してSNSにアップする」という、デジタル監視ツール(DLPなど)では検知できないアナログな情報漏洩を誘発しています。
テキストデータとしてのコピー&ペーストであればログに残る可能性がありますが、画像データ、特にスマホで撮影された写真は企業の管理外となり、シャドーITならぬ「シャドーAI発信」としてリスクが潜在化しやすくなります。
日本企業のAI活用への示唆
AI活用を推進しつつ、こうした新しいリスクに対応するために、日本の組織は以下の点を再確認する必要があります。
1. ガイドラインの具体化と「文脈」への意識付け
従来の「個人情報や機密データを入力しない」というルールに加え、「AIとの対話履歴自体が攻撃の材料になり得る」ことを教育する必要があります。SNSガイドラインを改定し、プロンプトや生成結果の共有に関する明確な基準(例:完全に抽象化されたもの以外は禁止など)を設けるべきです。
2. 承認欲求とセキュリティのバランス
社員が外部で発信したくなるのは、AI活用スキルの高さを認められたいというモチベーションがあるからです。外部SNSでの発信をただ禁止するのではなく、社内でのナレッジ共有会や表彰制度を充実させ、承認欲求を組織内部で満たしつつ、安全にノウハウを蓄積する文化を作ることが重要です。
3. 生成AIアカウント自体の保護
スクリーンショットからメールアドレスやユーザーIDの一部が推測され、AIサービスのアカウント自体が乗っ取られるリスクもあります。LLMを利用するアカウントには必ず多要素認証(MFA)を適用し、SSO(シングルサインオン)連携を行うなど、ID管理の徹底も基本にして不可欠な対策です。
