19 1月 2026, 月

生成AIの「会話共有機能」を悪用した新たな脅威:利便性の裏に潜むマルウェア配布の手口

ChatGPTなどの生成AIチャットツールで普及している「会話の共有リンク」機能を悪用し、マルウェアや悪意あるスクリプトを配布する攻撃手法が確認されました。AIからの回答という「信頼」を逆手に取ったこのソーシャルエンジニアリング攻撃に対し、日本企業はどのようなセキュリティ意識を持つべきか、技術的背景と組織対策の両面から解説します。

「AIによる解決策」を装う巧みな罠

生成AIの利用が日常化する中、セキュリティベンダーのHuntressが新たな攻撃手法に関する警告を発しました。それは、ChatGPTなどのLLM(大規模言語モデル)チャットインターフェースに実装されている「会話の共有機能(Shared Links)」を悪用したものです。

通常、この機能はプロンプトエンジニアリングの知見共有や、業務上のトラブルシューティング結果をチーム内で共有するために使われます。しかし攻撃者は、AIにあたかも有用な解決策を提示しているかのように見せかけながら、実際にはマルウェアや悪意あるコマンドを含むコードを生成させ、その会話ログのリンクを標的に送りつけます。

ユーザーは「信頼できるAIツール上のログ」であり、かつ「AIが論理的に導き出した解決策」であると誤認しやすいため、提示されたコードや実行ファイルを疑いなく手元のPCで実行してしまうリスクがあります。これは技術的な脆弱性を突くというよりは、AIへの信頼を利用した高度なソーシャルエンジニアリング(人間の心理的な隙や行動のミスにつけ込む攻撃)の一種と言えます。

正規ドメインへの信頼が悪用される構造

この攻撃手法が厄介なのは、リンク先が「openai.com」などの正規かつ信頼性の高いドメインである点です。多くの企業のファイアウォールやセキュリティフィルターでは、主要な生成AIサービスのドメインはホワイトリスト(許可リスト)に入っています。そのため、フィッシングメールのリンクフィルターなどをすり抜け、従業員のブラウザまで到達しやすい構造にあります。

また、日本国内の開発現場や情シス部門では、エラーログをAIに貼り付けて解決策を探る行為が一般的になっています。攻撃者が「このエラーなら、AIとの会話ログにあるこの手順で直ったよ」とリンクを提示した場合、切迫した状況にあるエンジニアほど、検証を省略してコードをコピー&ペーストしてしまう可能性があります。

日本企業のAI活用への示唆

今回の事例は、AI活用におけるリスクが「情報の入力(漏洩)」だけでなく「情報の出力(受容)」にも及んでいることを示しています。日本企業が取るべき対策とスタンスを以下に整理します。

1. 「AIの出力=安全」という神話の払拭
社内のセキュリティ教育において、「AIが生成したコードやコマンドであっても、内容を理解せずに実行してはならない」という原則を徹底する必要があります。特に新人エンジニアや非エンジニア部門がSQLやスクリプトを扱う際、AIの出力を盲信しないようガイドラインを策定すべきです。

2. 共有リンクの取り扱いルールの明確化
外部(SNSや社外コミュニティ)からもたらされたAIの会話共有リンクを開く際のリスクを周知してください。業務利用においては、信頼できるソース以外のリンクから取得した実行ファイルやスクリプトの使用を禁止する、あるいはサンドボックス(隔離された検証環境)での実行を義務付ける等の運用ルールが求められます。

3. エンドポイントセキュリティの強化
AIの画面上では無害なテキストに見えても、実行時に不正な挙動をするマルウェアを防ぐため、従来の境界型防御だけでなく、EDR(Endpoint Detection and Response)などの端末側での監視体制が重要になります。「AIの提案だから」といってセキュリティ警告を無視しない文化醸成も不可欠です。

生成AIは強力な業務効率化ツールですが、攻撃者にとってもまた、効率的な攻撃ツールとなり得ます。利便性を享受しつつ、リスクに対しては「ゼロトラスト(何も信頼しない)」の視点を持って向き合うことが、持続的なAI活用の鍵となります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です