生成AIの普及により、サイバー攻撃の高度化・自動化が懸念されています。しかし、重要インフラを狙うOTマルウェアの最新分析からは、現時点でのLLMが抱える明確な限界と、日本企業がセキュリティ対策や自社のAI活用において持つべき現実的な視点が見えてきます。
AIによるサイバー攻撃の脅威と「ZionSiphon」の真実
近年、大規模言語モデル(LLM)をはじめとする生成AIの進化により、サイバー攻撃者がマルウェアのコードを容易に作成し、攻撃の高度化や自動化が進むのではないかという懸念が広がっています。しかし、産業用制御システム(ICS)やOT(Operational Technology:工場やインフラの制御技術)セキュリティの専門企業である米Dragos社の最新の報告は、これに対して少し異なる現実を浮き彫りにしました。
同社は「ZionSiphon」と呼ばれるOT環境を標的としたマルウェアについて、世間で語られるほどの脅威ではないと評価しました。分析によると、このマルウェアのコードはLLMによって生成された可能性が高いものの、致命的な欠陥があり、ダムの淡水化プロセスや特殊なICSプロトコルに関する知識がほとんど欠落していたため、実際の運用においては「無効(機能しない)」と結論づけられています。
現在のLLMが抱える専門領域での限界
この事例は、現在のLLMが持つ能力の限界を明確に示しています。一般的なプログラミング言語を用いたWebアプリケーションのスクリプト作成などにおいては、LLMはすでに高いパフォーマンスを発揮します。しかし、工場の生産ラインや社会インフラを支えるOT環境のような、高度にニッチで独自のプロトコルが稼働する領域に対しては、学習データが圧倒的に不足しているため、正確で実用的なコードを生成することが極めて困難です。
これは、AIを自社の業務に組み込もうとする日本企業にとっても重要な教訓となります。汎用的なLLMをそのまま導入しても、自社独自の商習慣、長年培ってきた匠の技術、あるいはレガシーな基幹システムに関する深い理解をAIが最初から持ち合わせているわけではありません。専門的な業務にAIを適用する際には、ハルシネーション(AIがもっともらしい嘘を出力する現象)のリスクが常に伴うことを念頭に置く必要があります。
日本企業が直面するOTセキュリティとAIの関わり
日本の製造業やインフラ企業においては、IoTの普及やデジタルトランスフォーメーション(DX)の推進により、これまで閉域網とされてきたOT環境と、インターネットに接続されたIT環境の融合が急速に進んでいます。これにより、サイバー攻撃の標的となるリスクはかつてなく高まっています。
今回の事例で「攻撃者の作成したマルウェアが機能しなかった」からといって、決して安心できるわけではありません。AIを用いた攻撃の「質」が特定の専門領域においてまだ未熟だとしても、一般的なマルウェアの大量生成や、従業員を騙す精巧なフィッシングメールの作成など、攻撃の「量」と「スピード」は確実に増大しています。日本企業は、最新のAI脅威動向を冷静に評価しつつ、ITとOTの境界線を守るネットワーク分離、アクセス制御の厳格化、多層防御といったセキュリティの基本をより一層徹底していく必要があります。
日本企業のAI活用への示唆
今回のOTマルウェアの事例から、日本企業がAIを活用し、またそのリスクに備える上で、以下の重要な示唆が得られます。
第一に、「ドメイン知識とAIの融合」の重要性です。攻撃者が特殊な環境のハッキングに失敗したように、企業が独自の業務プロセスや専門領域にAIを適用する場合も、LLM単体では機能しません。社内規定や独自のノウハウをAIに参照させるRAG(検索拡張生成)の仕組みや、特定業務に特化したファインチューニングなど、自社の文脈をAIに理解させるアーキテクチャの設計が不可欠です。
第二に、「Human-in-the-Loop(人間の介入)」を前提としたプロセス構築です。AIが生成したアウトプット(コードや業務マニュアル、データ分析結果など)を鵜呑みにせず、必ず専門知識を持つ実務者がレビューを行うプロセスを組み込むことが、品質担保とコンプライアンス遵守の観点から求められます。特に日本の厳格な品質基準や法規制が関わる領域では、このステップがAI導入の成否を分けます。
第三に、「AI時代に即した組織的ガバナンス」の再構築です。サイバー脅威がAIによってスケールする現状を踏まえ、セキュリティ部門だけでなく、プロダクト開発や事業部門も含めた全社的なリスク認識のアップデートが必要です。同時に、自社内でAIツールを安全に活用するためのガイドライン策定や、意図しない情報漏洩を防ぐためのデータ管理体制の整備など、攻めと守りの両輪でAIガバナンスを進めることが、今後のビジネス競争力を左右するでしょう。
