大規模言語モデル(LLM)の進化は、ビジネスの効率化をもたらす一方で、サイバー攻撃の高度化という負の側面も顕在化させています。本記事では、攻撃側・防御側の双方における最新のAI活用動向を踏まえ、日本企業が直面するリスクと実務的な対応策を解説します。
生成AIが悪用される現実:高度化するサイバー攻撃
生成AI(人工知能)の進化は、サイバーセキュリティの前提を根本から揺るがしつつあります。米国Anthropic社が昨年末、国家支援を受けた中国のハッカー集団が同社のAI技術を利用してシステムへの侵入を試みたことを明らかにしたように、高度な攻撃者がAIを悪用するケースはすでに現実のものとなっています。
大規模言語モデル(LLM)は、膨大なデータから文脈を理解し、自然な文章やコードを生成することに長けています。攻撃者はこの能力を利用し、悪意のあるプログラム(マルウェア)のコードを効率的に生成したり、システムの脆弱性を自動的に探索したりする手法を洗練させています。これまで高度な専門知識が必要だった攻撃手法が、AIによって「民主化(容易化)」されている点は、セキュリティ担当者にとって重大な懸念事項です。
「日本語の壁」の崩壊と日本企業への影響
日本企業にとって、この変化は対岸の火事ではありません。これまで、海外の攻撃者にとって「日本語」は一つの障壁として機能していました。不自然な日本語のフィッシングメール(偽サイトに誘導して情報を盗み出す手口)は、従業員が違和感に気づきやすかったからです。
しかし、現在のLLMは極めて自然で、ビジネスの文脈に沿った日本語を生成できます。日本の商習慣特有の「稟議」や「お世話になっております」といった定型句、さらには過去のメールのやり取りを学習させることで、取引先や社内の経営層になりすますビジネスメール詐欺(BEC)の精度が飛躍的に向上しています。系列企業や取引先を踏み台にする「サプライチェーン攻撃」のリスクが高い日本において、文脈を巧みに偽装した攻撃への警戒はこれまで以上に重要になっています。
防御側におけるAI活用の必要性と限界
攻撃側がAIを活用する以上、防御側もAIを組み込んだセキュリティ対策(AIセキュリティ)を講じることが不可欠です。サイバー攻撃の兆候を監視するSOC(Security Operation Center)では、毎日膨大な量のアラートが発生し、日本の多くの組織で慢性的な人材不足が課題となっています。
AIを活用すれば、ネットワークの膨大なログから異常なパターンを即座に検知し、過去の脅威情報と照らし合わせて優先度を自動で判定することが可能です。また、インシデント発生時の初期対応手順をAIが提示することで、初動の遅れを防ぐ効果も期待できます。
一方で、AIへの過度な依存には限界とリスクも伴います。AIがもっともらしい嘘を出力する「ハルシネーション」や、正常な通信を攻撃と誤認する「過検知」は完全にゼロにはなりません。そのため、AIはあくまで人間の意思決定を支援するツールとして位置づけ、最終的な判断やイレギュラーな対応は専門のエンジニアが行う「Human-in-the-Loop(人間の介入を前提としたシステム)」の設計が求められます。
日本企業のAI活用への示唆
ここまでの動向を踏まえ、日本企業が取り組むべき実務への示唆を整理します。
第一に「従業員教育のアップデート」です。AIによってフィッシングメール等の文面が巧妙化している事実を組織全体に周知し、従来の「不自然な日本語に注意する」という指導から、「送信元のドメイン確認」や「金銭・機密情報に関わる依頼は別の経路(電話や社内チャットなど)で確認する」といった、プロセスベースの防御へ移行する必要があります。
第二に「自社AI利用時のガバナンス構築」です。従業員が業務効率化のために外部の生成AIサービスを利用する際、社外秘のソースコードや顧客情報を入力してしまう情報漏洩リスクへの対策が急務です。経済産業省などの「AI事業者ガイドライン」を参考に、入力データがAIの学習に利用されない(オプトアウト)環境の整備や、社内利用ルールの策定を進めることが重要です。
第三に「防御システムへのAI導入検討」です。セキュリティベンダーが提供する最新のエンドポイント保護(PCやサーバーの防御)やログ分析ツールには、すでにAI技術が組み込まれつつあります。プロダクト担当者やIT部門の意思決定者は、自社のセキュリティ要件に合致するかどうか、ベンダーのAIがどのようにデータを処理しているかの透明性を確認しながら、段階的な導入を検討していくべきでしょう。
