生成AI開発の本格化に伴い、企業が構築する「AIファクトリー」には、膨大なデータ処理能力と堅牢なセキュリティの両立が求められています。FortinetとNVIDIAの協業事例をもとに、計算リソースを最大化しつつ内部通信を保護する最新のインフラ設計トレンドと、日本企業が押さえるべき実務的視点を解説します。
AIファクトリーに求められる新たなインフラ要件
生成AIや大規模言語モデル(LLM)の開発・運用を行う基盤、いわゆる「AIファクトリー」において、インフラストラクチャへの要求水準が劇的に変化しています。従来の情報システム基盤とは異なり、AIファクトリーでは数千基のGPUが連携し、ペタバイト級のデータを高速に処理する必要があります。
ここで大きな課題となるのが「セキュリティとパフォーマンスのトレードオフ」です。機密性の高い学習データや顧客データを扱う以上、厳格なセキュリティ対策は不可欠です。しかし、従来のファイアウォールやセキュリティソフトをサーバー上で稼働させると、貴重なCPUリソースが消費され、AI処理のパフォーマンスが低下するというジレンマがありました。
DPUによるセキュリティ機能のオフロード
この課題に対する解決策として注目されているのが、DPU(Data Processing Unit)の活用です。DPUは、CPU、GPUに続く「第三のプロセッサ」とも呼ばれ、ネットワーク処理やストレージ処理、そしてセキュリティ処理を専門に担当するチップです。
先頃発表されたFortinetとNVIDIAの協業事例では、NVIDIAの「BlueField-3 DPU」上で、Fortinetの次世代ファイアウォール(NGFW)の仮想マシン版である「FortiGate VM」を直接稼働させる技術が紹介されました。これは、従来サーバーのメインCPUが行っていたトラフィック検査や暗号化・復号といったセキュリティ処理を、DPU側へ完全に「オフロード(移譲)」することを意味します。
これにより、サーバーのCPUおよびGPUリソースはAIの学習や推論といった本来のワークロードに100%集中できるようになります。インフラの「分離(Isolation)」が進むことで、攻撃者がホストOSに侵入したとしても、DPU上で稼働するセキュリティ機能は独立して動作し続けるため、システムの堅牢性も向上します。
East-Westトラフィックの可視化と制御
日本企業が自社専用のLLMを構築したり、RAG(検索拡張生成)システムを運用したりする場合、データセンター内部のサーバー間通信(East-Westトラフィック)が爆発的に増加します。外部からの攻撃を防ぐ境界防御だけでなく、内部ネットワークでの感染拡大やデータ漏洩を防ぐ「マイクロセグメンテーション」の重要性が増しています。
DPUを活用したセキュリティアーキテクチャは、このマイクロセグメンテーションをパフォーマンスを犠牲にせずに実現する有力な手段です。各サーバーに搭載されたDPUが分散型ファイアウォールとして機能するため、物理的なアプライアンスを通過させることによる遅延(レイテンシ)を回避しつつ、すべてのパケットを検査することが可能になります。
日本企業のAI活用への示唆
今回の技術動向は、単なるハードウェアの進化ではなく、AIインフラにおける投資対効果とガバナンスのあり方を示唆しています。
1. 高価な計算資源の投資対効果(ROI)最大化
AI開発においてGPUサーバーは極めて高価な投資です。セキュリティソフトのオーバーヘッドでその能力を数%でもロスすることは、大規模環境では大きな損失となります。DPUへのオフロードにより、高価なコンピュートリソースを「AI処理」という価値創出活動にフル活用する設計が求められます。
2. 「守りのAI」基盤としてのハイブリッド設計
日本の組織では、機密情報の海外持ち出し規制やコンプライアンスの観点から、オンプレミスやプライベートクラウドでのAI活用が進む傾向にあります。物理的な統制が効く環境において、DPUを用いたハードウェアレベルでのセキュリティ分離は、論理的な防御層を物理的に補強する強力なガバナンス手段となります。
3. ゼロトラストの実装モデルとして
「境界防御」から「ゼロトラスト」への移行が叫ばれて久しいですが、実務レベルではネットワーク遅延や運用負荷が障壁となっていました。インフラ一体型のセキュリティアクセラレーションは、AIシステム内部のゼロトラスト化を現実的なコストとパフォーマンスで実装する鍵となるでしょう。
AI活用のフェーズがPoC(概念実証)から実運用へと移る中、インフラ担当者やアーキテクトは、単に「動く環境」を作るだけでなく、「高効率かつセキュアに回り続ける工場」を設計する視点が必要です。
