生成AIブームの裏側で、データセンターの電力・冷却インフラを支える企業への注目が高まっています。しかし、最新の市場分析からは、こうしたインフラ企業の評価額高騰と利益率の課題が浮き彫りになりつつあります。本記事では、米Vertiv社の動向を切り口に、AI活用における「物理的なコストとリスク」を再考し、日本企業がインフラ選定やコスト試算を行う上で考慮すべきポイントを解説します。
ソフトウェアの裏にある「熱」と「電力」の現実
生成AIや大規模言語モデル(LLM)の議論は、モデルの性能やアプリケーションの利便性に集中しがちです。しかし、足元のグローバル市場では、それらを支える「物理インフラ」への関心が急速に高まっています。データセンター向けの電力管理・冷却システムを提供するVertiv(バーティブ)社のような企業の株価動向は、AIの物理的な側面における期待と過熱感を象徴しています。
Seeking Alpha等の市場分析によると、Vertivのようなインフラ企業は、NVIDIAのようなチップメーカーと比較して利益率が低く、現在の株価収益率(PER)35倍という評価はリスクが高いとの指摘があります。これは、AIビジネスにおいて「チップ(計算資源)」が依然として最大の付加価値を持つ一方で、それを稼働させるための「ハコ(設備)」は、競争が激しく、コスト圧力が高いことを示唆しています。
日本企業が直面するインフラコストの構造変化
この動向は、日本のAI実務者にとっても対岸の火事ではありません。GPUの性能向上に伴い、データセンターのラックあたりの消費電力と発熱量は劇的に増加しています。従来の空冷設備では対応しきれないケースが増え、液冷システムなどの高度な設備投資が必要となっています。
インフラ企業の利益率が圧迫されている現状は、将来的にデータセンターの利用料金や、オンプレミスでAI基盤を構築する際の設備コストへの転嫁として跳ね返ってくる可能性があります。特にエネルギーコストが高く、円安の影響を受ける日本国内において、AIの運用コスト(TCO)を見積もる際は、単なるGPUの価格だけでなく、こうした「冷却・電力コストの上昇トレンド」を織り込む必要があります。
「ソブリンAI」と国内データセンターの課題
日本国内では、経済安全保障や機密情報保護の観点から、学習データを海外に出さない「ソブリンAI(主権AI)」や国内データセンターへの回帰が進んでいます。しかし、AIに特化した高密度なデータセンターを国内で確保することは容易ではありません。
首都圏では電力供給の制約や地価の問題があり、地方分散型のデータセンター構築も進められていますが、ネットワーク遅延(レイテンシ)や運用体制の課題が残ります。インフラ関連企業の評価額が高止まりしている現状は、国内データセンター事業者にとっても設備投資の負担増を意味し、結果としてユーザー企業への提供価格が高止まりするリスクを孕んでいます。
日本企業のAI活用への示唆
グローバルのインフラ市場動向を踏まえ、日本の意思決定者やエンジニアは以下の点に留意してAIプロジェクトを進めるべきです。
1. AIコストモデルの再構築
API利用料やGPUクラウドの単価は、短期的には競争により下がる可能性がありますが、中長期的には電力・冷却設備のコスト増が下支え要因となる可能性があります。事業計画において、インフラコストが下がることのみを前提とせず、保守的なシナリオを持っておくことが重要です。
2. クラウドとオンプレミスのハイブリッド戦略
すべてのワークロードを最新のGPUで処理する必要はありません。推論処理においては、エッジデバイスや、より安価な旧世代のGPU、あるいはNPU(Neural Processing Unit)を活用するなど、処理内容に応じた「適材適所」のインフラ選定が、コスト競争力の源泉となります。
3. グリーン・トランスフォーメーション(GX)との連動
AIの消費電力増大は、企業のサステナビリティ目標(脱炭素など)と相反する可能性があります。省電力性能に優れたインフラ選定や、再エネ由来の電力を使用するデータセンターの活用は、単なるコスト削減だけでなく、企業のESG評価やブランド価値を守るための必須要件となりつつあります。
AIは魔法ではなく、膨大なエネルギーを消費する物理的な産業活動です。インフラ企業の市場評価におけるリスク要因を正しく理解し、足元のコスト構造を冷静に見極めることが、持続可能なAI活用の第一歩となります。
