研究报告


AI数据中心资本支出拆解与未来展望

高科技产业研究报告

icon

发布日期

2025-10-16

icon

更新频率

不定期

icon

报告格式

PDF

icon

会员方案

  • AI Server 套餐_簡


    报告介绍

    本报告聚焦在分析典型超大规模AI数据中心的资本支出结构,将支出拆解为实体基础设施、IT运算设施及网络设备。其中运算系统投资最为显著,随着未来更高阶、更高功耗的AI服务器在新建置案中的比重持续上升,运算系统的成本占比预期将会进一步提高 。

    重点摘要

    • 运算系统投资占比高,主导整体资本支出。
    • 网络分前端与后端,核心为高带宽互连。
    • 后端网络采双层Spine-Leaf,确保非阻塞交换。
    • 前端网络连接服务器与骨干,布局高效流量。
    • 行业趋势:大型云端厂商持续扩大基础建设以支持AI。

    目录

    1. 前言
      • Distribution of Capex for Data Center
      • CRAH Is Better Suited for Large-Scale Data Centers Since It Has Lower Energy Consumption, Thus Achieving Lower PUE 
      • Data Center Capex: UPS Takes Largest Share After Building Structure
    2. 数据中心运算系统:平均每MW成本持续攀升
      • NVIDIA Remains the Dominant Player in AI Server Shipments
    3. 估计数据中心的网络系统平均每MW成本持续上升
      • Back-End Networks Advance from 800G to 1.6T; Front-End Networks Evolve from 100G/400G to 400G/800G
    4. 资本支出中服务器仍为主要构成,占比将随高阶 AI 服务器增加而上升
      • Servers Account for Roughly 60% of Capex; This Ratio to Rise as Adoption for High-End AI Servers Increases

    <报告页数:8>

    Data Center Capex: UPS Takes Largest Share After Building Structure


    报告分析师

    杨少帏




    AI Server 套餐_簡 相关报告



    2026年AI工厂基础设施展望:HVDC供电与全液冷趋势

    2026/03/27

    AI/HBM/服务器

     PDF

    AI工厂规模骤增驱动数据中心基础设施重塑。短期采独立电源机柜稳定电力,中长期朝集中式高压直流与固态变压器技术演进。此外,新世代AI架构全面导入液冷散热,使其从选配跃升为标配,带动跨域供应链深度协作。

    2026-2030 NVIDIA AI展望:GPU至LPU整机柜布局与推理趋势

    2026/03/17

    AI/HBM/服务器

     PDF

    NVIDIA为防堵云端厂自研芯片竞争,全面升级AI工厂布局,推出涵盖GPU、CPU与LPU的整机柜方案,双向通吃训练与推理市场。透过解耦合架构、光学互连及软硬件生态系,精准解决能效瓶颈并巩固霸主地位。

    2026 NVIDIA展望:GB300主流化与液冷趋势

    2026/02/26

    AI/HBM/服务器

     PDF

    NVIDIA受惠云端AI需求,营收与数据中心占比双创历史新高。北美CSP为主要动能,新一代GB系列成主流带动液冷普及过半。惟HBM4验证进度分歧恐递延Rubin平台放量,且高阶芯片输中仍具地缘政治高度不确定性。




    会员方案





    分類