AI推动数据中心支出激增,2029年将超1万亿美元

AI正在推动数据中心发生前所未有的变革,预计到2029年,全球数据中心资本支出将从2024年的4300亿美元增加一倍多,达到1.1万亿美元。
2025-02-20 17:19:41  |   作者:开源爱好者  |   来源:

AI推动数据中心支出激增,2029年将超1万亿美元

AI正在推动数据中心发生前所未有的变革,预计到2029年,全球数据中心资本支出将从2024年的4300亿美元增加一倍多,达到1.1万亿美元。
2025-02-20 17:19:41
作者:开源爱好者
来源:

全球对AI技术的巨大需求正在推动数据中心增加对服务器、电力和冷却基础设施的支出。Dell'Oro Group的数据显示,到2029年,数据中心的资本支出将达到1.1万亿美元,高于2024年的4300亿美元。这种增长在很大程度上要归功于AI。

Dell'Oro分析师Baron Fung表示,企业现在将约35%的数据中心资本支出预算用于为AI优化的加速服务器,高于2023年的15%。到2029年,这一比例将增至41%。对超大规模企业来说,AI相关投资甚至更高,将有40%的预算用于加速服务器。Fung表示,这些服务器的成本比传统服务器高得多,传统服务器的成本通常在7000美元或8000美元左右。他告诉媒体:"AI服务器的价格可能在10万至20万美元之间,尤其是在配备最新的英伟达CPU的情况下。"他表示,仅亚马逊、谷歌、Meta和微软四家公司就将占今年全球数据中心资本支出的近一半。

290.jpg

Fung说:"最初,我预计大多数AI工作负载将出现在公共云中,而不是在本地,因为私有数据中心中的AI基础设施成本高,而且利用率可能很低。随着企业对AI工作负载的利用率有了更好的了解,他们可能会将工作负载带回本地。"

他说自己的预测考虑到了AI和数据中心效率的最新进展。例如,中国公司DeepSeek的开源AI模型表明,通过对模型的工作方式进行一些巧妙的架构更改,LLM可以以非常低的成本产生非常高质量的结果。这些改进可能会被其他AI公司迅速复制。Fung说:"很多公司都在努力推出更高效的模型。大家都在努力降低成本,提高效率。"

此外,超大规模企业正在设计和制造自己的芯片,以优化其AI工作负载。Dell'Oro预测,仅加速器市场预计到2029年就将达到3920亿美元。到那时,定制加速器将超过GPU等商用加速器。专用AI服务器的部署也会对网络、电力和冷却产生影响。因此,数据中心物理基础设施的支出也将增加,尽管增速较为温和,到2029年将每年增长14%,达到610亿美元。Dell'Oro Group创始人Tam Dell’Oro在报告中表示:"这些基础设施是支持AI工作负载的先决条件。"

这家研究公司之所以上调了预期,是因为2024年的实际结果超出了预期,而且需求正在从一级云服务提供商扩散到二级云服务提供商。此外,政府和一级电信运营商也参与到数据中心的扩张中,使其成为一种长期趋势。

网络也将受到AI的严重影响。预计到2029年,用于支持AI计算集群中后端网络的以太网网络适配器市场将以40%的复合年增长率增长。

AI也非常耗电。根据Dell'Oro的数据,目前每个机架的平均功率密度约为15千瓦,但AI工作负载每个机架需要60到120千瓦。

其他研究也支持这些增长预测。例如,根据研究公司IDC的数据,到2027年,与AI相关的数据中心能耗预计将每年增长45%,达到146太瓦时。麦肯锡称,十年前,30兆瓦的数据中心被认为是大型数据中心。如今,200兆瓦的设施被认为是正常的。麦肯锡预测,由于AI,平均功率密度在过去两年中增加了一倍多,从每机架8千瓦增加到17千瓦,预计到2027年将上升到30千瓦。训练像ChatGPT这样的AI模型每个机架的耗电量可能超过80千瓦,而英伟达最新的芯片及其服务器需要的机架密度高达120千瓦。

与此同时,目前的风冷系统的有效性上限约为每机架50千瓦。因此,数据中心运营商开始采用液冷。根据IDC在去年9月份发布的一份报告,拥有高密度机架的组织中有一半现在使用液冷作为主要的冷却方法。根据Uptime Institute 2024年的一份报告,对于一般的数据中心,22%现在使用液冷,另有61%正在考虑使用液冷。对于大型数据中心(20MW或更大),38%已经使用直接液冷。

液冷公司Accelsius的产品营销总监Lucas Beran表示,2024年是液冷的过渡年。2023年,随着企业完成了疫情引发的数字化计划,数据中心物理基础设施市场迎来了强劲的一年。进入2024年,设计变化开始在新的数据中心建设中体现出来。如果一家企业准备建设一个新的设施,就必须考虑液冷,即使刚一开始不需要它,也必须未雨绸缪。