超大规模数据中心的规模将在未来6年增长3倍
超大规模数据中心的规模将在未来6年增长3倍
作者:开源爱好者
来源:
急于拥抱人工智能,尤其是生成式人工智能,将促使谷歌和亚马逊等超大规模数据中心提供商在未来6年内将其容量增加近2倍。这是关注数据中心市场的 Synergy Research Group 得出的结论。在新近的一份报告中,Synergy 指出,虽然围绕人工智能有许多夸大其词的说法,但毫无疑问,生成式人工智能正在对 IT 市场产生巨大影响。 Synergy 最新的六年预测显示,新的超大规模数据中心的平均容量很快将达到目前运营的超大规模数据中心的两倍以上。在 2023 年至 2028 年间,所有运营中的超大规模数据中心的总容量将增长近三倍。 这项研究基于对全球 19 家主要的云计算和互联网服务公司数据中心基础设施和运营情况的分析。截止 2023 年中期,这些公司在全球运营着 926 个数据中心。根据 Synergy 对数据中心的发展预测,未来几年还将有 427 个数据中心投入使用。 Synergy 表示,人工智能技术进步的影响并没有推动数据中心数量的增加,而是导致这些数据中心所需的电力大幅增加。随着超大规模数据中心的 GPU 数量在人工智能的推动下激增,相关机架和数据中心设施的功率密度也需要大幅提高。这使得超大规模数据中心的运营商不得不重新考虑他们的一些数据中心架构和部署计划。 问题是,如果连 AWS 要管理这些东西都很头疼,对于一个只有5年运营服务器经验的普通企业来说会是什么样子? 虽然企业急于采用生成式人工智能来改善业务,但购置硬件和运营硬件的成本却让许多企业望而却步。英伟达的 DGX 服务器是专为生成式人工智能定制的,其硬件配置费用可轻松达到六位数。用这笔钱也可以买到 10 台左右的普通服务器。企业会优先考虑哪个选择? 另外还有运营它们的费用。Nvidia GPU 并非以低功耗著称。事实恰好相反,它们是数据中心的耗电大户。因此,对于预算敏感的企业,尤其是中型企业来说,部署生成式人工智能硬件可能会太昂贵了。 此外,人工智能的运行方式与传统的业务应用不同。首先是需要 GPU 的进程密集型训练任务,然后是根据 GPU 训练的模型进行推理。模型一旦训练完成,很有可能几个月都不需要修改。这样一来,非常昂贵的硬件就会闲置、不再被需要最后贬值。 企业能否在不使用超大规模云提供商的情况下自己完成这项工作? Synergy Research Group 首席分析师兼研究总监 John Dinsdale 说:“理论上是可以的,但成本可能过高,而且获得合适的专业技术的途径可能非常有限。” 因此,企业 IT 在生成式人工智能方面的新趋势是,将人工智能的训练部分外包出去,但在企业内部进行推理,因为推理的数据处理密度要低得多。既然可以从谷歌或 AWS 租借硬件,为什么还要投资数十万美元购买只是偶尔使用的硬件呢? 这就是所谓的人工智能即服务,是 AWS 和微软等超大规模企业推出的新兴服务种类。我们可以期待更多相关消息。 |