Ampere:新一代Arm 架构CPU为256核,继续用风冷

Ampere 将会成立一个工作组,以促进Arm架构人工智能芯片的联合开发。
新闻资讯 ARM CPU
2024-05-30 17:12:57  |   作者:开源爱好者  |   来源:

Ampere:新一代Arm 架构CPU为256核,继续用风冷

Ampere 将会成立一个工作组,以促进Arm架构人工智能芯片的联合开发。
新闻资讯 ARM CPU
2024-05-30 17:12:57
作者:开源爱好者
来源:

Ampere Computing 公司发布了新产品年度更新计划,包括增加其基于 Arm 架构的 AmpereOne 服务器CPU的内核数量,以及成立一个新的工作组,共同开发 AI SOC。

Ampere 的CEO、英特尔前高管 Renee James 表示,人工智能处理器对功耗的要求越来越高,这种情况无法持续,而 Ampere 提供了一种更好的功耗替代方案。她在一份声明中说:“目前的道路是不可持续的。我们认为,未来的数据中心基础设施必须考虑如何利用新一代计算技术改造现有的风冷环境,以及建设符合环境可持续发展要求的新数据中心,以适应电网的可用电力。这正是我们 Ampere 所能实现的。”

图片2.jpg

在处理器方面,公司的顶级 AmpereOne 处理器将从 192 个内核增加到 256 个内核,内存从 8 通道增加到 12 通道,从而扩大了内存带宽。Ampere 首席产品官 Jeff Wittich 表示,现有的 192 核 AmpereOne 可以放入 12 通道平台,使其保持向前兼容。

尽管核心数量巨大,但不需要液冷。“我们路线图上的所有产品都不需要液冷,因此人们可以轻松地在现有的数据中心基础设施内使用。我们将提供比现在更好的能效。”

Ampere 声称,在行业标准 Spec_Int 基准测试中,256 核 AmpereOne 的性能比 AMD Genoa(96 核)高出 50%,比 Bergamo(128 核)高出 15%。Wittich 表示,英特尔公司在内核数量方面没有可与之比较的处理器。

对于那些希望更新和整合旧基础设施以节省空间、预算和电力的数据中心运营商来说,部署AmpereOne 处理器每个机架的性能最多可提高 34%。

“因此,就 Spec_Int 速率而言,我们是最高效的解决方案,而且你显然也可以将其转化为机架级别的性能。”Wittich 表示,“AMD 和英特尔也已经开始更多地讨论这个问题。”

他承认该基准测试并不完全等同于真实的工作负载,但他表示,与Nginx、Redis、MySQL和Memcached等典型的工作负载相比,Ampere在竞争中处于领先地位。他说:“如果把所有这些放在一起,从机架层面来看,基于 AmpereOne 的服务器与 AMD Genoa 或 AMD Bergamo 相比,所需的空间和服务器数量都要少得多,功耗也要低 35%。”

另有消息称,Ampere 正在与高通合作,扩大采用 Ampere CPU 和高通Cloud AI100 Ultra 的联合解决方案的规模。该解决方案旨在解决业界最大的生成式人工智能模型上的LLM推理问题。

Ampere 还宣布,Meta 的 Llama 3 现已在 Oracle Cloud 的 Ampere CPU 上运行。Ampere 表示,性能数据显示,在不带 GPU 的 128 核 Ampere Altra CPU(AltraOne 的前身)上运行 Llama 3,其性能与搭配 x86 CPU 的 Nvidia A100 GPU 相同,而功耗仅为后者的三分之一。

最后,Ampere 宣布成立“通用芯片互联快车(UCIe)工作组”,作为其去年成立的人工智能平台联盟的一部分。这个由芯片设计人员组成的联盟旨在整合资源和人才,推动人工智能芯片的开发。UCIe 围绕开放式芯片集成而设计,提供了一个跨行业的开放标准,用于构建 SOC 级解决方案,将来自不同公司的芯片集成到 SOC 中。

“我们相信,整个行业都需要开放的解决方案,这些解决方案每个人都能广泛使用,而不是封闭的或专有的。因此,我们正在服务器层面构建这些同类最佳的解决方案,以加快产品上市时间,让人们有机会进入市场。”Wittich 表示。