AWS 与 Nvidia 合作开发AI超级计算机 Project Ceiba
AWS 与 Nvidia 合作开发AI超级计算机 Project Ceiba
作者:开源爱好者
来源:
AWS和英伟达正在扩大其人工智能领域的合作伙伴关系,其中一项关键举措是将超级计算机与 AWS 服务集成,并由英伟达自己的研发团队使用。 AWS和Nvidia(英伟达)宣布扩大合作,包括计划为 AWS 的人工智能基础设施增加超级计算能力。两家公司在拉斯维加斯举行的 AWS re:Invent 大会上宣布了这一消息。 其中最大的举措是Project Ceiba,这是一台超级计算机,将由AWS托管,供Nvidia自己的研发团队使用。两家公司表示,它将配备16384个Nvidia GH200超级芯片,能够处理65 exaflops的人工智能。Project Ceiba 超级计算机将与一系列 AWS 服务集成,包括亚马逊虚拟私有云(VPC)加密网络和Amazon Elastic Block Store高性能块存储。 Nvidia 计划将这台超级计算机用于研发,以推进人工智能的 LLM、图形和仿真、数字生物学、机器人、自动驾驶汽车、Earth-2 气候预测等方面。 AWS 宣布,采用 Nvidia L40S GPU 的新亚马逊 EC2 G6e 实例和采用 L4 GPU 的 G6 实例也正在开发中。L4 GPU的规模比Hopper H100小,但能效更高。这些新实例面向初创公司、企业和希望尝试人工智能的研究人员。 Nvidia 还分享了将其 NeMo Retriever 微服务集成到 AWS 的计划,以帮助用户开发生成式人工智能工具(如聊天机器人)。NeMo Retriever是一个生成式人工智能微服务,它能让企业将定制的LLM与企业数据连接起来,这样企业就能根据自己的数据做出智能的响应。 Nvidia 创始人兼CEO黄仁勋在声明中表示:“生成式人工智能正在改变云工作负载,并将加速计算作为多样化内容生成的基础。在为每一位客户提供高性价比、最先进的生成式人工智能这一共同使命的驱动下,Nvidia 和 AWS 正在整个计算领域中开展合作,涵盖人工智能基础设施、加速库、基础模型和生成式人工智能服务。” 另有消息称,AWS将成为首家将Nvidia的GH200 Grace Hopper超级芯片引入云计算的服务商。Nvidia GH200 NVL32多节点平台通过Nvidia的NVLink和NVSwitch连接32个Grace Hopper超级芯片。该平台将在连接亚马逊网络、虚拟化(AWS Nitro System)和超大规模集群(Amazon EC2 UltraClusters)的亚马逊弹性计算云(EC2)实例上提供。 AWS 将托管用于人工智能的 Nvidia DGX Cloud GPU 集群。AWS 上的 DGX Cloud 将加速生成式人工智能和 LLM 的训练,其参数可超过 1 万亿个。 |