为了保障供电,AI公司转向核电

人工智能突飞猛进的落地所消耗的能源超过了美国电网的承受能力。人工智能的运营公司希望核电站能帮助满足他们的能源需求。
新闻资讯 AI 核电站
2024-07-11 17:29:50  |   作者:开源爱好者  |   来源:

为了保障供电,AI公司转向核电

人工智能突飞猛进的落地所消耗的能源超过了美国电网的承受能力。人工智能的运营公司希望核电站能帮助满足他们的能源需求。
新闻资讯 AI 核电站
2024-07-11 17:29:50
作者:开源爱好者
来源:

随着数据中心规模扩大,以运行更大规模的人工智能(AI)模型来满足迅猛的普及速度,为大量装有GPU的服务器供电需求急剧增加。

研究人工智能发展趋势的 Epoch AI 研究机构的一项研究显示,自 2010 年以来,人工智能大型语言模型(LLM)所需的计算能力每年增长四到五倍,其中包括 OpenAI、Meta 和谷歌 DeepMind 发布的最大模型。

图片3.jpg

与此同时,AWS、微软和Google等人工智能服务提供商一直在寻找电力供应商,以满足其数据中心日益增长的电力需求,这使它们与核电站不期而遇。白宫最近宣布计划支持开发新的核电站,作为其增加无碳电力或绿色电力来源倡议的一部分。

人工智能是能源吞噬者

世界经济论坛(WEF)称,维持人工智能崛起所需的计算能力大约每 100 天翻一番。该组织表示,按照这一速度,人工智能的发展亟需“与可持续发展的当务之急”保持平衡。

总部位于日内瓦的非政府组织智库指出:“这些进步对环境的影响往往被忽视。例如,要使人工智能模型的效率提高十倍,计算能力需求可能会激增一万倍。运行人工智能任务所需的能源已经在加速增长,年增长率在 26% 到 36% 之间。”

世界经济论坛表示:“这意味着到 2028 年,人工智能使用的电力可能超过冰岛全国在 2021 年使用的电力。”

简而言之,“人工智能并不环保”,科技行业研究公司 J. Gold Associates 的首席分析师Jack Gold说。

大型语言模型(LLM)是人工智能的算法基础,它们通过从互联网和其他来源收集的大量数据进行自我训练。这个过程——即训练人工智能模型(即LLM),而不是聊天机器人和其他基于这些数据为用户提供答案的执行过程(称为“推理”)——需要绝大多数的计算和电力。

虽然LLM不会一直在进行自我训练,但它们所在的数据中心需要始终保持峰值电力供应。“如果你打开家里的所有灯,你不希望它们变暗。这才是真正的问题所在,” Gold说。

“最重要的是,这些东西需要消耗大量电力。每次你插入一个英伟达H100模块或任何人的GPU时,它都会消耗一千瓦的电力。想象一下,如果有1万个或10万个这样的设备,就像埃隆·马斯克想要部署的那样,” Gold说。

电力争夺战愈演愈烈

与增加新的绿色能源以满足人工智能的电力需求不同,科技公司正在寻求从现有的电力资源中获取电力。据《华尔街日报》和其他消息来源称,这可能会提高其他客户的电价,并阻碍减排目标的实现。

据《华尔街日报》援引消息人士的话称,美国约三分之一核电站的所有者正在与科技公司谈判,为满足人工智能繁荣所需的新数据中心提供电力。

例如,AWS预计将与Constellation Energy达成交易,直接为这家云计算巨头提供来自核电站的电力。据总部位于宾夕法尼亚州的媒体报道,亚马逊的一家子公司还斥资6.5亿美元从该州的Talen Energy购买了一个核动力数据中心,并计划在其园区内新建15个数据中心,这些数据中心将使用核电供电。

Gold说,新电力上网的一个突出问题是核电站的建设需要十年或更长的时间。“电力公司在满足现在的需求方面确实存在问题。要建造新的核电站,你必须通过各种程序。这就是为什么现在国内会出现发电厂短缺的问题。在这个国家,一到大热天,就会出现停电现象。”

可用的能源可能会被出价最高的人获得。但具有讽刺意味的是,这笔电费将由人工智能用户而非其创造者和提供者承担。“是的,AWS每年要支付 10 亿美元的电费,但他们的客户每年要向他们支付 20 亿美元。商业就是这样运作的,”Gold说。

“有趣的是,比尔•盖茨投资了一家小型核电公司,该公司希望建造下一代发电厂。他们想建造新的发电厂,所以这就像是一个小型的西屋电气公司,”Gold说。“他可能说到了点子上,因为如果我们继续建造这些人工智能数据中心,我们就会需要这些电力。”

戈尔德补充说:“我们真正需要做的是找到绿色人工智能,而这将会很艰难。”

AWS表示,它已坚定地将目光投向可再生能源的未来,并制定了到2040年实现净碳零排放的目标,比《巴黎协定》提前了10年。该公司是全球最大的可再生能源采购商,希望到 2025 年,其运营所消耗的全部电力都能 100% 使用可再生能源。据该公司发言人称,目前已达到 90%。

“我们也在探索新的创新和技术,并投资于其他清洁、无碳能源。我们与 Talen Energy 达成的无碳能源协议就是其中的一个项目,”AWS发言人在回复《计算机世界》的电子邮件中说。“我们知道,像生成式人工智能这样的新技术对我们和我们的客户来说都需要大量的计算能力和能源容量,因此,在继续投资可再生能源的同时,我们还将探索和投资其他无碳能源,包括核能。”

发言人说:“在向无碳能源过渡方面,没有放之四海而皆准的解决方案,我们认为应该考虑所有可行的、可扩展的方案。”

人工智能作为基础设施规划者

美国能源部(DOE)正在研究日益增长的数据中心能源需求可能带来的潜在问题,以及这些问题如何对电网的安全性和适应性构成风险。该机构同时也在利用人工智能来分析和帮助维护电网的稳定性。

能源部最近发布的《人工智能促进能源报告》承认,“人工智能本身可能会导致负荷大幅增长,加重电网负担”。与此同时,能源部发言人表示,“人工智能有可能将能源基础设施的设计、许可、部署、运营和维护成本降低数千亿美元”。

人工智能驱动的工具可以大大减少整合和组织能源部不同信息源所需的时间,并优化其数据结构,以便与人工智能模型配合使用。

能源部阿贡实验室已经启动了一个为期三年的试点项目,通过多个工作流来评估使用基础模型和其他人工智能来改进选址、许可和环境审查流程,并帮助提高各机构审查的一致性。

发言人说:“我们正在使用人工智能来帮助支持高效的发电和电网规划,我们正在使用人工智能来帮助了解能源基础设施的许可瓶颈。”

人工智能模型的未来是更小,而不是更大

尽管亚马逊、IBM、谷歌等公司运营的大规模数据中心中运行的 LLM 不断扩大,需要更多的电力,但正在发生的转变可能会在减少未来电力需求方面发挥关键作用。

规模更小、更以行业或业务为重点的算法模型通常可以根据业务需求提供更好的结果。

IDC 对 2000 多名 IT 和业务决策者进行的一项调查显示,与 2022 年相比,企业计划在未来一年半内在人工智能计划上增加 10% 到 15% 的投资。全球66%的企业表示将在未来18个月内投资GenAI。在表示 2024 年将增加 GenAI IT 支出的企业中,内部基础设施将占总支出的 46%。问题在于:构建人工智能基础设施所需的关键硬件GPU供不应求。

拥有数千亿甚至上万亿个参数的 LLM 对计算能力的需求超过了它们所需的芯片的制造或升级速度;这可能会给服务器容量带来压力,并导致针对特定业务用途的模型训练时间变得不切实际地长。

领先的 GPU 制造商英伟达一直在为人工智能行业提供大部分处理器。英特尔和 AMD 等英伟达的竞争对手已宣布计划生产新型处理器,以满足人工智能的需求。

Gartner研究公司副总裁、杰出分析师Avivah Litan说:“GPU芯片的扩展迟早会跟不上模型尺寸的增长。"因此,继续把模型越做越大并不是一个可行的选择。”

此外,LLM 接收的随机数据越多,输出错误和不准确的可能性就越大。GenAI 工具基本上是下一个词的预测器,这意味着输入其中的错误信息会产生错误的结果。(LLM 已经犯下了一些备受瞩目的错误,并可能产生 "幻觉",即下一个词生成引擎偏离轨道,产生奇怪的反应)。

解决方案很可能是,LLMs 将缩小规模,使用那些希望利用人工智能自动化任务和分析大数据集的能力来产生有价值见解的组织的专有信息。

据彭博社报道,美国能源部清洁能源办公室负责基础设施的副部长David Crane表示,他“非常看好”所谓的小型模块化反应堆的新兴设计。

Gold说:“未来,无论如何都会有更多的人工智能在边缘设备上运行,因为它们都将基于推理,因此在两到三年内,这将成为80%到85%的工作负载。因此,这成为了一个更容易管理的问题。”