毫无疑问,人工智能(下文简称“AI”)的浪潮正以前所未有的速度席卷全球,成为推动生产力进步和经济增长的新引擎。然而,在这波汹涌的技术浪潮之下,一个潜在的挑战却浮出水面,那就是紧张的电力供应。
据《纽约客》杂志报道,ChatGPT 每日耗电量或超过 50 万千瓦时,相当于美国家庭平均用电量的 1.7 万倍。无独有偶,科技巨头埃隆·马斯克也曾发出预警,在未来两年内,电能短缺很可能会成为AI发展的主要绊脚石。
不同 AI 模型的能耗和碳排放存在巨大差异。随着AI的进步、模型的增大,如何解决高耗能问题?随着AI技术的突飞猛进,“电荒”会否真的发生?
揭秘AI大模型耗电真相
为什么AI大模型如此耗能?
通常,市场会将钢铁、水泥等传统制造业视为耗电大户,而科技公司似乎关联不大。而事实却是,AI产业同样属于能源密集型产业。
训练大型的AI模型是一项能源密集型的工作:前期需要在庞大的数据集上进行反复的迭代运算,每一次迭代都涉及到数十亿、数百亿乃至数千亿个参数的调整。
这些计算过程的实质,是晶体管的不断开关,每一次的开关都需要电力的驱动。AI模型越大,计算结果就越精确,能解决的问题也越多,但相应的,耗电量也会随之剧增。
在前期乃至到了AI大模型上市后的使用期间,这种计算还需要不断地重复再重复,为大模型的优化迭代提供数据基础。这也意味着AI大模型对算力和电力的需求,似乎看不到“天花板”。
以文生图片技术为例,每生成一幅栩栩如生的图片,消耗的电量相当于一部智能手机充满电的电量。像英伟达H100型GPU芯片这样的高端芯片,是目前AI算法最常用的硬件之一,其一年的耗电量甚至超过了一个中等规模家庭的用电量。
当AI被大规模部署时,其能耗更为惊人。据预测,从2027年开始,仅新增的AI服务器每年所消耗的电量,就相当于荷兰或瑞典这样的国家一年的总耗电量。
英伟达创始人黄仁勋在近期演讲中表示:“AI的终极挑战是光伏和储能。我们不能只追求算力,如果只依赖计算机,我们需要消耗14个地球的能源。”
此外,AI的大量训练还需要强大的算力中心和散热能力。由于许多数据中心全年无休,且发热量巨大,大部分的电耗和水耗主要用于冷却。
水冷数据中心的统计数据显示,运行成本的六成是电费,而其中的四成多又用于冷却散热,这也导致了大量冷却水的消耗。而对风冷数据中心而言,六成多的耗电量都用于风冷,仅有不到四成的电力用于实际计算。如今,全球数据中心市场的耗电量已是10年前的近10倍。
绿色AI的可持续发展
随着生成式AI技术的飞速发展,其背后的电力需求逐渐浮出水面,引发了业界的广泛关注。
对于耗电量是否会成为未来生成式AI发展的掣肘,西安交大数字经济研究院数字服务中心首席科学家李家贵表示:“目前看还不是,但未来肯定是。假如按500瓦一台AI PC计算,每天耗电12度。假如20亿人同时用,就是每天240亿度。”
人工智能的迅猛发展必须以不大幅增加碳排放、不危及能源安全为前提。尽管当前AI用电规模尚未对电力系统构成严重威胁,但面对日益增长的电力需求,我们必须重新审视电力基础设施投资和产业布局,确保可持续发展。
我国作为全球电力供应和清洁发电体系的领跑者,拥有庞大的水电、风电和光伏发电规模。西部和北部地区丰富的可再生能源和土地资源为数据中心提供了理想的发展环境。
与此同时,东部地区的数据中心则面临着较高的运营成本。因此,引导数据中心向西部地区集聚,实现数据的差异化处理,不仅有助于绿电消纳和西部经济发展,还能推动数据中心低碳转型,确保能源安全。
展望未来,人工智能将深刻影响我们的生产生活。尽管能耗问题不容忽视,但我们有理由相信,通过技术进步、市场发展和生产力布局的优化,行业将找到平衡算力和能耗需求的解决方案,实现高质量发展。