【科学强国】费电又费水!AI背后的“能耗”危机

 《小康》 ● 中国小康网   2024-05-29 17:16:21

  你知道训练一次大模型需要多少度电吗?有报告指出,OpenAI的GPT-3单次训练耗电量高达1287兆瓦时,也就是127.8万度电。

1716974171741359.jpg

图源:卡乐图片 摄影/宁颖

  更重要的是,除了耗电,AI其实也非常费水。除了芯片,让AI变得十分 “耗电”的还有风扇。如果没有不断吹过一排排计算机的冷空气,先进的芯片能将自己烧毁。

  简言之,耗能越多,热能越多。

  电力需求的翻倍增长

  AI发展带来的能源短缺问题,已经开始浮现。

  国际能源署近期发布的报告中预测,未来三年,全球对数据中心、加密货币和人工智能的电力需求将增加一倍以上,相当于一个德国的全部电力需求。到2026年,全球总体电力需求预计将增长3.4%。

  以网上流行的人工智能生成图片功能为例,每生成一幅图片,消耗的电量相当于一部智能手机充满电的电量。

  大规模部署人工智能的能耗更令人吃惊,据估计,从2027年起,仅人工智能新增的服务器,一年消耗的电量就相当于荷兰或瑞典这样国家的总耗电量。

  据美国《The New Yorker》杂志报道,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力,相当于美国家庭每天用电量的1.7万多倍。

  随着AI模型的规模不断扩大,电力成本也在不断上升。一些数据中心运营商为了应对运行AI应用程序产生的额外成本,已经开始提高商业租赁价格。

  AI大模型“吃水惊人”

  水的问题也是一样。过去几年,那些在AI大模型领域先行一步的大企业们,都面临水消耗大幅增长的局面。

  据美国消费者新闻与商业频道(CNBC)报道,加州大学河滨分校电气与计算机工程系副教授任绍磊的一项研究发现,ChatGPT每进行10到50次对话,就会“吞下”500毫升的水,而每个月都有数亿用户在这个平台提问,可见AI大模型是多么“口渴”。弗吉尼亚理工大学研究也指出,Meta公司在2022年使用了超过260万立方米的水,主要作用是为数据中心提供冷却。

  有研究者认为,AI的发展,是这些科技巨头用水量剧增的主要原因——要冷却疯狂发热的芯片,水冷系统是最常见的选择。为AI提供硬件基础的数据中心,如同一个巨大的“电热水器”。

  有调研估算,到2027年,全球范围内的AI需求可能需要消耗掉66亿立方米的水资源,相当于杭州西湖水量的450多倍、75个武汉东湖、9个云南滇池。

  换句话说,AI的高耗电耗水量也带来了经济成本的上升,这一成本最终转嫁到了消费者身上。

  如何减少能耗与碳排放

  AI 模型的优化,以及硬件技术的进步,都有望减少 AI 的能耗。

  一项发表于《科学》期刊的研究指出,在 2010-2018 年间,全球数据中心的运算量增长了 550%,存储空间增长了 2400%,但耗电量仅增长 6%。硬件、虚拟技术和数据中心设计方面的创新提升了能效,也使得云计算的规模化成为可能。

  同时,面对新技术带来的挑战,科技公司正在探索多种解决方案。一方面,通过优化算法提高效率,如模型量化和剪枝,减少计算量和电量消耗。另一方面,新型能源的投资也成为了一个重要方向。为了解决用电问题,微软和OpenAI都在布局核聚变发电装置。

  从国内情况来看,中国作为全球算力总规模排名第二的国家,正在通过提升AI和电力相关技术、优化数据中心软硬件技术,以及利用丰富的绿色电力资源来应对AI耗电问题。

  国家能源局发展规划司副司长赵莉日前在国家能源局2024年二季度新闻发布会上表示,国家能源局正在密切跟踪人工智能等高新技术发展趋势,分析研判电力需求增长态势,系统谋划保供举措,确保能源稳定供应与需求增长相适应。

  “我们将持续强化能源电力供应保障。发挥好化石能源兜底保障作用,加快煤电等支撑调节性电源建设,确保在迎峰度夏、度冬高峰前按预期进度投产,推动新能源发电平稳健康发展。一季度煤炭、天然气等能源库存保持高位,有效满足采暖季用能需求,全国发电装机达到29.9亿千瓦。加快电网项目建设,深挖电网跨区、区域电网内部余缺互济潜力,督促各地利用市场化方式提升需求侧响应能力。推动供需两侧协同发力,为满足日益增长的电力消费需求提供可靠保障。”赵莉说道。

  (科学强国”综合光明网、央视新闻、经济日报、财联社等)

  作者:风华

  审核:龚紫陌


作者:风华
责任编辑:风华
来源:科学强国微信公众号
热点文章
独家专稿