AI正在“吸干”全球电力 更可怕的事还在后面

近年来,人工智能(AI)的飞速发展引发了广泛的讨论与担忧。人们对AI引发的失业率纠结不已,而电力消耗问题更是成为了不可回避的话题。技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)最近在社交媒体X上表示,微软在训练其下一个大模型GPT-6时,正面临着电力供应的巨大挑战。

科比特指出,微软团队正在为电力带来的困扰而搭建IB网络(InfiniBand),将分布在不同地区的GPU连接起来。这是因为,如果将10万块H100芯片集中在同一区域,其高达7000万W的峰值功率将会导致当地电网瘫痪。每块H100芯片的峰值功率达到700W,数万块芯片聚集在同一电网中所产生的电力需求,早已超过了许多城市的日常用电需求。

《纽约客》的相关报道指出,像ChatGPT这样的AI工具,日常耗电或已超过50万千瓦时,虽然这一数字可能听上去并不可怕,但与加密货币和传统数据中心的能耗相比,却是冰山一角,目前AI的耗电量仍显得相对较低。

根据国际能源署(IEA)发布的报告显示,2022年,全球数据中心、人工智能及加密货币的耗电量共达460TWh,占全球总能耗的近2%。而IEA的研究进一步预测,在寻找解决方案的过程中,如果未能有效控制能耗,到2026年这些领域的电能使用量有可能暴增至1000TWh。如此庞大的电力需求,足以与整个日本的用电量相当。

尽管AI的能耗看似较低,但与其配套设施的能耗同样不容忽视。根据Uptime Institute的报告,全球大型数据中心的平均能效比约为1.59,即每消耗1度电,额外配套设施便会浪费0.59度电。其中冷却系统的能耗要占数据中心总能耗的40%。随着芯片的不断更新,数据中心的电力密度更加集中,这给冷却的需求带来了巨大的压力,许多企业开始探索更高能效的设计。

从全球范围来说,提升数据中心能效已成为各国政府的共识。欧盟和中国对大型数据中心的能效比提出了更为严格的要求,并鼓励使用可再生能源。美国的科技公司也在积极寻求新的电力来源,如直接从小型核电站购买电能,甚至通过AI技术优化电网运行效率来降低碳排放。

然而,全球气候变暖加剧的问题,也对电力供应的稳定性构成了威胁。IEA报告显示,2023年全球水力发电的占比降至三十年来的最低点,不足40%。极端天气事件,会加剧电网的压力,导致可能的大规模断电,增加新一代数据中心面临的挑战。

未来,如何平衡AI的发展与电力消耗之间的矛盾,将是一个需要长期关注的问题。各国政府和企业应携手探索更稳健的电力基础设施,以支持可持续的人工智能技术。同时,如何优化AI模型的训练过程、减少其对电网的依赖也值得各方深入考虑。

在当今数字化、智能化快速发展的背景下,认识到AI的巨大潜力与其伴随的电力消耗问题是非常重要的,也为未来的科技变革指明了方向。这要求我们必须采取合理有效的措施,既要支持创新,更要推动可持续发展。选择合适的AI产品,诸如"简单AI"这样的智能工具,用户在提升工作效率的同时,也能对电力消耗进行适度控制,实现商业效益与环境保护的双赢。总而言之,AI的发展不能仅仅追求短期利益,更要关注长远可持续的未来。

解放周末!用AI写周报又被老板夸了!点击这里,一键生成周报总结,无脑直接抄 → https://ai.sohu.com/pc/textHome?trans=030001_yljdaikj返回搜狐,查看更多

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
作者声明:本文包含人工智能生成内容
阅读 ()