瑞承:ChatGPT耗电量刷屏,背后谁受益?

最近ChatGPT刷屏了,《New Yorker》发布了一篇《The Obscene Energy Demands of A.I.》文章,引发了不少官方媒体和专业自媒体的关注。

一时间,ChatGPT的用电量,让大家惊叹:ChatGPT每天处理大约2亿个用户请求,每天消耗电力50万千瓦时,相当于美国家庭每天平均用电量(29千瓦时)的1.7万多倍。更别提和中国居民家庭的每天平均用电量的对比了。

《New Yoker》在文中提到,根据荷兰国家银行数据科学家Alex de Vries的估算,预计到2027年,整个AI行业每年将消耗85至134太瓦时的电力(1太瓦时=10亿千瓦时)。这个电量相当于肯尼亚、危地马拉和克罗地亚三国的年总发电量。

(文末查看ChatGPT自己对这个问题怎么解)

1、AI的尽头是能源?

有不少人调侃,AI发展的尽头是能源。

其实无论是英伟达的黄仁勋,特斯拉的马斯克,还是Open AI的奥特曼都在不同场合表达过自己对AI能源消耗的想法。

黄仁勋在斯坦福大学演讲中就明确表示:“我们不能只想着购买计算机,如果只考虑计算机,我们需要烧掉14个地球的能源。超级AI将成为电力需求的无底洞。”

OpenAI的首席执行官萨姆·奥特曼也警告说,下一波生成型人工智能系统消耗的电力将远远超出预期,能源系统将难以应对。

马斯克也多次表达了对未来能源基础设施,尤其是电力和变压器短缺将成为AI技术突破运行的瓶颈,而这种电力短缺最早可能在2025年就会出现。

他表示:随着人工智能技术的进步和广泛应用,对能源的需求可能会急剧增加,尤其是在数据中心、大规模计算和智能电网等领域,这将对现有电力系统构成巨大压力。

那么,能源问题应该怎么解决?奥特曼有自己的答案。

今年1月,在瑞士达沃斯举办的“2024年度世界经济论坛”上,奥特曼讲述了自己的看法——AI的未来取决于清洁能源的(技术)突破,特别是光伏和储能技术的进步。

其实在去年5月份,奥特曼就和微软联手给核聚变发电厂下了购电订单。这家名为Helion的公司,成立于2013年,目前正力争在2028年以前,建成全球首座核聚变发电厂。

而Helion最大的投资人,就是OpenAI CEO山姆·奥特曼。他也是Helion的董事会主席。

国际AI的动向也影响了中国国内市场。

比如,外资突然看多宁德时代。3月10日,摩根士丹利发布报告,将宁德时代评级上调至“超配”,并设定目标价为210元。与此同时,国家发展改革委、国家能源局联合发布了《关于新形势下配电网高质量发展的指导意见》也带来了政策利好。

宁德时代在3月11日,单日涨幅达到了14.46%,而此前,2018年6月上市首日其单日涨幅43.99%,2021年1月4日单日涨幅15.09%。而光伏、锂电、储能概念板块,也有超过20个个股涨停。

2、数据中心也将受益?

《福布斯》在2023年11月做了一篇《As ChatGPT And Other AI Tools Increase Energy Demand, Here's What Investors Need To Know》的报道指出,Forrester Research的资深分析师Abhijit Sunil认为,数据中心和所谓的浸入式冷却系统提供商,都可能因生成式AI带来的计算需求激增而获益。

数据中心和AI有什么关系呢?信安环球投资有限公司董事兼产品策略师林钜业去年在瑞承的传承峰会上提到:“AI就是算力和数据的结合。数据非常重要,因为AI需要很多的数据来进行学习、训练,然后能够预测判断如何解决问题。超算中心可以想象成是一个大的机房,里面放着很多服务器,服务器把全部数据集中起来管理。”

而服务器的推动和运用需要很多电力以及冷却系统的支撑,无形中电力耗量非常大。

“超大型数据中心,它的规模耗电力应该在40—50兆瓦左右。我们在达拉斯建的一座超大型超算中心的规模电耗率大概43兆瓦,占地面积23英亩,大概13个足球场那么大,”林钜业介绍说,“超算中心的大型用户主要有云端服务商,比如谷歌、脸书、微软,由他们管理和租用。但是目前从全球视角来看,在美国的数据中心出现了供不应求的情况。”

根据《福布斯》报道,宾夕法尼亚大学电气与系统工程系、计算机与信息科学系教授Benjamin C. Lee,以及哈佛教授David Brooks发现,2015年到2021年间,超大型数据中心的用电量的复合增长率在25%,而可再生能源的增长却只有7%。

一方面,对可再生能源的投入是各家厂商的重要目标。而另一方面,建设或者优化升级数据中心,也是迫在眉睫,毕竟没有数据中心支撑,AI产业就无法正常发展。

然而,因为电耗量非常大,要找到好的地点建设数据中心不容易。据林钜业介绍,建设一个好的数据中心,要有4个要点,第一有电力供应,第二靠近邻里的人口,第三需要有光纤网络,第四要有最少的自然灾害。

因此,数据中心基础设施建设对地域选择也提出了一定的要求。

但不管怎样,2024年,在建设数据中心这件事上,美国科技巨头们用脚投票,齐上阵:2024年,超大型数据中心的运营商们,比如Meta准备投资8亿美元建设数据中心,微软要投资34亿美元在德国进行AI基础设施和云计算设施建设,Alphabet也准备扩建数据中心基础设施……

3、还可以怎么提升优化?

文章前面,提到了奥特曼和微软共同投资的Helion,据说就已经在工作中用到ChatGPT。因此,笔者基于《纽约客》的文章,和ChatGPT进行了探讨,对AI的能源消耗问题,有什么好的优化方案?其给出了如下答案:

改进模型效率:优化人工智能模型的设计和算法,以提高处理数据和进行推理的效率,从而降低能源消耗。这可能涉及更高效的模型架构、算法优化和参数调整,以确保在处理大规模数据时能够更加节能。

硬件优化:设计和开发专门针对人工智能工作负载的定制硬件,例如专用AI芯片或加速器,可以提高处理速度并降低能源消耗。这些硬件可以针对人工智能任务进行优化,从而提高效率并减少能源浪费。

节能策略:采取节能策略来管理人工智能系统的运行,例如调整系统的工作负载和资源分配,以降低能源消耗。这包括优化计算资源的利用率,根据需要动态调整资源分配,以及在不需要时将系统进入低功耗模式。

可再生能源:将人工智能系统部署在使用可再生能源的数据中心或云平台上,例如使用太阳能或风能供电的数据中心,可以减少对传统能源的依赖,降低碳排放并提高能源利用效率。

数据中心优化:改善数据中心的能源效率和管理,采用更高效的冷却系统、节能设备和智能能源管理技术,以降低整个数据中心的能源消耗。这可能包括优化数据中心的布局和设计,以最大程度地利用自然冷却和环境温度。

其中的观点,与黄仁勋、奥特曼,以及一些业界专家的想法异曲同工。

但仍需要看到,随着未来3年生成式AI持续井喷式的发展和能源需求增长,整个AI相关产业链如何更好地解决瓶颈,如何平衡AI技术的发展与环境可持续性之间的关系,依旧任重道远!

参考资料

1、As ChatGPT And Other AI Tools Increase Energy Demand, Here's What Investors Need To Know - Forbes

2、生成式AI有多耗能- 《环球时报》

3、新能源狂欢,宁王大涨14%!- 每日经济新闻

4、核聚变发电!微软和奥特曼再次联手了- 量子位

5、山姆·奥特曼欲重塑半导体行业,除了万亿美元还需要什么?- 中国科技信息杂志社

6、The Obscene Energy Demands of A.I.- New Yorker

风险提示:市场有风险,投资需谨慎。本文仅作为知识分享,不代表瑞承立场,不构成任何投资建议,对内容的准确与完整性不做承诺与保障。过往成绩表现不代表未来业绩,投资可能带来本金损失。任何人依据本文做出投资决策,风险自担,信息发布方不承担任何法律、法规及相关责任。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )