美媒关注:训练出ChatGPT需要消耗多少电力?( 二 )


耶路撒冷希伯来大学教授罗伊·施瓦茨(Roy Schwartz)与微软的一个团队合作,测量了一个大型AI模型的碳足迹 。他表示:“显然,这些公司不愿透露他们使用的是什么模型,以及它排放了多少碳 。”
有些方法可以让AI更高效地运行 。能源咨询公司Wood mackenzie的本·赫兹-沙格尔(Ben Hertz-Shargel)表示,由于AI训练可以随时进行,开发者或数据中心可以将训练安排在电力更便宜或过剩的时候,从而使它们的运营更加环保 。AI公司在电力过剩时训练自己的模型,然后可以在营销中将其当成一大卖点,以此表明他们注重环保 。
芯片运行耗电量惊人
大多数数据中心使用图形处理单元(GPU)来训练AI模型,这些组件是芯片行业制造的最耗电组件之一 。摩根士丹利分析师本月早些时候发布的一份报告称,大型模型需要数万个GPU,培训周期从几周到几个月不等 。
AI领域更大的谜团之一是与所使用芯片相关的碳排放总量 。最大的GPU制造商英伟达表示,当涉及到AI任务时,他们的芯片可以更快地完成任务,总体上效率更高 。
英伟达在声明中表示:“与使用CPU相比,使用GPU来加速AI速度更快,也更高效 。对于某些AI工作负载来说,能效通常可以提高20倍,对于生成式人工智能必不可少的大型语言模型,能效则可提高300倍 。”
卢西奥尼说,虽然英伟达已经披露了与能源相关的直接排放和间接排放数据,但该公司并没有透露更多细节 。她认为,当英伟达分享这些信息时,我们可能发现GPU消耗的电量与一个小国用电量差不多,“这可能会让人抓狂”!(小小)

【美媒关注:训练出ChatGPT需要消耗多少电力?】


推荐阅读