IT Home在2月12日报道说,非营利性人工智能研究公司Epoch AI发布了一项有关Chatgpt能源消耗的新研究,指出其能耗水平可能远低于以前的一般看法。
以前,一个被广泛引用的数据表明,Chatgpt将消耗大约3瓦的功率来回答问题,这是Google搜索的10倍。但是,Epoch AI研究人员认为这些数据被高估了。通过分析OpenAI的最新默认模型GPT-4O,Epoch AI发现Chatgpt的平均查询能量消耗约为0.3瓦,低于许多家用电器的能耗水平。
Epoch AI的数据分析师Joshua You告诉TechCrunch:“与使用普通电器,调节室内温度或驾驶汽车相比,Chatgpt的能源消耗毫无疑问。”
它的房屋注意到,随着AI行业的快速发展,其能源消耗问题和对环境的影响已成为公众关注的重点。就在上周,有100多个组织共同发出了一封呼吁AI行业和监管机构的公开信,以确保新的AI数据中心不会过度消费自然资源,并避免依靠不可再生的能源。
约书亚·尤(Joshua Yu)指出,他进行了这项分析,因为先前的研究存在过时的问题。例如,得出3-WH能源消耗的研究假设OpenAI使用较旧的,效率较低的芯片来运行其模型。 “我已经看到了很多公众讨论,AI在未来几年中会消耗大量精力,但它并没有准确地描述AI的当前能量消耗。此外,我的一些同事都注意到每个查询都消耗电力的3Wh估计值是基于较旧的研究,并且根据初步计算,这个数字似乎太高了。”
尽管Epoch AI的0.3瓦时间数据是一个估计值,但由于OpenAI尚未发布足够的精确计算细节,因此这项研究仍然很重要。此外,此分析没有考虑到其他功能所消耗的功能,例如图像生成或ChatGPT的输入处理。特别是,与“长文件”附件等“长输入”(例如长文件附件)的查询比普通问题可能会消耗更多的功率。
但是,尤其是预期Chatgpt的基本能源消耗可能会在未来增加。他指出:“ AI将变得更加先进,培训这些AI可能需要更多的能量,并且未来的AI可能会更频繁地使用,并且可以处理更复杂和更多的任务,而不是现在使用Chatgpt的人。 。”
此外,OpenAI和整个AI行业的重点也正在转移到推理模型。与诸如GPT-4O之类的模型几乎可以立即做出响应不同,推理模型需要几秒钟甚至几分钟才能“思考”答案,该答案会消耗更多的计算能力,从而导致更高的能源消耗。
您说:“推理模型将越来越多地承担旧模型无法完成并为其生成更多数据的任务,这需要更多的数据中心支持。”尽管Openai已经开始推出更节能的推理模型,”他说,例如O3-Mini,但目前,这些效率的提高似乎不太可能抵消推理模型“思维”带来的额外能耗需求的需求过程和全球AI使用的增加。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://www.mjgaz.cn/fenxiang/274172.html