三年后AI大模型训练成本或达1000亿美元

发布日期:2024-07-10     136 次

0.jpg

据Tom’s Hardware报道,AI新创公司Anthropic CEO Dario Amodei近日在Podcast节目《In Good Company》中表示,虽然AI大模型的参数持续增长,三年后的AI模型的训练成本可能将高达1000亿美元。

Amodei表示,OpenAI的ChatGPT-4等AI模型,大约只需要花费1亿美元即可训练完成。而当前正在开发中的更大参数的大模型,可能最多需要花费10亿美元来进行训练,预计未来三年,更大的模型的训练成本会快速膨胀至100亿美元,甚至是1,000亿美元。

对于AI大模型的训练来说,AI芯片是最大的成本。早在2023年,市场就传闻ChatGPT需要超过30,000颗英伟达的AI GPU来支撑,而OpenAI CEO阿尔特曼(Sam Altman)也确认,ChatGPT-4的训练成本为1亿美元。

除了OpenAI之外,谷歌、Meta、IBM、特斯拉、阿里巴巴、百度、腾讯、字节跳动等众多的科技大厂都有在开发自己的AI大模型。由此也带来了对于高性能AI芯片的庞大需求。根据TechInsights的数据,2023年全球数据中心GPU总出货量达到了385万颗,其中英伟达一家就出货了376万颗。而英伟达出货的H100加速卡的售价超过2.5万美元。而英伟达的新一代AI GPU B200每颗售价至少30,000~40,000美元左右。

如果按照每年新的大模型的能力都能够提升10倍,那么所需的硬件基础设施的性能可能也需要增强10倍,虽然所需的AI芯片数量可能不会增加10倍(每年新一代的AI芯片的性能都会提升),但是考虑到尖端制程芯片的成本越来越高,所需要花费的硬件基础设施的成本可能会增加10倍。如此看来,三年后,更强大的AI大模型的训练成本确实有可能会达到1000亿美元。

Amodei相信,随着算法、芯片的持续进步,2027年之时,AI模型执行任务的表现,有相当高的机率会比多数人类还要好,即实现通用人工智能(AGI)。

当然,这可能需要1000亿美元的训练成本,而这么大规模的资金投入只有极少数的厂商能够负担的起。但即便是投入如此大规模的资金,短期所能够带来的营收可能也非常有限。

Sequoia Capital分析师David Cahn表示,目前AI大模型的龙头厂商OpenAI的营收正在快速增长,其2024年的营收有望从2023年底的16亿美元上升至34亿美元,远远超越其他营收还无法达到1亿美元的厂商。这与未来需要100亿美元甚至1000亿美元的硬件基础设施的AI大模型训练成本相比,这点来自AI的收入可谓是杯水车薪。

David Cahn相信,业界不能期待AI投资能快速带来回报,同时还需意识到当前投资计划的投机本质,并持续创新、创造价值。若不这么做,则这个价值数千亿美元的泡沫势将破裂,甚至可能引发全球经济危机。



为您精选

寻找更多销售、技术和解决方案的信息?

关于绿测

广州绿测电子科技有限公司(简称:绿测科技)成立于2015年11月,是一家专注于耕耘测试与测量行业的技术开发公司。绿测科技以“工程师的测试管家”的理念向广大客户提供专业的管家服务。绿测科技的研发部及工厂设立于广州番禺区,随着公司业务的发展,先后在广西南宁、深圳、广州南沙、香港等地设立了机构。绿测科技经过深耕测试与测量领域多年,组建了一支经验丰富的团队,可为广大客户提供品质过硬的产品及测试技术服务等支持。

绿测工场服务号
绿测工场服务号
绿测科技订阅号
绿测科技订阅号
020-2204 2442
Copyright @ 2015-2024 广州绿测电子科技有限公司 版权所有 E-mail:Sales@greentest.com.cn 粤ICP备18033302号