路透旧金山6月4日 - 周三发布的新数据显示,NvidiaNVDA.O最新芯片在训练大型人工智能$(AI)$系统方面取得进展,训练大型语言模型所需的芯片数量大幅下降。
MLCommons是一家发布AI系统指标效能结果的非营利组织,该组织发布了有关Nvidia和AMD(超威/超微)AMD.O 等业者的芯片在训练处理大量数据学习的AI系统的新数据。尽管股市中大部分的注意力已经转移到更大的AI推理市场(即利用人工智能系统处理用户的问题),但训练系统所需的芯片数量仍然是一个关键的竞争问题。中国的DeepSeek声称,他们打造出一款具有竞争力的聊天机器人,其系统使用的芯片比美国竞争对手少得多。
这是 MLCommons 首次发布关于芯片在训练AI系统方面表现的结果,例如Meta Platforms META.O发布的开源AI模型 Llama 3.1 405B,该模型具有足够多的所谓“参数”,可以表明芯片在世界上一些最复杂的训练任务中的表现,这些任务可能涉及数万亿个参数。
Nvidia 及其合作伙伴是唯一提交有关训练该大型模型的数据的测试者,数据显示,Nvidia 的新款 Blackwell 芯片的单芯片速度比上一代 Hopper 芯片快两倍多。
Nvidia新芯片最快的成绩是,用2,496块Blackwell芯片在27分钟内完成了训练测试。数据显示,若要比前述成绩更快完成训练,使用Nvidia前一代芯片的数量得是Blackwell芯片的三倍以上。
与 Nvidia 合作产生部分成果的 CoreWeave 首席产品官Chetan Kapoor 在新闻发布会上表示,人工智能产业有一种趋势,即串联多个芯片小组成为子系统,用于个别的人工智能训练任务,而不是使用10万个或更多芯片来创设同质组。
Kapoor 说:“使用这样的方法,他们能够继续加速或减少训练这些数万亿参数模型的时间。”(完)
(编审 张明钧)
((jeremy.chang@thomsonreuters.com; +886-2-87297935))
免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。