NVIDIA Blackwell芯片效能显著提升,训练AI系统所需芯片数量大幅减少
来源:李智衍 发布时间:1 天前
分享至微信

据路透社报道,NVIDIA最新的Blackwell芯片在训练人工智能(AI)系统时表现出显著的效能提升,尤其是在训练大型语言模型(LLM)时,相较于前代Hopper芯片,所需芯片数量大幅降低。
测试结果显示,Blackwell芯片的运算速度比Hopper芯片快两倍以上。在具体测试中,2,496颗Blackwell芯片仅需27分钟即可完成对Meta开源AI模型Llama 3.1 405B及其他AI系统的训练任务。而Hopper芯片若要在相同时间内完成相同任务,则需要超过3倍数量的芯片。
与NVIDIA合作完成测试的CoreWeave产品长Chetan Kapoor表示,AI产业正朝着将较小的芯片群组串联成子系统方向发展,以执行独立的AI训练任务,而非构建超过10万颗芯片的同质性丛集。他指出,这种子系统串联的架构能够有效加速或缩短训练规模达到数万亿参数模型的时间。
本次测试由非营利组织MLCommons主办,该组织专注于AI系统基准效能研究,并定期发布包括NVIDIA、AMD等公司训练芯片的相关数据。尽管当前AI投资人的关注焦点逐渐转向AI推论和与用户互动的效能,但训练模型所需的芯片数量依然是重要议题,因为它直接关系到基础设施的建设以及后续的运营和能耗成本。
[ 新闻来源:李智衍,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!


李智衍
开创IC领域,共创美好未来!
查看更多
相关文章
联发科发布天玑9400+芯片,端侧AI能力大幅提升
2025-04-11
科德教育回应参股公司AI训练芯片进展
2025-05-07
AI服务器需求激增,MLCC地位显著提升
2025-05-23
Akamai推出AI推理解决方案,性能提升显著
2025-04-17
热门搜索