MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄

7个月前 科技 40观看
摘要 目录- ML Commons的MLPerf基准测试:Llama-2-70b- 8x GPU:MI300X与H100-SXM旗鼓相当- 多GPU线性扩展评估、B100单卡表现优异- Tensor并行多卡NVLINK vs. PCIe效率- 选型参考:显存带宽是Token/s输

目录IO1喜好网-记录每日喜好的科技时尚娱乐生活

ML CommonsMLPerf基准测试:Llama-2-70bIO1喜好网-记录每日喜好的科技时尚娱乐生活

8x GPUMI300XH100-SXM旗鼓相当IO1喜好网-记录每日喜好的科技时尚娱乐生活

GPU线性扩展评估、B100单卡表现优异IO1喜好网-记录每日喜好的科技时尚娱乐生活

Tensor并行多卡NVLINK vs. PCIe效率IO1喜好网-记录每日喜好的科技时尚娱乐生活

选型参考:显存带宽是Token/s输出唯一决定因素吗?IO1喜好网-记录每日喜好的科技时尚娱乐生活

硬件参数、卡间互连与软件发挥IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

ML CommonsMLPerf基准测试:Llama-2-70bIO1喜好网-记录每日喜好的科技时尚娱乐生活

最近看到国外网站讨论NVIDIAAMD数据中心GPU的实际性能,我也想给大家分享点测试对比信息——来自第三方联盟组织ML Commons推出的MLPerf Inference: Datacenter基准测试。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

ML Commons有点像AI行业的spec.org。上图为组织的发起人成员,我看到除了IntelAMDNVIDIA等国外巨头之外,也包含有国内的公司阿里巴巴、华为、浪潮、宁畅、OPPO。显然,大家应该都是不希望在业内公认的基准测试中掉队,特别是AI这个如今火热的领域。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

上图是更多成员,我又看到了H3C、联想,以及几大服务器ODM厂商。包含的成员覆盖全面,通常推出的测试程序标准就比较公平,网站上公布的测试结果用来横向对比的参考价值也比较大IO1喜好网-记录每日喜好的科技时尚娱乐生活

本次解读MLPerf BenchMark中的项目,是使用Llama-2-70b大语言模型进行的推理测试。如下图:在最新的v4.1版本已公布结果中,只有除了各种型号的NVIDIA GPU之外,只有一款AMD Instinct MI300X。严格地说,在较早的v4.0测试中出现了Intel Gaudi 2的身影,但其性能水平应该与最新的Gaudi 3有些差距。所以本文不想引入更多分支剧情,专注于当前的MLPerf Inference: Datacenter v4.1IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

本文测试数据引用自https://mlcommons.org/benchmarks/inference-datacenter,上面只是部分截图。IO1喜好网-记录每日喜好的科技时尚娱乐生活

与大模型推理测试结果直接相关的,就是GPU的型号和数量。除此之外,我们还能看到更多信息,比如使用的服务器型号、CPU,以及软件平台环境等。参考上面截图,实际上NVIDIA GPULlama-2-70b测试中基本都是用CUDA+TensorRT;而AMD则是ROCm+PyTorch+vLLMPYTorch的流行度不用我说了吧,TensorRT可以理解为NVIDIA进一步加速的框架;vLLM如今的评价也是挺高的。IO1喜好网-记录每日喜好的科技时尚娱乐生活

上图中的测试结果处,可以看到llama2-70b-99llama2-70b-99.9两栏,而它们之间的Tokens/s数值又完全相同。我觉得这是一个有点容易让人混淆之处,具体区别指的什么呢?IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

参考上面图表,Llama2测试中的99%99.9%似乎指的是FP32所占的比重?但事实上推理计算通常不需要这么高精度的模型——另外载入显存的数据量也太大了。下表只是个简单的参考,KV Cache部分与上下文长度相关,就不展开讨论了。IO1喜好网-记录每日喜好的科技时尚娱乐生活

70b模型推理IO1喜好网-记录每日喜好的科技时尚娱乐生活

模型占用显存IO1喜好网-记录每日喜好的科技时尚娱乐生活

KV Cache…IO1喜好网-记录每日喜好的科技时尚娱乐生活

8bitIO1喜好网-记录每日喜好的科技时尚娱乐生活

70GBIO1喜好网-记录每日喜好的科技时尚娱乐生活

 

16bitIO1喜好网-记录每日喜好的科技时尚娱乐生活

140GBIO1喜好网-记录每日喜好的科技时尚娱乐生活

 

32bitIO1喜好网-记录每日喜好的科技时尚娱乐生活

280GBIO1喜好网-记录每日喜好的科技时尚娱乐生活

 

MLPerf Llama-2-70b推理测试实际上是用的FP8量化模型,下文中有我发现的证据。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama-2-70b推理测试结果中还分为OfflineServer两项,参考介绍如下:IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

ServerLoadGen 在启动时会在单个查询中将所有样本发送到被测系统(SUT)。IO1喜好网-记录每日喜好的科技时尚娱乐生活

Offline一旦被测系统(SUT)完成上一个查询,Loadgen 就会发送下一个查询。IO1喜好网-记录每日喜好的科技时尚娱乐生活

可以理解为Server是模拟服务器在响应查询请求,而Offline则是离线生成最大的压力,应该能把GPU跑得更满一点吧。IO1喜好网-记录每日喜好的科技时尚娱乐生活

8x GPUAMD MI300XNVIDIA H100-SXM旗鼓相当IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

首先我特别挑选出8x GPU(单机8卡)的测试结果,对于相同GPU型号和数量的多个测试结果,挑成绩最高的进行对比。另外对于70b这种尺寸的模型和数据中心GPU配置,单节点服务器就能容纳全部推理数据到显存,多节点的结果参考意义不大(类似于只是跑个多副本)。IO1喜好网-记录每日喜好的科技时尚娱乐生活

SXM/OAM GPU模组的比较中,8AMD MI300XToken/s测试数据与8NVIDIA H100-SXM-80GB相当接近;8H200-SXM-141GB则表现最好,还要领先40%左右。IO1喜好网-记录每日喜好的科技时尚娱乐生活

与上面的3GPU相比,8H100-NVL-94GB4组双卡NVLINK)、H100-PCIe-80GBL40S-48GB的性能差距依次都比较大。其原因我在下文中会具体分析。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

注意:Dell XE9680服务器其实也是双CPU配置(240核),8x SXM GPU的平台基本上都要服务器2 Socket插满吧。IO1喜好网-记录每日喜好的科技时尚娱乐生活

仅以上图表为例,不同测试平台MLPerf Llama-2-70b推理测试的结果影响不算太大,但还是有一些。同样是8MI300X GPUToken/s性能从低到高的3款服务器CPU分别为Xeon 8460Y+EPYC 9374FEPYC Turin(最新的9005系列,由于是preview结果没有写CPU核数),它们最大差距达到10%左右IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

上图引用自AMD1010日发布会上的资料,我在《AMD EPYC 9005 (Zen 5&5c) 服务器CPU架构解读》曾经引用过一部分,今天再看下GPU相关的。IO1喜好网-记录每日喜好的科技时尚娱乐生活

之前AMD官宣这个MI300X能达到H100最多1.3倍的性能,我个人猜测会不会统一使用PyTorch测试的?当然我并不了解更多的细节信息,所以只是一个猜测。IO1喜好网-记录每日喜好的科技时尚娱乐生活

至于H200AMD之前是拿MI325X来进行对比的。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

Instinct MI325X GPU是在2024 Q4正式出货的,也许我们在下个季度能看到它出现在MLPerf的榜单中?IO1喜好网-记录每日喜好的科技时尚娱乐生活

GPU线性扩展评估、B100单卡表现优异IO1喜好网-记录每日喜好的科技时尚娱乐生活

下面我将列出完整的测试图表,除了8 GPU之外,还有那些“单卡”、“4卡”的,其中包括有NVIDIA GH200 Grace Hopper Superchip以及NVIDIA B200-SXM-180GBIO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

从这里我们可以评估GPU的线性扩展效果。比如8个MI300X推理Token确实达到了单GPU的8;H200也是类似的情况。前面我说过MLPerf是测试的Llama-2-70b FP8量化模型推理,所以像L40S 4/8 GPU测试也能达到翻倍的结果,因为基本不需要跨两组“4卡”交互数据。IO1喜好网-记录每日喜好的科技时尚娱乐生活

NVIDIA B200-SXM-180GBGPU的数据确实优异,一块差不多能顶4H100-SXM-80GB了。目前这个测试成绩还是preview状态,估计早晚NVIDIA会公布Blackwell架构GPUBenchMark结果。IO1喜好网-记录每日喜好的科技时尚娱乐生活

Tensor并行多卡NVLINK vs. PCIe效率IO1喜好网-记录每日喜好的科技时尚娱乐生活

上面这个图表,看起来还是有点让人感觉复杂。为了进一步方便分析,我还想把算力折算到每个GPU来看看。在此之前,有必要先跟大家分享个重要的信息,也算是我从测试代码中发现的吧。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

--qformat fp8及右边的输出目录,是把Llama-2-70b量化到FP8的操作。IO1喜好网-记录每日喜好的科技时尚娱乐生活

90GB VMEM就是进行这个测试的门槛需求,也就是说显存达到90GB就可以跑tensor并行度1;而像H100 80GB这样的需要跑tensor并行度248GBL40S则需要—tp_size=4参数IO1喜好网-记录每日喜好的科技时尚娱乐生活

在有NVLINK或者AMD Infinity Fabric这类高速专用互连的情况下,跨卡的显存数据访问影响应该不大?而通过PCIe插槽的多卡tensor并行,理论上效率就要低一些了。IO1喜好网-记录每日喜好的科技时尚娱乐生活

选型参考:显存带宽是Token/s输出唯一决定因素吗?IO1喜好网-记录每日喜好的科技时尚娱乐生活

记得我在《LLM大模型推理测试 & AI PC选型指南 (1)》中讨论过端侧推理,Torken生成速度的决定因素经常是显存(内存)带宽,但也可能有由于算力、I/O因素受影响的情况IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

折线上的数值为GPU内存带宽,单位TB/sIO1喜好网-记录每日喜好的科技时尚娱乐生活

如上面图表,右边是496GB及以上显存的GPU;左边较低显存的是通过多卡测试成绩折算出来的“单GPU贡献”。(注:不代表单卡显存低于90GB就能把这个测试跑起来。IO1喜好网-记录每日喜好的科技时尚娱乐生活

B200是单位显存带宽Token性能发挥最好的,这一块NV目前的优势大家也不得不承认。IO1喜好网-记录每日喜好的科技时尚娱乐生活

H100-SXM-80GBH200-SXM-141GBGH200 96GBGH200 144GB4GPUToken性能基本上与显存带宽成正比关系Grace Hopper Superchip架构的效率相对要低一点,可能与其Arm CPU有关。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

PCIe形态的H100L40S GPU,其单位显存带宽能发挥出的推理性能,就要差一些了。这应该与tensor并行的跨卡显存访问瓶颈有关。只是我没想明白的是:H100-NVL-94GB——按道理超过90GB只要tensor parallelism=1就好了,即使走双卡NVLINK互连的效率也不错啊?IO1喜好网-记录每日喜好的科技时尚娱乐生活

硬件参数、卡间互连及软件发挥IO1喜好网-记录每日喜好的科技时尚娱乐生活

 GPU内存带宽 (TB/s)FP8 TFLOPS (非稀疏)TDP功耗 (W)
AMD Instinct MI300X-192GB5.32614.9750
NVIDIA L40S-48GB0.864733350
NVIDIA H100-PCIe-80GB21513350
NVIDIA H100-NVL-94GB3.9381671400
NVIDIA H100-SXM-80GB3.351979700
NVIDIA H200-SXM-141GB4.81979700
NVIDIA GH200 Superchip 96GB419791000*
NVIDIA GH200 Superchip 144GB4.919791000*
NVIDIA B200-SXM-180GB845001000

 IO1喜好网-记录每日喜好的科技时尚娱乐生活

注:GH200 Superchip1000W功耗中,还包含了72Arm CPUGPU部分大约也是700W左右吧。IO1喜好网-记录每日喜好的科技时尚娱乐生活

只好再看看GPU内存带宽之外的规格参数了。上表中我还列出了每款GPU的标称FP8浮点算力,以及TDP功耗。IO1喜好网-记录每日喜好的科技时尚娱乐生活

H100-SXMH200-SXMGH200的计算性能是一样的,前面我们看到,它们的测试表现主要受显存带宽影响。PCIe接口的H100,受限于350-400W的功耗,FP8算力要低一些。H100PCIe介面是PCIe 5.0 x16;而L40S则是PCIe 4.0 x16(还要跨4tensor parallelism),推理效率再低一些也是可以理解的IO1喜好网-记录每日喜好的科技时尚娱乐生活

根据L40S的表现,您是否也能大致推算出NVIDIA RTX 6000/5880 Ada,以及GeForce RTX 4090 (D)的推理性能?还记得我去年讨论“GPU禁令限制计算 & NVIDIA A800/H800/L40等替代分析” 时总结的表格吗?当然4090的显存只有24GB。像AMD MI300这样把显存做大还是有意义的,比如实际跑130B左右模型的8bit量化推理,加上KV Cache占用单卡14x GB显存就不见得能放下了。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

上面为网传图片,仅供参考IO1喜好网-记录每日喜好的科技时尚娱乐生活

这里我想低调提一下H20,由于显存带宽和卡间互连不在禁售的限制中,所以有人说它的推理性能与H100H800没有明显差距。类似情况应该还有AMD MI308XIO1喜好网-记录每日喜好的科技时尚娱乐生活

本文中没有讨论训练,及其相关的多卡互连效率——这个因素在AI大模型训练应用中的影响应该更明显。IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

在本月初的文章中,我曾列出过HGX H20-SXMH100/200外观形态一样的)以及MI300X-OAM8 CPU模组照片。上图是AMD Instinct MI325X平台。IO1喜好网-记录每日喜好的科技时尚娱乐生活

关于AMD,一方面我看到MI300X700-750W的功率水平上,提供了更高的显存带宽和算力指标。但今天似乎还没完全充分发挥出来?估计是ROCm等软件生态上与NVIDIA还有一定差距。所以留给AMD的任务不只是加强GPU的硬件能力——之前公布的roadmap中,2025年将推出MI350系列(包括MI355X),2026年是MI400系列IO1喜好网-记录每日喜好的科技时尚娱乐生活

MLPerf Llama大模型推理测试:一款GPU独战NVIDIA群雄IO1喜好网-记录每日喜好的科技时尚娱乐生活

根据AMD列出的数字,从ROCm版本6.06.2AI推理性能已经有很大提高。我也期待看到ROCm 6.2以及更新版本的实测表现。IO1喜好网-记录每日喜好的科技时尚娱乐生活

扩展阅读:《企业存储技术》文章分类索引更新(微信公众号合集标签)IO1喜好网-记录每日喜好的科技时尚娱乐生活
IO1喜好网-记录每日喜好的科技时尚娱乐生活

 IO1喜好网-记录每日喜好的科技时尚娱乐生活

展开全文
猜你感兴趣
华为Mate 70已经到店:数量有限 抢到赚到

华为Mate 70已经到店:数量有限 抢

11月19日

11-19 135阅读
吉利牛仔轻越野SUV广州车展预售,配备Flyme Auto系统‌

吉利牛仔轻越野SUV广州车展预售,

11-19 116阅读
李子柒:反商业化「顶流」

李子柒:反商业化「顶流」

沉寂1

11-19 110阅读
52岁浙商要搞AD钙奶,宗馥莉又有一战

52岁浙商要搞AD钙奶,宗馥莉又有一

带领

11-19 113阅读
咖啡界“老二”闭店上百家,星巴克们开始慌了?

咖啡界“老二”闭店上百家,星巴克

星巴

11-19 111阅读
味道研究所 | 橘黄变棕红 这口Q糯甜香深深烙印在你心间(味道研究所橘黄变棕红)

味道研究所 | 橘黄变棕红

© |菜头 遂昌乡村有着独特的

11-19 109阅读
柯震东吸毒后复出, 出演台湾剧《乩身》网友抵制!

柯震东吸毒后复出, 出演台

柯震东当年凭借着《那些年,我们一

11-19 91阅读
泰妍将在今天(18日)下午6点发布迷你六辑《Letter To Myself》

泰妍将在今天(18日)下午6

凭借《To. X》创造热潮的少

11-19 103阅读
《藏海花之暗巢汹涌》定档11月14日 古穴探险再寻迷踪嗜血凶怪惊悚升级

《藏海花之暗巢汹涌》定档

  改编自南派三叔原著小说《藏海花

11-19 114阅读
中国电影出海专业书刊《走向世界:华语电影的跨国流通与市场策略》正式发布

中国电影出海专业书刊《走

  在首届广州电影产业博览交易会上

11-19 122阅读
与柴犬开启治愈探险之旅!异世界动作冒险新游《妖怪之国》登陆Steam

与柴犬开启治愈探险之旅!异

在这个繁忙喧嚣的现代社会,我们时常渴

11-19 123阅读
帝国时代2秘籍大全_帝国时代2征服者/高清版秘籍(含隐藏秘籍)

帝国时代2秘籍大全_帝国时

帝国时代2秘籍是很多玩帝国时代2游戏玩

11-19 241阅读
原子之心激光模块解谜攻略

原子之心激光模块解谜攻略

原子之心游戏里面有一个被动安保激光模

11-19 124阅读
原神5个战斗性隐藏成就攻略

原神5个战斗性隐藏成就攻

5个战斗性成就是原神须弥地区的隐藏任

11-19 120阅读
饥荒宠物洞召唤宠物所需物品一览

饥荒宠物洞召唤宠物所需物

宠物洞是饥荒游戏里面的一个特殊场景,在

11-19 133阅读