这几天,NVIDIA终于站稳了全球市值最高公司的台位,再加上孙正义一通后悔莫及,都为高性能AI的话题再添了把柴。
AI数据挖掘时代,NVIDIA无疑是那个赚得最为盆满钵满的那个,老黄亲自(虽然每次都是)站台的B200系列下一代GPU产品,终于有实体样机通过测试,释放出成绩来。而NVIDIA在B200系统上的一众合作伙伴,也都跟风炫耀自家通过认证并集成到首发系统里的“AI赋能+赋能AI”产品。
B200系统的首批公开测试基于HGX系统,就是集成有8颗GPU的高性能计算系统:下一代HGX B200 vs. 这一代HGX H200——基于Hopper 架构的H100后继机型,而后者也不过是去年此时刚刚露面,
在MLCommons MLPerf v4.1测试中,H200的HGX系统在GPT-3预训练测试中的性能较前代产品提升一倍!Llama 2 70B训练性能更是提升2.2倍。
参考NVIDIA网站上已经秀出的HGX B200与HGX H100之间的性能提升幅度,以及去年H200比H100的性能提升幅度,MLCommons MLPerf v4.1的测试结果还是十分可信的。
这样的性能提升,基于整体架构迭代的HGX系统:除了8颗1000W功耗级别的H200 GPU外,还有ConnectX-7 SuperNIC网卡、Quantum-2 InfiniBand交换机以及升级到第五代的NVLink互连总线加持。随着整个链路基于PCI-E 5.0体系升级,HGX的各个子系统以及各GPU之间的数据传输效能都成倍的提升,能够很好地打通通讯瓶颈,并平衡AI负载。
除了B200和B100等“主流产品“的性能不断曝光,早先在B200产品线上的高端型号,B200 Ultra预计将不复存在,因为这么好的性能,不再升级名字有点说不过去——改名为B300。相应的B200 Ultra后缀产品,也纷纷改名为GB300、B300A和GB300A,发货时间不变。
除了NVIDIA自己,其合作伙伴们也纷纷炫耀自家的产品进入B200/GB200家族机型。这不,西部数据就急不可耐地宣布他的企业级SSD产品DC SN861 E1.S PCI-E 5.0获得NVIDIA GB200 NVL72系统认证,并将随之规模出货。
加速芯片性能一路狂飙,模型规模越来越大,ConnectX-7 SuperNIC、Quantum-2 InfiniBand、NVLink、HBM3e等新特性不断加持,都是要打通数据传输瓶颈,而最初和最终的数据存储设备,SSD首当其冲地从容量和性能两个方面倍速提升。