英伟达GTC2025观察:BlackwellUltraGPU算力提升2.5倍;AI推理效率实现40倍跃升

金融界 2025-03-21 07:19:20

在3月17日至21日举办的英伟达GTC2025大会上,CEO黄仁勋发布了新一代旗舰芯片BlackwellUltraGPU,并宣布AI正式迈入“大推理时代”。BlackwellUltra通过12层堆叠的HBM3e内存将显存提升至288GB,FP4精度算力达到15PetaFLOPS,较前代产品性能提升2.5倍。尽管发布会后英伟达股价短暂下跌,但其技术布局仍为AI算力及泛科技领域指明方向。

BlackwellUltra重构AI芯片性能极限,HBM成关键突破

英伟达BlackwellUltraGPU的硬件革新聚焦于HBM(高带宽内存)技术升级。该芯片采用台积电N4P(5nm)工艺,整合两颗Blackwell架构芯片及GraceCPU,并搭载12层堆叠的HBM3e内存。这一配置不仅将显存容量提升至288GB,还使算力密度显著优化,推理任务效率较Hopper架构提升30倍以上。

未来四年,英伟达的芯片架构路线图已明确:BlackwellUltra之后,2026年将推出Rubin架构芯片,2027年升级至RubinUltra,2028年则迭代至Feynman架构。黄仁勋强调,HBM作为提升算力的核心要素,其技术壁垒仍由海外厂商主导。在中美科技竞争背景下,国内厂商正加速突破HBM技术,以推动供应链自主可控。

此外,Blackwell系列首次引入“AI工厂操作系统”Dynamo,通过动态分配计算任务至不同GPU,实现推理吞吐量最大化。基于Dynamo的Blackwell性能达到Hopper的40倍,标志着软硬协同生态的进一步完善。

AI推理需求爆发,算力基础设施加速迭代

黄仁勋在演讲中披露,2024年美国四大云服务商采购130万颗Hopper芯片,而2025年Blackwell架构芯片采购量已跃升至360万颗。预计到2028年,全球数据中心建设支出将达1万亿美元,AI推理需求成为核心驱动力。

针对推理场景,英伟达推出BlackwellUltraNVL72机柜,其AI性能较前代GB200NVL72提升1.5倍。以实际任务为例,Hopper架构芯片需1.5分钟完成的推理任务,BlackwellUltra仅需15秒。这一效率跃升得益于硬件性能优化及Dynamo系统的自动编排能力,后者可将开源模型推理速度提升30倍以上。

黄仁勋指出,AI正从生成式向“智能体(Agent)”和“物理AI(如机器人、自动驾驶)”演进,推理需求将呈指数级增长。英伟达同步布局硅光交换机、具身智能模型及6G网络技术,例如Quantum-X硅光交换机性能较传统产品提升3.5倍,人形机器人模型IsaacGR00TN1通过合成数据训练效率提高40%。这些技术将共同支撑未来AI工厂的规模化落地。

总结:英伟达GTC2025大会揭示了AI算力从训练向推理迁移的趋势,BlackwellUltra及配套生态的技术突破为行业设立新标杆。尽管短期市场反应平淡,但其在HBM、硅光网络及机器人等领域的布局,仍为泛AI科技的长线发展奠定基础。

本文源自:金融界

0 阅读:0
金融界

金融界

财经媒体、互联网金融、财富管理