在Microsoft Ignite 2024大会上,全球科技巨头微软公司宣布了一系列关于Azure云计算和人工智能(AI)领域的创新服务与软硬件产品。其中,微软推出了其首款面向内部业务的数据处理器Azure Boost DPU,旨在大幅提升Azure数据中心的工作负载效率。
微软,入局DPU据悉,微软正在开发一款新的网卡,可以提高其Maia AI 服务器芯片的性能,并有可能减少该公司对芯片设计商Nvidia的依赖。
微软首席执行官萨蒂亚·纳德拉(Satya Nadella ) 已任命网络设备开发商瞻博网络 (Juniper Networks) 联合创始人普拉迪普·辛杜 (Pradeep Sindhu) 来领导网卡工作。报告补充说,这款新网卡类似于 Nvidia 的 ConnectX-7 卡。
NVIDIA ConnectX-7 网卡提供最多4 个连接端口和最高 400Gb/s 的吞吐量,可为云、电信、AI 和企业工作负载提供数据中心规模的硬件加速网络、存储、安全和管理服务。ConnectX-7 通过加速交换和数据包处理(ASAP2)、高级 RoCE、GPUDirect Storage,以及用于 TLS、IPsec 和 MACsec 加密和解密的内联硬件加速等功能,为敏捷、高性能网络解决方案提供支持。ConnectX-7 使组织能够在高带宽和高密度环境中满足当前和未来的网络需求。
为了协调工作,组成人工智能集群的服务器需要能够共享存储在各自内存池中的数据。数据共享请求通常必须经过服务器的中央处理单元。Nvidia 的 ConnectX-7 适配器包含一种名为 RDMA 的技术,可以绕过 CPU,从而显着加快数据检索速度。
该器件还具有其他一些性能优化功能。值得注意的是,它可以执行网络安全任务,例如加密数据流量,否则这些任务将由服务器的 CPU 执行,从而为应用程序提供更多的 CPU 容量。ConnectX-7 还卸载了检测数据传输错误所涉及的一些计算。
剑指英伟达,微软的底气在哪?大家都知道,芯片领域有个巨无霸——英伟达。这家公司已经在GPU领域称霸了,现在也盯上了DPU市场。但这次,微软直接杀出来,显然不是想给英伟达当陪跑。
1. DPU芯片是未来的大势
传统服务器架构主要靠CPU,但随着AI模型越来越复杂,CPU已经快扛不住了。DPU的出现,刚好解决了这种“算力瓶颈”。
微软这次做DPU,等于是直接参与了下一代数据中心架构的变革,这一步不光是跟英伟达抢市场,更是为未来抢位置。
2. 微软的技术储备
别看微软以前主要搞软件,但在云计算和AI领域,它可是全球顶尖玩家。它有Azure的海量数据资源,有OpenAI的深度合作,还有自己积累的硬件经验。这些底子,让它能从技术到资金全面碾压小玩家。
3. 自己做芯片,摆脱依赖
微软如果继续买英伟达的芯片,成本只会越来越高。而且关键技术掌握在别人手里,随时可能被卡脖子。自己做DPU,不仅能省下大笔采购费,还能摆脱对供应链的依赖,增强自主权。这一步,简直是又精明又稳妥。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。