今年以来,全球AI界“顶流”应属国产骄傲DeepSeek,这款以高性价比路线闻名全球的爆款AI大模型,于24日-28日启动了“开源周”,陆续开源5个代码库,引发业内外高度关注。

开源首日,DeepSeek发布FlashMLA,被称为高性能显卡(Hopper GPU)的“AI加速工具”,不少网友感慨此举为“源”神启动;
第二日,DeepSeek官宣开源代码库DeepEP,它是首个用于MoE模型训练和推理的开源EP通信库;

今日发布第三个开源代码——DeepGEMM,是一款专注于FP8高效通用矩阵乘法(GEMM)的库,能够动态优化资源分配,从而显著提升算力效率,是DeepSeek-V3/R1模型保证了高性能、低成本的关键所在。
如今,DeepSeek频频扔出“王炸”,让业内外看得好不热闹。
有细心的小伙伴或许发现了——第二日开源的DeepEP有点意思,专攻模型训练与推理中的另一个关键环节——通信,通过提升MoE模型训练和推理过程中的通信效率,相当于给全世界大模型训练按下“加速键”。

当DeepSeek打出一张张AI“王炸”之际,不知三大运营商作何感想,会不会倒吸一口凉气?
一边,全面接入DeepSeek,电信、移动分别与中国石化、中国石油展开合作,实现了“满血DeepSeek”国产化私有部署,“AI+”行动在DeepSeek的助力下全面提速;
另一边,自家AI大模型的主攻方向是否要根据实际情况进行合理调整,也是三大运营商现阶段必须要确定的战略方向。
知己知彼,方能百战不殆先来看看DeepSeek放出的“大招”DeepEP。
我们要了解DeepEP,首先要认识MoE模型,它的全称是混合专家模型,你可以把它想象成一个训练大模型的“超级团队”。
这个团队由不同领域的“专家”组成,每个专家都有自己的特长。比如:有的专家擅长数学题,有的专家擅长写作文,有的专家擅长画画。

当你遇到问题时,MoE模型会快速分析判断这个问题,并交给相关领域专家处理。MoE模型的核心思想就是:分工合作——每个专家只做自己擅长的事;动态选择——根据任务类型,灵活选择最合适的专家。这样,整个团队的工作效率就非常高!
如果说MoE模型是个“超级团队”,那么DeepEP则是这个“超级团队的Leader”。
在MoE模型中,专家们需要频繁沟通地传递数据,如果沟通效率低下,数据就会堵在路上,整个团队的工作速度就会变慢。

DeepEP作为这个团队的Leader,便为团队设计了全新的“通信优化通道”,优化运输流程,只调用需要的专家,避免浪费算力,让数据传递更快、更省资源,最终让整个模型训练和推理的效率大幅提升。
过去,三大运营商都在搞自己的行业大模型,移动的“九天”、电信的“星辰”,更注重行业定制化和垂直场景应用,但也绕不开成本高(训练贵)的“魔咒”。

DeepEP的开源为运营商提供了优化底层技术的新方向,可集成到自家AI大模型之中,有利于运营商基于此打造更高效的客服或网络优化模型,构建更完善的大模型生态体系。
因此,DeepSeek的开源“王炸”,一方面,对“九天”和“星辰”来说,能够加快其模型训练速度更快、降低成本。例如,原本需要2000台GPU的训练任务,现在可能只需几百台即可完成。

另一方面,DeepEP的开源降低了MoE模型的技术门槛,更多企业和开发者可以基于DeepEP快速构建高效模型,这可能会削弱运营商在技术上的独特性,导致竞争加剧,压力倍增。
总的来说,就像三大运营商迫不及待全面接入DeepSeek一样,DeepEP的开源“王炸”,运营商用好了,也将成为他们向科技创新型企业蝶变的AI“神助攻”!