DeepSeek创始人梁文峰再次语出惊人!他说:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。” 最明显的就是模型架构这块,有数据统计国产大模型90%以上都是基于现有架构做微调,说白了就是拿美国发明的Transformer或者MoE框架当底子,换层皮就敢叫“自主研发”。 就像OpenAI刚发布的gpt-oss系列,人家不光用了专家混合架构,还搞出交替密集和局部带状稀疏注意力模式,连令牌化器都开源了新的“o200k_harmony”版本。 这种从底层逻辑到工具链的原创突破,国内没几家能拿出来。 反观国内那些号称“对标GPT-4o”的模型,拆解开来看,核心的注意力机制、位置编码全是抄的现成方案,最多在参数规模上堆到万亿级别,可参数多不代表本事大。 基础研究的家底更是薄得可怜,斯坦福那份456页的报告早算得明明白白,2023年中国AI论文发表量占全球23.2%,看着挺唬人,可Top100高被引论文里只占34篇,美国却有50篇。 这意味着我们发表的大多是“跟着别人验证结论”的文章,人家提出一个新理论,我们跟着做实验找数据支撑,可真正能开辟新方向的原创研究少得可怜。 就像深度学习的数学基础、神经符号系统这些底层领域,美国学者早就开始探索,国内却还在琢磨怎么把别人的理论用在电商推荐、广告投放上,等于把金锄头用来挖野菜,根本没碰核心的原创难题。 而硬件层面的依赖更是把“模仿”俩字刻在了骨子里,2025年的行业调研显示84%的AI训练和微调还得靠NVIDIAGPU。 国内那些号称“自主研发”的AI芯片,要么是在制程上跟跑,要么是在架构上借鉴英伟达的设计,连最关键的算力生态都搭不起来。 人家英伟达有CUDA这套护城河,开发者用得顺手,软件硬件能无缝衔接,国内芯片就算参数勉强跟上,没有配套的工具链和生态,最后也只能当“摆设”。 就像有些企业花大价钱造了芯片,结果发现主流的AI框架根本不兼容,还得回头求着英伟达买A100,这种“造不如买”的惯性,本质上就是原创能力跟不上的无奈。 应用层面的热闹更像虚晃一枪,国内AI说得最多的就是“落地场景丰富”,外卖调度、直播美颜、支付风控确实做得风生水起,可这些全是在别人的技术地基上盖房子。 还有底层的深度学习框架,TensorFlow和PyTorch占了全球九成以上的市场,国内的飞桨就算喊了好几年口号,实际使用率连10%都不到,更别提建立自己的生态。 就像扩散模型是美国学者先搞出来的,国内立马跟风做AI绘画、AI视频,可从模型到训练方法全是照抄,甚至有些团队连数据清洗的逻辑都直接照搬,最后只是换了个“国风滤镜”就敢叫“原创突破”。 OpenAI的操作更是把原创优势展现得淋漓尽致,人家不光做模型,还在定义行业标准,gpt-oss直接开源了120b参数的模型,还附带了完整的训练方法论和安全评估体系。 甚至允许开发者在消费级硬件上部署,这相当于把“造积木的方法”都公开了,却依然不怕别人超越,因为人家早把下一代的技术路线想明白了。 而国内的AI企业还在盯着眼前的商业化,把大部分预算花在应用落地和市场推广上,基础研究的投入连美国企业的零头都不到。 有调研显示国内AI公司基础研究投入占比普遍低于15%,而微软给OpenAI的投入里光基础研究就占了40%以上。
DeepSeek创始人梁文峰再次语出惊人!他说:“我们经常说中国AI和美国有一两
小胖胖说科技
2025-10-16 18:39:06
0
阅读:2