中美差距到底有多大?梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 现在不少人还在为中文大模型能多懂几句方言而沾沾自喜,却没看清一个残酷事实:我们一直在别人画好的赛道里追,哪怕跑得再快,游戏规则还是人家定的。 这差距根本不是“谁的模型算得更快”,而是“谁能开辟新赛道”的本质区别。这些看似亮眼的本地化优势,其实根本跳不出别人划定的技术框架。 就说现在全球主流AI大模型的核心根基——Transformer架构,是谷歌团队2017年原创提出来的。这种设计彻底抛弃了传统的循环结构和卷积操作,全靠自注意力机制干活,直接给现在大模型的并行训练、长距离依赖学习打了基础。 而国内不管是百度、阿里的大模型,还是各种初创公司的产品,本质上都是在这个架构上修修补补,优化下参数、适配下应用而已。 专利数量的漂亮数据,也遮不住原创能力的短板。截至2025年4月,中国AI专利申请量占了全球的38.58%,稳居世界第一,单是百度一家在生成式AI领域的专利申请量就排到了全球第一。 但关键问题出在专利质量和覆盖领域上:美国的AI专利数量虽然没中国多,但是获得海外认可较多,而且大多集中在芯片设计、底层算法这些核心领域;反观中国,专利大多都是做应用层的功能优化。 这种差距直接体现在技术话语权上——2024年中国AI相关论文引用量占全球总量的40.2%,而美国占比42.9%。这就意味着,在定义AI技术该往哪个方向发展的核心议题上,依然是美国占据着话语权。 而算力支撑上的依赖,更把这种原创与模仿的鸿沟拉得更大了。AI基础研究和原创模型训练,根本离不开高端芯片。 OpenAI训练GPT-4的时候,用了2.5万块英伟达A100芯片,花了90到100天,单是训练成本就高达1亿美元;马斯克的Grok3更夸张,直接投了20万张同款芯片。 再看国内企业,受外部限制影响,只能拿到性能打折扣的英伟达H800或H20芯片。就算华为的昇腾910C在部分任务上能接近H100性能的70%,但因为生态兼容的问题,还是没法撼动美国芯片的垄断地位。 之前DeepSeek团队靠2048块H800芯片,通过极致优化把训练成本压到了美国同行的二十分之一,可这种成本控制,终究只是在别人设定的硬件框架里做文章,根本突破不了算力底层的枷锁。 资金投入和产业模式的差异,更从根上影响着原创能力的培养。 2024年,美国私营领域的AI投资总额达到1091亿美元,单是亚马逊、微软这四大巨头,一年的AI投资就超过900亿美元,而且他们愿意为基础研究承担短期亏损; 而中国同期的私营AI投资只有93亿美元,还不到美国的十二分之一,而且资本更愿意投那些见效快、风险低的应用层项目。 这种差异直接导致了人才流动生态的差距:美国高校和企业之间的AI人才流动率有37%,形成了产学研协同创新的良性循环;中国这一比例只有15%,人才流动的壁垒很明显。 再加上国内AI领域女性从业者占比只有9.3%,远低于美国的20.1%,这也进一步限制了创新需要的多元思维环境。 国内明星AI企业Manus的发展历程,就是这种差距最鲜活的例子。这家诞生于中国的企业,靠AI浏览器插件Monica快速火了起来,后来推出的Manus智能体更是一度抢手到“一码难求”,还拿到了腾讯、红杉中国等国内资本的投资。 但它的核心技术严重依赖Anthropic的Claude等国外大模型,在国内的监管和技术限制下,最终只能把核心团队迁到新加坡,最后被Meta以数十亿美元收购。 这种看似“出海成功”的背后,其实是模仿型发展模式的必然困境——当核心技术和底层生态都要依赖外部时,企业终究摆脱不了被别人规则主导的命运,更没法为国内AI原创生态的培养出一份力。
