DeepSeek创始人梁文峰再次语出惊人!他说:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。” 之前行业里有种默认的玩法,做AI大模型大多离不开“监督微调”的路子,简单说就是找一群高学历专家,把解题步骤一条条标好,像教小学生做题似的喂给模型,这法子看着稳妥,却藏着俩大问题。 一是成本高得吓人,博士生标注一道复杂题的时薪能到几百块,几百万道题堆下来就是天文数字。二是容易把模型框死,人的思维偏见和认知局限全跟着标注数据灌进去,模型再厉害也跳不出人类设定的天花板。 梁文峰和他的团队偏要绕开这条老路,他们搞的DeepSeek-R1模型,直接登上了《自然》封面,靠的就是一种反常规的思路,这模型训练时压根不用人标步骤,只看最终答案对不对给奖励,没想到这么一改,模型反而冒出了不少“灵气”。 它会自己延长思考时间,碰到错处能突然醒悟说“等等,我再算算”,甚至能试着走好几条不同的解题路径。这种“纯结果导向”的强化学习,算是把AI从“跟着人学”的框框里解放出来了,这就是原创探索的厉害之处。 更难得的是,DeepSeek把这套“武功秘籍”全公开了,以前不少公司把模型训练当成机密,参数细节藏得严严实实,外人只能看个热闹。可梁文峰他们不光在《自然》上刊登了完整论文,连学习率、采样温度这些关键参数,甚至解决“中英夹杂”问题的计算公式都摆了出来。 要知道这篇论文可是过了全球顶尖科学家的“同行评审”,能经得起这么较真的检验,本身就说明这套原创方法站得住脚。这种开放劲儿,跟那些捂着模仿来的技术不敢撒手的做法,简直是两个路子。 反观行业里的一些现象,确实能看出模仿的痕迹,不少团队拿到国外的基础模型,改改参数、调调数据,就敢说做出了“新模型”。短期看是快,能迅速推出产品抢占市场,可久而久之就陷进了被动。 人家在底层算法上动个大手术,这边就得跟着重新调整,永远追着别人的脚印跑,就像有人总说“AI+文化”做得火,北大团队用AI复原王献之《洛神赋》的例子确实精彩,可细想一下,核心的AI造字技术还是基于现有模型的优化,属于在成熟框架里做应用创新,跟DeepSeek那种开辟新训练路径的原创不是一回事。 梁文峰说“有些探索逃不掉”,这话里藏着股狠劲,原创哪有那么容易,DeepSeek搞R1模型可不是一蹴而就。 他们先打磨出DeepSeek-V3-Base这个扎实的基座模型,就像备好一块优质大理石,再用新的强化学习技术细细雕琢,中间还经历了Dev1、Dev2好几个版本的迭代,每个版本的性能数据都清清楚楚。 这过程没有捷径可走,得耐着性子试错、调整,比直接抄别人的方法累多了,但走出来就是一片新天地。 现在中国AI不缺应用场景,也不缺技术人才,缺的就是这种“啃硬骨头”的原创精神,美国AI能领先,靠的就是一个个从0到1的突破,从基础算法到训练框架,都是自己趟出来的路。 梁文峰的话其实是在提醒行业,别再满足于“跟跑”的舒适区,他自己带着团队做出的成绩,已经给同行打了个样,原创不是遥不可及的空想,只要敢跳出模仿的惯性,真刀真枪地去试去闯,中国AI未必不能走出自己的引领之路。 这种探索已经开始显现效果,DeepSeek公开的技术细节,已经让不少研究团队从中受益,有人照着他们的方法调整训练策略,真的提升了模型的推理能力。 这就像往一潭水里投了块石头,涟漪正在慢慢散开,或许用不了多久,会有更多团队加入原创探索的队伍,到那时中美AI的差距,才真有可能从“质”上缩小,毕竟AI这行,从来不是比谁学得快,而是比谁能先找到新方向。
纽约时报终于反应过来了,不过好像有点晚。纽时的观点称,如果两国都按照目前的轨
【24评论】【94点赞】