海外彻底沸腾!中美大模型战场又被投下一枚炸弹!
3月6日凌晨,阿里巴巴发布了通义千问QwQ-32B模型。这跟DeepSeek R1一样属于推理模型。而且这一320参数的新模型比肩满血版DeepSeek,被老外们玩疯了!
可以说是放了个大招,让海外开发者震惊不已,要知道,后者比QwQ-32B的参数量要大出20倍有余。
老外晒出了QwQ-32B在M4芯片苹果MacBook上运行飞快的推理速度,感叹太疯狂。科技大佬、Hyperbolic Labs联合创始人兼首席技术官Yuchen Jin则写道:“小模型太强大了!”
在测试数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,QwQ-32B表现与DeepSeek-R1相当,远胜于o1-mini及相同尺寸的R1蒸馏模型!
QwQ-32B打了一场漂亮的翻身仗,闭源的o1-mini可是OpenAI的王牌推理模型。去年o1-mini发布时,OpenAI的CEO Sam Altman在社交媒体上表示:AI的“耐心时刻”已经结束。谁成想没过半年,o1-mini就被开源的QwQ-32B全方位碾压。
有心急的海外开发者连夜@各大第三方API托管方,别睡了起来嗨!赶紧起来干活了!
外网彻底沸腾,中国AI俨然成为科技明星,无比震惊的老外们称QwQ-32B又是一项“疯狂”的进步。
海外网友为之疯狂也是可以理解的,QwQ-32B性能强大就不说了,关键是性价比太香了!同其他部署昂贵的头部大模型比,QwQ-32B在消费级显卡上就能实现本地部署。如果将QwQ-32B添加到代码能力与输出token成本的图表中,它用约1/10的成本就能达到DeepSeek-R1与o3-mini-high之间的性能,这样极致的性价比前所未有!
还有科技博主做了评测,671B满血版DeepSeek R1在FP16精度下需要1400G的显存,QwQ-32B只需4张4090就能跑,将近15倍的差距,大大降低了门槛。更值得注意的是,阿里云采用了宽松的Apache2.0协议,将QwQ-32B模型向全球开源,所有人都可免费下载及商用。
这对于很多普通企业、个人开发者、创业团队或者专业做AI应用的公司来说,无异于天降神兵。毕竟,对于大多数的企业垂直场景,一个优秀的32B的模型真的已经足以应付很很多,没必要非得上600多亿参数。用中等成本,拿到一个足以对标DeepSeek R1的逻辑推理、数学推理、代码思考能力的开源大模型,还能在自家环境中任意调试、微调、二次开发,这简直太香了!
阿里云这次开源QwQ-32B,提振了人们对开源模型的信心,中国不必搞天价设备和超大规模,一样可以跟国际顶流较量。阿里云这是给中国企业送上了超强外挂啊,好样的!中国AI问鼎全球,指日可待了!