万相2.1开源,VBench榜单第一,这个成绩水分大吗?

豪哥说一说 2025-02-27 13:48:03

各位,先别急着给那些“AI颠覆世界”的言论点赞,也别轻易相信“AI绘画/视频吊打人类艺术家”的说法。

最近阿里云开源了个万相大模型,号称在VBench榜单上力压Sora,这事儿听起来挺唬人,但咱们冷静下来想想,这“第一”的含金量到底有多少?

Sora劲敌?

万相炸场!

这年头,AI模型层出不穷,你方唱罢我登场,个个都说自己是“最强”。

阿里云这次开源的万相2.1,主打的就是视频生成。

说是超越了Sora、Luma、Pika等等一众国内外模型,直接登顶VBench榜首。

听到这儿,估计不少人会眼前一亮,心想:“国产AI终于站起来了?

但别忘了,排行榜这东西,看看就好,别太当真。

VBench是个啥?

权威评测集?

这“权威”是谁定的?

评测标准又是啥?

这些都得打个问号。

就好比说,咱村的广场舞大赛,冠军水平能跟奥运会比吗?

当然,我不是说万相不行,毕竟敢开源出来让人体验,肯定还是有点东西的。

只是咱们得理性看待,别被“第一”的光环闪瞎了眼。

AI技术发展很快,但离真正“颠覆”还远着呢。

更何况,这次万相开源的是14B和1.3B两个参数规格的模型,这意味着啥?

意味着你可以免费体验,甚至可以拿来做二次开发。

这对于国内的开发者来说,绝对是个好消息。

显存告急?

8G就能跑!

说到AI,很多人第一反应就是“烧钱”。

训练模型要大量的算力,生成视频要高端的显卡,普通人根本玩不起。

但这次万相开源的1.3B版本,却让人眼前一亮:据说只需要8.2GB的显存就能跑,也就是说,你家里的游戏显卡就能试试水了。

这简直是平民玩家的福音啊!

要知道,Sora那种级别的模型,需要的算力可不是闹着玩的,普通人想体验一下都难。

而万相的1.3B版本,降低了门槛,让更多人有机会接触到AI视频生成技术。

想想看,以后你不用再去求那些“AI绘画大师”帮你生成头像了,自己就能在家捣鼓;你也不用羡慕别人的炫酷视频特效了,自己就能用AI生成。

这对于普及AI技术,激发创新,绝对是有好处的。

当然,8.2GB显存只是个“入场券”,想要生成高质量的视频,肯定还是需要更好的硬件配置。

但至少,万相给了我们一个低成本体验AI的机会。

超越!

14项全领先!

万相团队宣称,在运动质量、视觉质量、风格和多目标等14个主要维度和26个子维度测试中,万相均达到了业界领先表现,并且斩获5项第一及平均分第一。

尤其是在复杂运动和物理规律遵循上的表现上大幅提升,万相能够稳定展现各种复杂的人物肢体运动,如旋转、跳跃、转身、翻滚等;能够精准还原碰撞、反弹、切割等复杂真实物理场景。

这些听起来是不是很厉害?

但说实话,这些“维度”、“指标”啥的,普通用户根本搞不明白。

我们更关心的是:生成的视频到底好不好看?

够不够真实?

能不能满足我的需求?

就像你买手机,商家跟你说这手机处理器是八核的,内存是12GB的,像素是1亿的。

你听完之后,还是得看看实拍照片,玩玩游戏,才知道这手机到底值不值得买。

所以,咱们也不能光听万相团队自己说,还得看看实际效果。

官方放出的演示视频看起来确实不错,但那都是精心挑选的案例,不能代表全部。

最靠谱的还是自己去体验一下,看看万相生成的视频能不能达到你的预期。

毕竟,眼见为实嘛。

开源!

千问之后再发力!

其实,阿里云搞开源也不是一天两天了。

早在2023年,他们就开始坚定大模型开源路线,搞了个千问(Qwen),据说衍生模型数量已经超过10万个,是全球最大的AI模型家族。

这次万相的开源,可以说是阿里云在AI领域又一次发力。

他们实现了全模态、全尺寸大模型的开源,这对于推动国内AI技术的发展,绝对是有积极意义的。

为啥要开源?

简单来说,就是“众人拾柴火焰高”。

开源可以让更多的人参与进来,一起完善模型,解决问题,推动技术进步。

而且,开源也有利于形成良性竞争,促使各个厂商不断创新,推出更好的产品。

阿里云这次开源万相,一方面是为了抢占市场,吸引开发者;另一方面,也是为了承担社会责任,推动AI技术的普及。

总而言之,阿里云开源万相大模型,是个值得关注的事情。

它给我们提供了一个低成本体验AI视频生成技术的机会,也为国内AI技术的发展注入了新的活力。

但是,我们也要保持理性,不要盲目吹捧,也不要轻易否定。

AI技术还处于发展初期,还有很多问题需要解决。

我们需要更多的耐心和努力,才能真正实现“AI改变世界”的目标。

与其说万相超越了Sora,不如说它给了我们更多的选择和可能性。

未来的AI世界,不应该只有一家独大,而应该百花齐放,百家争鸣。

这才是我们期待的未来。

0 阅读:3
豪哥说一说

豪哥说一说

豪哥说