各位,先别急着给那些“AI颠覆世界”的言论点赞,也别轻易相信“AI绘画/视频吊打人类艺术家”的说法。
最近阿里云开源了个万相大模型,号称在VBench榜单上力压Sora,这事儿听起来挺唬人,但咱们冷静下来想想,这“第一”的含金量到底有多少?
Sora劲敌?
万相炸场!
这年头,AI模型层出不穷,你方唱罢我登场,个个都说自己是“最强”。
阿里云这次开源的万相2.1,主打的就是视频生成。
说是超越了Sora、Luma、Pika等等一众国内外模型,直接登顶VBench榜首。
听到这儿,估计不少人会眼前一亮,心想:“国产AI终于站起来了?
”
但别忘了,排行榜这东西,看看就好,别太当真。
VBench是个啥?
权威评测集?
这“权威”是谁定的?
评测标准又是啥?
这些都得打个问号。
就好比说,咱村的广场舞大赛,冠军水平能跟奥运会比吗?
当然,我不是说万相不行,毕竟敢开源出来让人体验,肯定还是有点东西的。
只是咱们得理性看待,别被“第一”的光环闪瞎了眼。
AI技术发展很快,但离真正“颠覆”还远着呢。
更何况,这次万相开源的是14B和1.3B两个参数规格的模型,这意味着啥?
意味着你可以免费体验,甚至可以拿来做二次开发。
这对于国内的开发者来说,绝对是个好消息。
显存告急?
8G就能跑!
说到AI,很多人第一反应就是“烧钱”。
训练模型要大量的算力,生成视频要高端的显卡,普通人根本玩不起。
但这次万相开源的1.3B版本,却让人眼前一亮:据说只需要8.2GB的显存就能跑,也就是说,你家里的游戏显卡就能试试水了。
这简直是平民玩家的福音啊!
要知道,Sora那种级别的模型,需要的算力可不是闹着玩的,普通人想体验一下都难。
而万相的1.3B版本,降低了门槛,让更多人有机会接触到AI视频生成技术。
想想看,以后你不用再去求那些“AI绘画大师”帮你生成头像了,自己就能在家捣鼓;你也不用羡慕别人的炫酷视频特效了,自己就能用AI生成。
这对于普及AI技术,激发创新,绝对是有好处的。
当然,8.2GB显存只是个“入场券”,想要生成高质量的视频,肯定还是需要更好的硬件配置。
但至少,万相给了我们一个低成本体验AI的机会。
超越!
14项全领先!
万相团队宣称,在运动质量、视觉质量、风格和多目标等14个主要维度和26个子维度测试中,万相均达到了业界领先表现,并且斩获5项第一及平均分第一。
尤其是在复杂运动和物理规律遵循上的表现上大幅提升,万相能够稳定展现各种复杂的人物肢体运动,如旋转、跳跃、转身、翻滚等;能够精准还原碰撞、反弹、切割等复杂真实物理场景。
这些听起来是不是很厉害?
但说实话,这些“维度”、“指标”啥的,普通用户根本搞不明白。
我们更关心的是:生成的视频到底好不好看?
够不够真实?
能不能满足我的需求?
就像你买手机,商家跟你说这手机处理器是八核的,内存是12GB的,像素是1亿的。
你听完之后,还是得看看实拍照片,玩玩游戏,才知道这手机到底值不值得买。
所以,咱们也不能光听万相团队自己说,还得看看实际效果。
官方放出的演示视频看起来确实不错,但那都是精心挑选的案例,不能代表全部。
最靠谱的还是自己去体验一下,看看万相生成的视频能不能达到你的预期。
毕竟,眼见为实嘛。
开源!
千问之后再发力!
其实,阿里云搞开源也不是一天两天了。
早在2023年,他们就开始坚定大模型开源路线,搞了个千问(Qwen),据说衍生模型数量已经超过10万个,是全球最大的AI模型家族。
这次万相的开源,可以说是阿里云在AI领域又一次发力。
他们实现了全模态、全尺寸大模型的开源,这对于推动国内AI技术的发展,绝对是有积极意义的。
为啥要开源?
简单来说,就是“众人拾柴火焰高”。
开源可以让更多的人参与进来,一起完善模型,解决问题,推动技术进步。
而且,开源也有利于形成良性竞争,促使各个厂商不断创新,推出更好的产品。
阿里云这次开源万相,一方面是为了抢占市场,吸引开发者;另一方面,也是为了承担社会责任,推动AI技术的普及。
总而言之,阿里云开源万相大模型,是个值得关注的事情。
它给我们提供了一个低成本体验AI视频生成技术的机会,也为国内AI技术的发展注入了新的活力。
但是,我们也要保持理性,不要盲目吹捧,也不要轻易否定。
AI技术还处于发展初期,还有很多问题需要解决。
我们需要更多的耐心和努力,才能真正实现“AI改变世界”的目标。
与其说万相超越了Sora,不如说它给了我们更多的选择和可能性。
未来的AI世界,不应该只有一家独大,而应该百花齐放,百家争鸣。
这才是我们期待的未来。