Sora实测拉垮,Veo趁机上位

虎嗅APP 2024-12-17 20:11:31

和OpenAI的摧枯拉朽比起来,DeepMind已经很久没动静了。上一次DeepMind上新闻是参与开发Gemini,再上一次,还是大战李世石的AlphaGo。

而这次,DeepMind作为Google最强实验室之一,在Sora显露疲态之时,拿出了对标OpenAI的产品(虽然实装水平还不能确定)。

Sora拉垮,Veo上位

八天前,OpenAI在连续12天的直播发布会中突然放出SoraTurbo,更快、更高清,还能对生成的视频进行微调和剪辑。

然而Sora向用户大规模开放后,实测效果却并不那么理想,和发布会上的Demo出现了买家秀和卖家秀的云泥之别……

除了不能生成人脸、不能上传人脸之外,Sora再一次无法理解人类的手,生成形态诡异数量成谜的手指头:

对物理世界的模拟不到位,看久了甚至有种晕车的感觉,用新发布的各种剪辑功能也救不回来:

有人发帖说,Sora几乎就没有对的时候,发布会上和网站上的演示视频绝对是手动挑选和调试的。

在Sora大翻车的这个节点,Veo2的发布就很有针对性了。

据DeepMind的博客,Veo2现在可以生成两分钟的视频片段,分辨率高达4k(4096x2160像素),而与之相比,Sora最高支持1080p,最多生成20秒的视频。

Veo的特长

单从时长和清晰度来看,Veo2占了上风,但DeepMind表示,Veo2最主要的进步还是在生成视频的质量上。

第一,是物理引擎的优化。Veo2对现实世界的互动规律有更深入的理解,能更好地复现物理现象以及人类的动作和表情,生成的视频更有真实感。

同一个刀子切番茄的prompt,Sora生成的视频是下面这样:

Veo2生成的视频是下面这样,虽然刀工差了点,但番茄和人手都挺正常的:

第二,是更强的镜头感。Veo2可以接受各种和摄影要求相关的prompts,从镜头类型,到景深指定,再到广角蒙太奇固定机位等摄影剪辑方式,Veo2都做了针对性的优化。

DeepMind在博客中演示,输入18mm镜头、浅景深、低角度跟踪镜头穿过场景中央,就能得到像下面这样专业的电影效果:

“虽然视频模型经常会产生‘幻觉’,生成多余的细节(比如乱七八糟的手指头或者不该存在的物体),但Veo2产生幻觉的频率比较低,因此输出的视频更逼真。”DeepMind在博客中写道。

而从目前发布的demo来看,Veo2生成的画面确实有种干净清爽不杂乱的感觉,对液体和固体的质感模拟得也很到位。

此外,Veo2输出的视频也包含一个不可见的SynthID水印,表示这些视频是AI生成的。

啥时候能用?

尽管看着很美,但是用不着的咱们可以先当作没有。

目前,Veo2还没有开放使用,访问以下网址可以加入候补名单https://deepmind.google/technologies/veo/veo-2/。

Veo2没有作为一个单独的文生图工具发布,而是被集成进了GoogleLabs的视频生成工具VideoFX。Google表示,下一步,他们会继续扩大Veo2的容量,让更多用户用上,明年还将把Veo2集成到旗下的其他视频编辑工具里,比如YouTubeShorts。

这一批的文生视频模型demo效果都特别好,但是实际大家用上又是另一回事,毕竟Sora没交到用户手里的时候,大家觉得也是挺牛的。

0 阅读:3