【新智元导读】StableDiffusion已经在绘画方面「颇有造诣」,但马库斯还是忍不住提出一个灵魂拷问:它知道自己究竟在画什么吗?这段时间,StableDiffusion简直不要太火。前两天,大谷就用它做了个《华强买瓜》——好莱坞国际巨星版。瓜熟不熟不知道,但这AI保熟吗?
一句话,就换了1、2、3、4个…演员。
大谷表示,这些画面是在加载原视频之后,直接根据输入文字的变化生成的。
都认出来的朋友请扣1。画得很好,但这对AGI有啥帮助么?毫无疑问的是,像Dall-E、Imagen、Midjourney和StableDiffusion这样的工具,在绘图方面已经非常出色了。但在评估AGI的发展进程时,还有一个关键性的问题:这些「AI」对世界到底有多少了解,以至于它们可以根据这些知识进行推理和反馈?对此,马库斯在他最新的文章中,提出了质疑:图像合成系统能产生高质量的图像吗?它们能将其语言输入与它们产生的图像联系起来吗?它们是否理解它们所代表的图像背后的世界?
关于第1点,答案显然是肯定的。除了那些经过训练的人类艺术家,才能做得比AI更好。关于第2点,答案是好坏参半。AI在某些输入上做得很好(比如宇航员骑马),但在其他输入上做得就不怎么理想(比如马骑宇航员)。而第3点,也是最重要的的一点。它的答案最终决定了这些AI系统能否在构建通用智能,也就是AGI时派上用场。
虽说它们生成的图像十分绚丽,而且很可能会彻底改变艺术实践,但这仍然不能说明或代表AGI方面的进展。就拿平面设计师IrinaBlok的这张非常有名的「有很多洞的咖啡杯」来说吧。马库斯表示,自己8岁的孩子看完之后都无法理解:「咖啡为何不会从杯子的洞里漏出来?」
然而,这种创作的麻烦在于,你没有一个关于不存在的东西应该是什么样子的事实性证据,所以只讨论结果的话,就会陷入死循环。正如MichaelBronstein所指出的那样:「换做是人,也会选择这么画」。
因此,我们可以换一个不同的方式来追问同一个问题:如果我们在一项基于事实的任务中,试图了解系统对(a)部分和整体,以及(b)功能的认识,比如「画出一个梯子并标出你站在上面的部分」这样的提示,会怎么样?显然,Craiyon(DALL-Emini)对此一窍不通。
也许这是DALL-EMini特有的问题?其实不然。马库斯发现,在「StableDiffusion」中也会出现类似的结果。比如,「画一个人,并填充紫色」。
「画一辆白色的自行车,并将用脚踩的部分涂成橙色」。
「画出一辆自行车,并标出在地上滚动的部分。」
「画一辆没有轮子的白色自行车。」
「画一辆轮子是绿色的白色自行车。」
看得出来,AI可以一定程度上地get到部分和整体的关系,但并不能理解一个事物的功能以及复杂人类复杂的句法。不过,马库斯这波确实有股「甲方爸爸提需求」的味道了。
基于这些结果,马库斯质问道:「我们真的可以说,一个不了解轮子是什么,或者说不了解轮子用途的系统,是人工智能的一个重大进步吗?」对此,StabilityAI的CEO,EmadMostique,谦逊地表示:「它们还只是拼图的一个部分。」
StableDiffusion为何能如此流行?Diffusion最早是2015年的一篇文章提出的。
其核心思想,就是把生成的过程拆成一个个简单的小步骤,而不是像其他模型一样「一步到位」,这样拟合起来相对容易,做出来效果也好。
只是像大多数新生事物一样,Diffusion刚提出时,还有些粗糙。直到2020年,生成模型DDPM(DenoisingDiffusionProbabilisticModel)对之前的扩散模型进行了简化,Diffusion的发展才走上快车道。相比GAN来说,Diffusion模型训练更稳定,而且能够生成更多样的样本。因而,从2021年底到现在,先后有OpenAI的GLIDE、DALL·E-2和Google的Imagen都用上了Diffusion。既然大家都用Diffusion模型,StableDiffusion有啥特别之处,让它变得如此炙手可热?简单来说,StableDiffusion有三大优点。首先,StableDiffusion做到了开源,在商业/非商业使用上有超高的自由度。只要遵循OpenRAIL-M许可证的规定,并且不用于非法和非道德的场景,任何人都可以对该模型进行商业或非商业使用、改造和再发布。虽然Google的Imagen和OpenAI的DALL·E-2,画图的效果也很出色,可这些工具都是封闭或半封闭的。为何StableDiffusion可以做到开源,而其他却做不到呢?这是因为StableDiffusion背后有StabilityAI的加持。
StabilityAI由英国富豪EmadMostaque创办,他除了有钱,更重要的是有情怀:他希望利用自己的技术和资金,来推动社会平等和技术普及。
因而做出StableDiffusion的目标,就是创造开源的AI工具,大家可以把它当成真正的「OpenAI」。而谷歌也好,OpenAI都有商业上的追求,因而没有动力做这样的「慈善事业」。其次,StableDiffusion很轻量。即便OpenAI「良心发现」,让DALL·E-2开源,普通人也是用不起的:需要使用高端显卡,等待时间也比较长。虽然可以在网上找到DALL·Emini,但那是一个与OpenAI完全无关的个人开发者,所做的业余开源项目。而StableDiffusion可以在10G显存的消费级显卡上使用,生成512*512尺寸的图片只需要几秒。最后,StableDiffusion的成功,离不开StableDiffusion的效果好。如果只是开源,StableDiffusion未必就一定能大火,毕竟Craiyon、DiscoDiffusion模型也是开源的。StableDiffusion在4000台A100显卡集群上,训练了一个月时间,再加上有近59亿条图片-文字平行数据的高质量数据集LAION-Aesthetics加持,生成结果完全不亚于DALL·E、Imagen等基于超大模型的结果。
未来,StableDiffusion在功能上,还有一些亮点值得期待,比如结果复现。在目前的StableDiffusion上,即使你重用了之前成功渲染的种子,如果提示符或源图像在后续渲染上发生了更改,那么想要复现之前的结果是很难的。
未来的StableDiffusion,在保持一致性上,还会有改进。再比如外画,意思是用户可通过语义逻辑和视觉连贯性将图像扩展到其边界之外。总之,虽然StableDiffusion不一定真的理解它在画什么,其画出的作品也见得「符合逻辑」,但AI从来不是「一个人在战斗」。StableDiffusion其实是从科研团队、公司和无数用户组成的复杂网络中「长出来的」,未来它还会迭代,变得更强大,也会给我们带来更多的惊喜。参考资料:https://weibo.com/2395607675/M61L994kNhttps://garymarcus.substack.com/p/form-function-and-the-giant-gulfhttps://www.unite.ai/how-stable-diffusion-could-develop-as-a-mainstream-consumer-product/