最近,差评君发现了个新鲜玩意儿。
喂给 AI 一张图,它就能给你推测出一个人的性格。
光靠歌单,就能把人最近的心理状态推测个七七八八。
而这些,都出自 Kimi最新的 k1 视觉思考模型之手。
这不,距离上次推出数学模型 k0-math 打榜 o1 才一个月, k1 就火速登场了。
当然,这个 k1 可不止是像开头那样,只会看图分析性格那么简单。
上次咱测试 k0-math 的时候,已经见识过了 “ 做题家 ” 的能力,那解题的思考过程给差评君都看得一愣一愣的。只可惜,有些绕逻辑的数学题还有几何题,多少差了点意思。
但这次的 k1 就有说法了,既有推理能力又有视觉能力,意思就是可以直接拍照上传解题,还号称能在数理化上打平甚至超越 Open AI 的 o1 。
那要是这么比的话,咱可就来劲了。正好, k1 新模型现在也不需要等内测, App 和网页版都能用上,话不多说,我们直接开整。
上来,就扔了 K1 一道今年高考的几何题。
首先, k1 对题干的解读足够细致,也知道自己的目标到底是啥。
题目给定的条件中可能涉及到的余弦定理也考虑到了,就跟咱们在解题时的思维类似,看到 a² +b²− c² =2ab ,立马会联想到余弦公式 c² =a² +b² -2ab·cosC 。
再根据公式和条件继续推导,很快就能求出角 B=60 °。
第( 2 )题稍微难了那么一丢丢,但差评君仔细检查了一遍 k1 的解题过程,思路和解法都没毛病,最后边长 c=2√2的答案也是对的。(因为这题 k1 的思考过程实在太太太长,截图就不展示了。)
同样的题目问 o1 ,首先在推理速度上, o1 的 58s 就已经输了。
正确率的话, o1 和 k1 打了个平手,都做对了。
不同的是, o1 把答题思路隐藏起来了,没给像 k1 那样的完整思考过程。
不过有一说一,差评君对 k1 模型这种模仿人类思考的方式,倒也不是特别吃惊。因为上次 k0-math 模型就已经震惊过我一回了,能意识到自己的错误、还会进行反复验证的样子,像极了写数学题时绞尽脑汁的我。
相比之下,这次的 k1 在补短板方面更出彩一些,上次 k0-math 翻车的初中几何题我又拿 k1 试了一次,现在已经能做对了,就连上高考难度也不发怵。
而且我也发现, k1 不仅擅长做数学题,物理题也不在话下。
接着,我又拿出了一道逻辑稍微有点绕的逻辑陷阱题试了试:一个西瓜进价 50 元,卖价 70 元,老板收了 100 元假币,最后亏多少钱?
这题打眼一看简单,但网友关于这道题的答案那叫一个五花八门,有说亏 150 的,有说 180 的,还有说 100 的。。。
咱们就看看连很多人类都想不明白的题, k1 能不能瞧出来里面的陷阱。
而且,这道题我还特意手写得比较潦草,顺便也测一测 k1 的视觉能力到底是不是有宣传的那么神。
你别说,你还真别说,这模型的 “ 眼神 ” 确实不赖。
题目的正确率方面, k1 前半部分的分析先得出了一个亏 100 元的答案,但很快它就否定了自己。
继续把假币、找零还有成本利润这些复杂因素综合考虑进去,最后终于想明白老板亏了 80 元。( 正确答案是 80 元 )
这逻辑能力,确实有点强。
包括我拿几道行测的类比推理题给 k1 做了做,虽说逻辑分析的路径跟参考答案的不太一样,但最后的答案都是对的。
反正这一通测试下来,差评君发现 k1 会思考有逻辑,眼神好使智商也高, Kimi 这“ 做题家 ”的名号算是坐实了。
不过除了做题以外,我这次还摸索出了更多花里胡哨的玩法。
分析数据、看报表没啥意思, k1 模型不是会根据图片来推理吗,那想必鉴别古钱币也应该有一手吧?
差评君特地从网上找了一张民国时期银元的图片,两枚银元上假下真,发给 k1 ,浅浅来一把“AI 版听泉鉴宝 ” 。
图源小红书用户@古玩今来(公博代理收评)
k1 不仅知道钱币是民国时期的,还对钱币的各种细节 kuku 一顿输出,最后竟然真的看出来了上面这枚是假币。
咱再随便发一张房间的图片,让 k1 看看 “ 风水 ” 。
什么 “ 气口 ” 、对称布局、能量平衡。。。说的头头是道,甚至还真给了建议,让咱把床换个位置、定期修剪植物、换一个更简洁的吊灯。
吃饭的时候给 k1 拍一张,这顿饭摄入了多少卡路里也算得明明白白。
不过最让我觉得惊艳的,还是 k1看图猜电影的能力。
我给了它一张《 七宗罪 》的电影截图,没有台词只有画面,对于很多没看过这部电影的人来说,想猜出来都很难。
一开始看 k1 的分析我以为这把大概率要黄了,结果下一秒来一句 “ 拍摄角度和色调让我想起了大卫 · 芬奇的电影 ” ,还推断出了截图里的画面是《 七宗罪 》里的某一个场景。
真的太强了。。。
就连一些晦涩的梗图丢给 k1 ,它也能一本正经地讲解笑点到底在哪。
虽然有点过度解读的嫌疑,但大体上的意思基本都 get 到了。
就这么说吧,基于 k1 的视觉和推理能力,做题都是基操了,只要脑洞够大,还可以解锁出更多的玩法。
而 k1 的这种能力,很大程度要归功于一个叫做COT ( Chain of Thought )思维链的技术。
大概意思就是,模型在输出答案之前,模仿人类大脑的思考方式,把复杂的任务拆解之后,再一步步地解决。这个技术,可以让模型的智商变高。
另外一边,借助强化学习技术,也让模型学会了在不断试错的过程中进化,以此来达到最优的结果,就跟训狗似的。
至于为啥 Kimi 会率先选择数学这个场景作为推理模型的切入口,我想,跟咱们人类学好数学锻炼思维,是一个道理。
在模型 “ 学好数学 ” 的基础上,再将这种逻辑推理的能力应用到物理、化学,乃至于咱们日常生活的方方面面,直到最后真正理解这个世界。
而很显然,Kimi 推理模型的泛化能力已经开始显现出来了。
在数据见顶的前提下,这种基于强化学习技术的路径,或许能够让模型实现更好的效果。
不过说到底,模型用了哪些技术、纸面分数有多高,大伙儿其实更关心模型到底好不好用、实不实用。
而向来以长文本见长的 Kimi ,如今长文本、强化学习两手抓,也是调整自己的工具属性慢慢往用户需求靠拢的表现。
毕竟,当技术不再高高在上,能帮助人们解决实际问题的时候,才算真正完成了它的使命。