坦白说,花几千块换部AI手机,不是人人都需要。除非一种情况:
你真正用得上。你离不开它,你天天用它,你在它面前总是情不自禁暴露出人性的弱点。
毕竟讲故事谁不会呢?(想想那些年你当过的“韭菜”,现在已经不再相信厂商画的饼了)。。。
话说回来,我自己关注AI已经有十几年了,其间接触的很多软、硬件开发厂商或团队,形形色色,大家聚在一起,吐槽最多的就是,现在手机用户真是很精明了,你想要他们仅仅因为“AI+手机”就去花大价钱换新机?那太难了。
怎么办?很简单——看硬核的AI能力。
首当其冲,手机厂商得想办法让AI“去概念化“。因为今天用户需要的是“真正的AI”,而不是“玩玩的AI”。谁能最先洞察出用户的真正需求,然后让技术去匹配需求,谁就能形成差异化的卖点。就好比,普通用户不在乎你的电是火电、水电还是风电,我只在乎家里的灯泡亮没亮,以及这款手机能给我做点什么。
事实上,手机AI的真正意义也在于此,即大模型发展的第三个阶段——“规模化的价值产生”——让大模型能春风化雨似般地进入手机里,甚至让用户忘了有大模型这回事儿。
这才是最好的手机。
一、vivo OriginOS 5的“实用性”如何?众所周知,大模型让手机的想象空间越来越大。目前的AI手机分两类,一类是硬件赋能AI手机,一类是新一代的AI手机。自从vivo宣布将自研蓝心大模型升级为自研AI多模态大模型以来,众多的手机厂商都在往轻量化的大模型端侧部署发力。
尽管行业整体向好,但坊间一直以来都有个核心争议:
手机AI的实用性到底怎么样?
对于这个问题,个人感觉,vivo OriginOS 5的表现有些出乎意料——
它最大的进步,是不止于“手机AI”在自然语言处理、语音识别和图像识别上的基本布局,而是已经把AI“静默融合”到非常多的“用户日常使用场景”中——vivo OriginOS 5在AI功能的种类、场景数量和用户意图理解、规划复杂指令等方面都有了大幅的提升。
比如我以前用别的品牌手机,要查其它城市天气情况,或者进行一些更复杂的搜索,需要先打开各种app,排除干扰信息,才能得到答案。现在我只要长按vivo OriginOS 5手机的导航条说:“上海后天的天气怎么样”?就可以迅速得到精准的回答,而且可以很好地支持一个“prompt”里含有的多个连续指令。
别看问天气这类对话非常小白,但却解决了图形界面产品的一个历史大问题,即“空间小”的痛点。移动互联网产品一直面临着“空间小”的问题,这意味着,许多工程师辛辛苦苦开发出来的功能,被隐藏在无数个手机app和无数层功能菜单里,用户需要一次又一次地寻找,一层又一层地打开菜单,才能最终找到自己想要的某个垂类小众功能。
用户操作起来很麻烦,但又没有办法。
现在,vivo OriginOS 5让用户基于自然语言,就能与手机进行各种需求沟通,让复杂的交互,变成简易的对话。
回过头来看,其实从大模型诞生的时候,人们就不断地去“拷打”大模型——“大模型是什么?”“大模型能做什么?” “普通人能用大模型做什么?”
这三个问题对应了大模型发展的不同阶段,从“探索”到“价值产生”再到“规模化的价值产生”。在第三阶段,消费者不再满足于类似智能助手的单一形态的应用,企业开始探索如何将大模型润物细无声地“藏”在底层系统中,让大模型与硬件、软件深度融合,重塑生产力工具。
换句话说,大模型的前两个阶段以行业为主导,行业把目光聚焦在技术视角,探索技术的深度;直到第三个阶段才以用户为主导,探索在用户视角下大模型应用的广度。
二、实测:vivo OriginOS 5能带来哪些有用的功能?从历史经验来看,大模型出现后,很多产品都开始下“大模型”的“猛药”。但另一方面,用户对这类产品往往浅尝辄止,“玩”了两天就腻了,很难真正地“长情”下去。这里面的一个最大问题是,这类产品应用形态单一,服务单一,也无法真正自然地融入用户的工作和生活使用场景中。
vivo OriginOS 5要解决的也是这个问题,即要让用户随时随地用大模型,但却感受不到大模型“刻意”的存在。
AI智慧AI是OriginOS 5的主要升级点。尤其在提升交互体验的“自然流畅度”方面表现突出,着重强化了“语言交互”的功能,将前代版本的Jovi语音助手升级为蓝心小V。
首先是唤醒方式有了改变,除了原有的点击APP图标、桌面组件、侧边栏或悬浮球来唤起蓝心小V外,OriginOS 5还新增加了语音、双指长按或长按屏幕底部导航条的方式来唤起不同窗口形态的蓝心小V。
这个确实是很体贴了。
另一方面,如何摆脱AI感才是手机AI最难的一步。
这方面,vivo OriginOS 5有个挺有意思的细节,也就是蓝心小V实现了对语序混乱、方言等多种复杂语言场景的更高识别精度,技术范堪称拉满。
同时,蓝心小V还融入了更逼真的拟人化音色,你和手机的对话,就像对面真的有个人和你在交流,非常鲜活有人味,理解障碍为0.
更妙的一点,是蓝心小V还增加了不同场景的智能体,包括作业助手、运动教练等等。别问我为啥一眼关注到了这两个智能体——要知道,家长苦辅导作业已久矣,而且几乎没有一个辅导作业APP可以免费地进行个性化定制。
从这方面看,手机AI上的智能体也算是手机厂商从系统层面上,帮助普通用户解决问题的决心了,很好地实现了端侧AI的创新叠加效应——手机不再局限于一个应用,而是上升到了“系统级AI“和“平台级AI”。
小V搜索最近行业内最热的一个词就是AI搜索。道理很简单,大模型将用户主动搜索的习惯改为更快地得到结果。而当用户对搜索效率的要求日益提高,那传统的搜索引擎产品也就会倍感不适,显得心有余而力不足。
甚至,大家仔细回想,应该都有在社交媒体、短视频和小红书上搜索的习惯。毕竟在用户体验上,简单、直接、快速就是王道。
此时AI搜索便显得更加大势所趋。
小V搜索可以支持持长按/拖拽至全局导航、双指长按屏幕、小V内圈选按钮、意图触发、控制中心等方式唤醒。在日常搜索过程中,可以通过简单的划线、画圈或者是长按等方式选中目标,继而基于用户选中的内容,蓝心小V会主动推送相关服务,包括百科、商品推荐等等。
举个例子,前一阵读书读到了一个生僻字——霡霂。“雨雪雰雰,益之以霡霂。”放在从前,可能要先靠猜到底读什么,或者是手写出来再百度一下。现在就可以长按这个词,小V就会立刻识别并推送相关的百科解释,不需要跳出当前页面就可以获取信息了。
原子岛功能新推出的原子岛功能的广告语真的很形象,“要紧事,能‘拖’就‘拖’”。
它实际上是加了AI技术,实现了“傻瓜”操作的拖拽式服务,能够在关键时刻提供实时提醒。举个例子,当你和朋友聊微信时,收到朋友发来的餐厅的地址信息时,不需要切换应用或手动输入,只需长按地址文字,拖拽至原子岛,并选择百度地图打开,就能立刻查看该餐厅的位置和路线。
换句话说,用户不需要任何复杂交互,只需要长按所需地点的文字,便能轻松将其拖拽至原子岛。随后,用户可以选择通过车机、地图、或是原子笔记等多种应用直接打开该地点,省去了先打开地图应用再手动输入目的地进行搜索的繁琐步骤。
同样的,当你在刷微博、刷小红书时读到一篇有趣的文案,也可以把它拖到原子岛,并通过原子笔记应用进行保存和编辑。
三、手机AI的下一站?虽然在不同阶段,我们对大模型有不同的追问,但是至始至终一个无法逃脱的问题就是:“大模型的下一站在哪?”
未来大模型的发展方向可能包括更小更高效的语言模型、多模态大模型、对attention架构之外的新型架构的探索,以及迭代和改进大模型使用方法和扩展技术等等。
无论怎样预测,有一个趋势是基本确定的:LLM在行业的广泛应用,也就是将“大模型价值”普适化的阶段——技术的真正魅力,在于其能够普惠大众,成为推动社会整体进步的强大动力。未来,大模型这一强大的“生产力工具”不再局限于特定的个体、设备或系统之中,而是跨越技术与应用的鸿沟,实现真正的全民共享。
从某个角度来看,OriginOS 5也在践行“全民共享”,如Vivo借助蓝心大模型的视觉理解能力,针对视障用户在日常生活中的高频场景需求也进行了优化。也就是说,视障用户可以通过实时画面和vivo看见进行实时问答。同时,vivo听说也支持7种方言的识别和播报。你看,手机AI的温度,就藏在这些我们习以为常的角落。
回顾一下,智能手机改变了用户的生活方式和时间分配方式,这轮AI技术和内容载体的迭代,也势必会带来手机使用场景的深刻变化。当然也有人说“大模型是个博学的白痴”,但一个确定的事实是,今天手机AI让越来越多的人可以毫不费力地获得大模型的能力,改造了很多旧的应用场景。就好像vivo OriginOS 5里的手机AI,给用户带来的改变是非常新鲜、具体和实在的。
总之,手机AI从原本的【玩概念】到现在的【实用性】,凭借这一点,vivo OriginOS 5可能是让AI变得真正有用的开端。
东哥ing
确实不错,iQOO neo9[笑着哭]
谁是谁的谁 回复 01-15 11:47
你让蓝心小V给你画个西游记师徒四人,试试[得瑟][得瑟]
东哥ing 回复 谁是谁的谁 01-15 18:49
[得瑟][点赞][笑着哭]
谁是谁的谁
烂的不能再烂,只是这里不能发图……
谁是谁的谁 回复 01-15 11:47
你让蓝心小V给你画个西游记师徒四人,试试[得瑟][得瑟]