和大家聊聊理想下一代座舱 切换「大连屏」后的一些思考!最近在用理想 AI 眼镜,也在开 i8,对理想的大连屏有很多新的思考。1、副驾屏对我来说,很长一段时间是一种摆设。长期看,中控屏还是主力屏。 副驾屏我激活的概率不高,但是现有的中控屏确实满足不了我们的多任务需求。 一旦承载不了,它就始终停留在一个工具化的阶段,因为屏幕比例是固定的,意味着我必须手动分屏自己排布,而像widget这种小组件,一个屏幕最多能承载 3-4 个组件,它也没能很好的发挥出该有的功能。 在桌面上,像小米开始探索,把更多第三方应用通过卡片 pin 在屏幕上,小鹏也做了自定义拉伸。 但目前如果做分屏,很多应用容易冲突,比如理想的小屏导航时偶尔会和360冲突,特别是到收费站的时候,而如果小屏sr偶尔也会和360冲突,我想泊车时,这时候激活了360,进不去泊车卡片。 我们可以看看连屏能做什么?2、真正的多屏合一。 参考突破上的flyme、奥迪E5的车机上,最为简单的是一个大连屏核心打通了主副屏这种机械感,真正的合二为一。 比较震撼就是比如导航、歌词桌面、动态壁纸桌面,这种基础交互都是直接铺满,视觉效果很震撼。3、理想的 widget ,带来核心进化。 这个我觉得会是升级的重点。过去的 widget 就是一个单屏的小组件,更聚焦的是个人操作。屏幕和算力提升后,Widget 的组合自由度和协同能力就大大提升了。 我觉得大屏幕带来的车机交互迎来一个新变化,车机桌面就是一个餐桌,它和手机不同,决定上什么菜是到大脑,厨师就是算力,直接在餐桌上完成服务,有好的服务能力和体验就决定了这家餐厅的规格。 比如我们可以自由分区,也可以有多个层级,有不同尺寸的卡片可以交互,甚至主副驾用户都可以有各自的卡片。 分区化布局,尺寸可以更加自由,显示面积和布局会更加灵活性。 这样小组件从一个简单的工具卡片解放出来,可以变成一个信息和功能的核心枢纽。 这样一来,最好的用户体验是交互层级可以大大减少,很多功能和应用我们在一个桌面就可以直接搞定。第二是屏幕变大,算力变大后我们可以有更多个性化的卡片定义,我们可以更大范围的去自定义我们想要的小卡片,也可以共享。 当然最重要的我觉得还是接入生态,有更多第三方的音乐、视频甚至像美团等各种生活服务的应用可以接入进来,在桌面上直接完成,也更符合一种智能空间的定位。 它的主动推荐。能够根据你的驾驶状态、长途状态或者不同身份,主动推荐更多服务,让你减少交互,自然体验会更好。3、VLA 智能体,会是可视化交互的核心入口。 第一是可视化,我们说出的指令再到思维链,再到执行这个闭环,VLA 可视化可以做的比现在更好,并且比如对模糊指令的识别,停在一个红色路牌的旁边,VLA 的决策到执行做到真正的可视化。 第二是记忆。 VLA 这个智能体对你驾驶风格,或者习惯,你常走的路段,智驾可以推荐使用,模仿你走这段路的风格。这种还可以做场景协同,比如充电模式或者漫游,常去的地库可以自动推荐你的习惯,是去车位还是去充电,都可以用语言指令来完成。 第三我觉得是思维链的拆解。 比如先去充电再去加油站,再到某个商场找停车位。这种带有模糊指令且有多个意图的指令,可以做拆解和完成多任务指令。 比如识别危险状态或者行人,连屏带来的可视化交互,是对不同场景、不同等级的判断和处理,是做避让、还是预警,可以通过 VLA 做更好拆解,带来的车内安全感也会更好。 所以我觉得在 VLA 方面,下一个阶段的交互,会逐步把 VLA 作为一个隐性的智能体,变成一个主动式带有显性交互的智能体。VLA 可以是懂你的司机 ,也可以是一个助手,交互层级更简单,大屏带来交互体验又会更加沉浸,这也是一个智能体的雏形。4、理想AI眼镜,也会是最后一个闭环。 相比手机不同,AI 眼镜在鼻梁上,它有无感连接,也有独立输出能力,它可以听也可以说。 所以未来我觉得更多指令可以在眼镜这一个入口完成,不干扰其他人的情况下完成,这样会大大提高使用的黏性。 同时它在上车前后任意状态激活,不一定在车内也可以完成交互,很多手机、车机的交互接力,可以在 AI 眼镜这个中枢上完成。比如下车后的延续,或者流转,上车前的准备,都可以在眼镜这个入口完成。 未来在 VLA 上,AI 眼睛识别环境,可以传输到手机,也可以传输到车机,我觉得有太多想象空间可以完成。 所以 AI 眼镜这个总结,我觉得从一个车机的附件,慢慢变成一个新的智能化入口,特别伴随着接下来几代可视化AI眼镜的迭代,那它的功能性会有更完整的闭环了。Livis+大屏的期待,我觉得伴随着下一代理想车型,真的有更多期待...理想汽车理想ai眼镜livis





