2023 年下半年开始,国内的乘用车智能驾驶还在比拼着「开城」;
2024 年上半年,无图 NOA 和「全国都能跑」成为了主流智驾玩家的新战场;
同期,BEV+OCC 的智驾方案也慢慢成为了主流智驾系统的选择;
……
但就在昨晚,理想的 2024 智能驾驶夏季发布会却直接宣布 BEV+OCC 方案已经成为了「过去式」?
首先,我们来总结一下这场发布会上理想都发布了什么:
理想 OTA 6.0 新增了「无图 NOA 功能」,覆盖理想 MEGA 及 L 系列搭载 AD Max 智驾系统的车型,无图 NOA 功能将在 7 月份进行全量推送;
此外,在 7 月份理想还将推送「全自动 AES 和全方位低速 AEB」;
同时,理想还发布了一套全新的智驾技术架构。
那么,不妨一起来看看,如今开始深耕「City」智驾场景的理想无图 NOA 到底「City 不 City」?全新的智驾技术架构又是否能够领先行业一步?
比「德芙」还丝滑的无图 NOA?
在理想即将全量推送的 OTA 6.0.0 中,无图 NOA 绝对是重头戏。而理想也给出了他们的无图 NOA 具备的四大能力:
哪里都能开:不再依赖过多先验信息,能够在各种道路条件下行驶;
绕行丝滑:具备时空联合规划能力,对道路障碍物的避让和绕行更加流畅;
路口轻松:通过超视距导航选路能力,在复杂路口也能顺畅通行;
默契安心:考虑用户心理安全边界,实现分米级微操,提升行车安全感和舒适度。
其实无图 NOA,尤其是无图城市 NOA 从今年开始一直是主流智驾玩家们的必争之地。
像华为、小鹏早在此之前就已经推送了全国都能开的无图城市 NOA 功能,而蔚来也早早推送了全域领航辅助 NOP+城区领航功能。
那么在技术上,其实理想无图 NOA 的最大亮点在于不过多依赖先验信息。
在以往的智驾系统中,先验信息扮演着非常重要的一个角色。它能够为车辆提供环境基础数据,还为智驾系统的感知、决策提供了参考数据,而这些先验信息可能会来源于高精度地图、规控算法、历史驾驶数据等等。
其实,即便是无图 NOA 也并不等同于完全不依赖先验信息,而是在减少对传统高精度地图依赖的同时,通过其他途径获取和利用先验信息,来提高智能驾驶系统的性能。
所以,不依赖先验信息的无图 NOA 也意味着智驾系统能够更加独立地应对复杂多变的驾驶环境。
而理想无图 NOA 则是将基于传感器感知到的实时数据、导航提供的路线数据合并成超视距能力,以保证智驾系统能够快速计算出最优行驶路线。
除此之外,理想的无图 NOA 还更加注重用户的「安全感」和「信任感」。理想的无图 NOA 凭借其时空联合规划能力,实现了对障碍物的丝滑避让和绕行。
时空联合规划能力能够同时进行横向和纵向空间的规划,并且不断预测自身车辆与其他车辆之间的空间交互关系,从而规划出在一定时间窗口内的所有可行驶轨迹。增强了车辆在可行驶区域内的安全性和行驶连续性,而且实现了分米级的精细操控。
在这次发布会上,理想汽车产品部高级副总裁范皓宇提到了:
理想的无图 NOA 从今年 5 月份开始便在首批千名体验用户中进行着测试,在今年 6 月份已经超过万名用户,同时也积累了上百万公里的无图 NOA 行驶数据。这些数据也为无图 NOA 技术的不断优化和完善提供了支持。
在理想 OTA 6.0.0 全量推送后,预计将会有超过 24 万名理想 AD Max 车主能够享受到理想全国都能跑的无图 NOA 功能。
「热门」的主动安全,又升级了
之前,几家新势力品牌的大佬在互联网上曾经针对主动安全、AEB 这些话题吵得热热闹闹,网友们的评论和观点也是沸沸扬扬。
在理想 OTA 5.0 版本发布时,就重点升级了 AEB 功能。
在 AD Max 3.0 中,理想就通过大模型的能力让 AEB 功能的工作速域更广、刹停速度极限更高、物体识别能力更强。同时,还优化了 AEB 的误触发率。
那这次,除了带来了无图 NOA 功能之外,理想还发布了 AES 自动紧急转向与全方位低速 AEB 的升级。
AES 自动紧急转向功能能够实现在不依赖驾驶员辅助扭力的前提下自动触发,在车辆行驶速度较快且即将发生碰撞时自动紧急转向,来避让前方的障碍目标。
这也意味着在面对「消失的前车」、「隧道内故障车辆」、「前车急刹制动距离不够」等紧急情况下,智驾系统能够自主判断并执行转向操作,从而提高了紧急避障的响应速度。
全方位低速 AEB 则针对泊车和低速行车场景提供了主动安全防护,在复杂的地库停车环境中,全方位低速 AEB 能够识别前向、后向和侧向的碰撞风险,及时进行紧急制动的介入。
全方位低速 AEB 功能的上车也拓展了主动安全的细分场景,减少在低速挪车及泊车出库等场景下的事故。
BEV+OCC 已成「过去式」?
同时,在这次发布会上理想也发布了由端到端模型、VLM(Visual Language Model)视觉语言模型和世界模型共同构成的全新智驾技术架构,并且将开启早鸟计划。
其中,VLM 模型与端到端模型的结合共同组成了理想智驾技术的系统架构。
理想的全新智驾架构的技术路线是基于两颗英伟达 Orin X 芯片分别用于两套系统当中,其中包括了「快系统」端到端模型和「慢系统」VLM 视觉语言模型。
这套智驾技术路线的理论基础源于诺贝尔经济学奖得主丹尼尔·卡尼曼在《思考,快与慢》中提出的「系统 1」和「系统 2」的概念,其中:
系统 1 指的是能够基于人过去的经验和习惯所形成的直觉;
系统 2 则代表了思维推理能力,人们需要借助思考和推理来处理复杂的问题和应对未知的场景。
端到端模型主要用于处理常规的驾驶行为,从传感器的感知数据输入到行驶轨迹的决策输出只经过一个模型,能够保证信息传递、推理计算的高效。
而且,端到端模型将具备更强的通用障碍物理解能力、超视距导航能力、道路结构理解能力以及更拟人的路径规划能力。
同时,理想还设计了能够缓存更长时序视觉数据的流式视频编码器、增加了能够缓存多帧历史信息的记忆模块以及智能驾驶 Prompt 提示库。
理想的 VLM 视觉语言模型参数量达到了 22 亿,具备更强的逻辑思考能力,能够对物理世界更为复杂的路况和道路环境进行理解。
VLM 视觉语言模型通过 Transformer 模型结合 Prompt 编码从而实现了图文对齐,再经过 VLM 视觉语言模型进行自回归推理。
除此之外,世界模型则结合了重建和生成两种技术路径,从而构建了一个既能够符合真实规律又能够兼具泛化能力的虚拟环境。能够为智驾系统的学习和测试提供支持,构建了一个智能驾驶迭代的高效闭环。
从特斯拉开始,端到端的上车一直是乘用车智能驾驶发展的未来发展方向。相比正在逐渐开始上车的 BEV+OCC 方案来说,理想这次端到端+VLM 方案的出现在一定程度上与大部分主流智驾玩家拉开了差距。
BEV+OCC 方案是通过多传感器融合技术生成车辆周围环境的 BEV 鸟瞰图视角,再通过 OCC 占用网络技术对周围环境进行三维重建,并识别出可通行和不可通行的空间区域。
而端到端则是将感知、决策、规划等多个环节融合到一个模型中,输入原始数据直接输出控制指令。VLM 视觉语言模型能够对图片或视频中的信息进行解读,能够对场景和复杂事件进行识别和理解。
相比之下,BEV+OCC 需要较高的技术门槛和算力支持,尤其是在边缘设备的推理效率上。同时,对于一些细小及不规则的障碍物可能会存在误检和漏检的风险。
就比如,一些搭载了 BEV+ OCC 方案的车型可能会出现无法识别停车场和收费站的闸杆。
端到端+VLM 技术能够减少信息传递的误差也简化了系统结构,但端到端模型非常依赖高质量的有效数据进行训练,同时端到端模型的安全性验证也更难,需要更多的测试和验证来确保模型的安全性。
所以,从技术难度、创新性以及市场趋势等维度来看,端到端+VLM 方案相比 BEV+OCC 要更加前沿。
但 BEV+OCC 方案作为目前更加成熟的技术方案,仍然会是大多数主机厂和智驾科技公司的选择,并在一定时间内长期占据智驾市场的重要地位。
最后
自 2021 年理想宣布启动智驾系统的全栈自研,到如今理想再次回到了主流智驾玩家的前列,全新智驾技术架构的发布也让理想成为了首个部署双系统方案、首个实现 VLM 视觉语言模型上车的主机厂。
从无图 NOA 的发布,到主动安全的升级,似乎理想正在智驾领域「叫板」华为。
不过,今年华为也即将迎来乾崑 ADS 3.0 智驾系统。
乾崑 ADS 3.0 将基于 GOD 大网,实现从简单的「识别障碍物」到深度的「理解驾驶场景」的跨越式升级。同时,乾崑 ADS 3.0 的全新架构也采用了 PDP 网络,实现了决策和规划更加拟人。
能看出来,如今主流玩家尤其是新势力品牌,与传统品牌在智能驾驶领域的差距正在逐渐拉大。无论从技术实力、产品能力还是长远规划上,主流玩家们已经开始为「未来」做好了准备。
而且,在智驾主流玩家中,头部玩家之间的「内卷」也开始愈演愈烈。