如何围绕AI开发并匹配车载控制器?

芝能汽车助推未来 2024-08-10 19:42:31

芝能科技出品

在智能汽车发展的浪潮中,计算平台控制器(DCU)作为车辆智能化、网联化的核心部件,扮演着至关重要的角色。

随着AI技术的飞速进步,特别是大语言模型(LLM)和边缘计算(Edge Computing)的兴起,如何高效地将AI与域控制器软硬件结合起来,成为了提升汽车智能化水平的关键。

01

AI-Edge-LLM:提升智能座舱和智能驾驶

● 新算力的发展

近年来,随着半导体技术的进步和算力需求的提升,端侧算力得到了显著的发展。特别是大语言模型(LLM)的引入,使得智能座舱和智能驾驶系统拥有了更为强大的“智能大脑”。

LLM通过其强大的自然语言处理能力,能够实现更为复杂的语音交互和意图识别。例如,在驾驶过程中,系统可以通过语音与驾驶员进行互动,提供实时的导航信息、天气预报等服务。LLM还可以结合多模态信息输入,如图像和音频,实现对环境的全面感知和智能决策。

在硬件层面,高性能处理器和专用的AI加速器(如NPU)成为端侧算力的核心。高通的平台如SA8255P/SA8295P,通过支持大规模的LLM模型,如Llama 2和Stable Diffusion,能够为智能座舱提供强大的AI算力支持。

异构计算架构的引入,通过CPU、GPU、NPU的协同工作,解决了算力和能效之间的平衡问题。

● AI-SaaS:云端与车载的AI升级

常规汽车芯片通过云端和云原生应用进行AI升级,正在成为一种趋势。AI-SaaS平台整合了各种先进的AI技术,如文心系列、通义系列等,为车载平台提供了丰富的AI服务,包括自然语言处理、语音交互、图像识别等。

这种云端与车载的结合模式,使得汽车智能化不再局限于车内的硬件配置,而是可以通过云端不断进行功能升级和优化。例如,车主可以通过云端平台进行远程诊断和软件更新,从而使车辆保持最佳的性能和功能。AI-SaaS平台的架构设计,强调简单易用的UI和快速响应的技术支持。

无论是AI大模型对话,还是AI绘画、AI语音等服务,都可以通过云端平台进行定制化配置,满足不同用户的需求。

● AI-Agent:基于端侧的车载全智能控制

AI-Agent作为车载智能体,是实现车载全智能控制的核心。与依赖用户提示的大模型(LLMs)不同,AI-Agent具备自主理解、规划决策和执行复杂任务的能力。

大模型的引入,增强了AI-Agent的自然语言处理能力,使其能够更好地理解用户的意图并做出相应的响应。例如,在驾驶过程中,AI-Agent可以根据驾驶员的指令自动调节空调、播放音乐,甚至进行复杂的导航任务。

在硬件架构上,AI-Agent需要依赖强大的算力支持。高通和博世等厂商推出的中央计算平台,通过整合信息娱乐和高级驾驶辅助系统(ADAS)的功能,实现了更高效、更安全的车载计算。这种中央计算架构,通过一个中央控制器集中管理车辆的各项功能,极大地提升了系统的整体性能和智能化水平。

汽车的电子电气架构(E/E架构)将进一步向中央计算架构演进。这种趋势下,功能逻辑将集中到一个中央控制器,从而简化系统的复杂性,提高系统的可靠性和可维护性。

博世基于Snapdragon Ride Flex SoC的车载中央计算平台,和NVIDIA的DRIVE Thor芯片,都是这一趋势的典型代表。这些平台不仅具备强大的计算能力,还能够处理复杂的自动驾驶任务,实现更高层次的智能化。

02

AGI时代的域控发展方向

在AGI(人工通用智能)时代,域控的发展将向多模态信息接入和理解的方向迈进。大语言模型通过其强大的语言理解和生成能力,能够处理和理解文本、图像、音频等多种类型的数据。

这种多模态的信息处理能力,使得车载系统能够更全面地感知环境。例如,系统可以通过摄像头识别周围的物体和场景,并结合语音交互,为驾驶员提供更为自然和直观的使用体验。

同时,情感识别技术的引入,使得系统能够识别驾驶员的情绪,并做出相应的回应,从而提高人机交互的亲和力。

智能意图识别是实现车载智能交互的关键。从传统的VPA(虚拟个人助理)升级到大模型应用,需要突破智能意图识别的技术瓶颈。大语言模型在泛化、非命令式语言理解和上下文指代识别方面,具有显著的优势。

例如,系统可以通过对对话上下文的分析,自动纠错和处理转折语句,从而实现更自然的语言理解和交互。这种能力,使得车载系统能够更准确地理解用户的意图,并做出相应的响应,提高了用户体验的流畅度和智能化水平。

在HMI(人机交互)领域,Edge-LLM的应用前景广阔。基于大语言模型的端侧计算,使得车载系统能够在离线环境下实现高效的语音交互和意图识别。

智能座舱的域控系统,通过结合知识库和Edge-LLM,实现了智能意图识别和自然语言处理。用户可以通过语音或文字输入,控制车内的各种功能,如导航、音乐播放、空调调节等,从而提升驾驶体验的智能化水平。

03

高通平台与异构计算的结合

生成式AI模型参数量大,算力是一个核心限制因素。高通平台通过异构计算和NPU(神经网络处理单元),解决了算力瓶颈问题。

异构计算架构,通过在一个处理器中包含多种不同类型的处理单元,如CPU、GPU、NPU等,实现了高性能和低功耗的平衡。例如,在实现虚拟AI助手与用户语音互动交流时,自动语音识别(ASR)在高通传感器中枢运行,文本生成在Hexagon NPU上运行,文本到语音转换(TTS)在CPU上运行,虚拟化身渲染在Adreno GPU上运行。内存是限制生成式AI普及的重要因素之一。

为了克服内存瓶颈,需要采用微切片和量化等技术。

● 微切片推理通过将神经网络分割成多个能够独立执行的微切片,减少内存占用;

● 量化技术通过将神经网络的张量加速吞吐量提高一倍,提升内存效率。

这些技术的应用,能够显著提高域控制器的AI计算能力。

小结

车载计算平台软硬件与AI的高效匹配,是提升智能座舱和自动驾驶智能化水平的关键。在AI-Edge-LLM、AI-SaaS、AI-Agent以及未来中央计算的发展趋势下,域控制器将实现更高效的计算和更智能的控制。

通过采用异构计算架构和内存优化技术,域控制器能够在保证高性能的同时,降低能耗,满足新能源汽车环境下的需求。

0 阅读:3

芝能汽车助推未来

简介:感谢大家的关注