手机芯片领域的AI竞争日益升温,端侧大模型的集成成为各大手机厂商争相突破的瓶颈。
自2017年起,AI技术逐渐融入智能手机,最初主要应用于图像降噪等简单任务。然而,这些早期应用所依赖的模型参数相对较小,不超过1000万,与当前讨论的端侧大模型相差甚远。如今,即使是最小规模的端侧大模型,其参数量也已达到10亿,是早期模型的100倍。然而,这些10亿参数级别的模型仅能执行基本的文本处理任务。
考虑到手机用户对多模态处理的需求,甚至需要动辄百亿参数的模型才能提供令人满意的用户体验。然而,观察到2023年旗舰手机的硬件配置,内存通常为16GB,带宽为50GB/s,这使得在手机上运行大模型几乎成为不可能的任务。
尽管如此,手机厂商和用户对将大模型集成到手机中的期望日益增长。手机行业增长趋缓,厂商急需通过新体验打破僵局。集成大模型的手机不仅意味着新的应用体验,更代表着垂直整合软硬结合的新生态。用户逐渐认识到大模型的优势,并期望在智能手机上享受到这一便利。
自2023年下半年起,各大手机厂商纷纷进入大模型竞赛,而芯片厂商也在加速创新,赋能手机芯片以适应端侧大模型的需求。摩尔定律的减缓使得硬件性能提升变得更为困难,每年仅能增长20%-30%,而端侧AI的复杂度则需要底层硬件提升的性能至少是两倍。
在这场手机芯片的大进化中,联发科和高通成为备受瞩目的两大玩家。高通的骁龙8Gen3于2023年10月发布,支持运行100亿参数的端侧大模型。而联发科则推出了天玑9300,支持运行10亿至330亿参数的端侧大模型。这标志着AI能力的增强成为芯片厂商的新竞争焦点。
联发科技计算与人工智能技术事业群副总经理陆忠立博士分享了关于端侧大模型的一些关键见解。他指出,将大模型集成到手机需要在硬件、算法和软件等多个方面进行创新。硬件方面,专用的硬件加速大模型的执行是必要的。在算法和软件上,可以采用模型剪枝和量化等技术,减少对内存容量和带宽的需求。
手机芯片的创新不仅仅依赖于硬件性能的提升,还需要在生态能力、服务能力等多个方面发力。虽然端侧大模型的集成面临着摩尔定律减缓的压力,但通过多方面的创新,手机芯片有望突破技术瓶颈,满足越来越复杂的应用端需求。在这场手机芯片的暗战中,联发科和高通等厂商将扮演关键角色,推动手机芯片技术不断向前发展。
*免责声明:以上内容整理自网络,仅供交流学习之用。如有内容、版权问题,请留言与我们联系进行删除。