MWC 2024 大会上,高通发布一系列集成 AI 的通讯技术产品。包括业界最强大的 Wi-Fi 7 解决方案 FastConnect 7900 系统,以及全新的骁龙 X80 5G 调制解调器及射频系统。为了方便开发者更快速地在应用程序中加入 AI 大模型支持,高通还推出了面向开发者的 AI Hub 平台。
高通 FastConnect 7900 是业界首个 AI 增强的 Wi-Fi 系统,也是业界首次集成了 Wi-Fi、蓝牙、超宽带功能的同类产品。高通表示,高度集成化的设计,让 FastConnect 7900 芯片以一敌三,只需要 1 颗芯片就能实现竞品 3 个芯片的效果。
和前代相比,FastConnect 7900 采用了全新的射频前端模组和架构,在降低40%系统功耗的同时提高能效,减少 25% 占板面积。让终端可以放下更大容量电池,以显著提升续航能力。相较Wi-Fi 6方案,FastConnect 7900 Wi-Fi 7 解决方案所采用的高频并发多连接技术,通过聚合多个信道,能够让无法使用 6GHz 的国家和地区的用户在其原有速率上享受到 50% 的提升。这是 Wi-Fi 6 方案所不具备的功能。
例如,在中国等 6GHz 频段不用于 Wi-Fi 通信的国家,FastConnect 7900 能够实现的理论峰值速率是 4.3Gbps;在 6GHz 频段可用的国家和地区,FastConnect 7900 理论峰值速率可达 5.8Gbps。
通过引入 AI 功能,FastConnect 7900 可以识别用户目前使用场景,以优化对应的参数,提升 Wi-Fi 的整体性能,降低延迟,提高能效。高通表示,在一些流行 App 中,FastConnect 7900 可以让终端功耗下降最多 30%。并且此芯片上所有 AI 算法都在设备本地运行,可以完全保护用户隐私。
除了 AI 功能,FastConnect 7900 还支持 Wi-Fi 测距、蓝牙信道探测和超宽带测距,可以实现近距离感知、智能标签识别、室内精确定位或是借助 Wi-Fi 实现室内导航等。
高通骁龙 X80 是业界首个将 AI 和 5G Advanced 结合的同类产品。其也是首个在 Sub-6GHz 频段实现下行 6 载波聚合的产品,首个在智能手机上支持 6 路接收能力对产品。其支持 10Gbps 峰值下行速率和 3.5Gbps 峰值上行速率——和前代比起来,高通在 X80 上更注重复杂情况下提供更高平均连接速率。
在 AI 特性方面,骁龙 X80 支持基于 AI 的多天线管理,首次面向 CPE 类产品支持 AI 赋能的增程通信,也是首次在 5G 调制解调器中集成了NB-NTN 卫星通信功能的支持。在 X80 中,集成有专用的张量加速器,因此可以直接在 X80 芯片上运行相应的 AI 算法。
在 AI 的帮助下,X80 提升了网络连接性能。在毫米波网络中,X80 可以让 CPE 服务获取速度提升 60%,联网模式下功耗降低 10%。或是让定位精度提高 30%,选择最佳基站时间减少 20%,提升链路获取速度 30%。
除了尖端技术,高通在 MWC 期间还准备和业界探讨千兆 5G 能力普惠化。将高速网络连接普及到 100 美元或以下智能手机上,让更多人能够享受到5G赋能的体验。
最后,高通宣布推出高通基础设施处理器产品组合。面向 5G 基础设施领域,高通设计推出的 Arm 兼容处理器将赋能新一代开放式 vRAN 服务器,以及极具成本效益的小基站。
是在服务器处理器领域,高通基础设施处理器产品组合在赋能高性能连接的同时降低了总体拥有成本,并将AI能力引入无线接入网(RAN)。此外,我们还在高通基础设施处理器产品组合中集成了公司全新的自研 Oryon CPU,为网络侧的 AI 功能提供支持。
同时,为了秉承 OpenRAN 的开放原则,高通基础设施处理器不仅能够与支持分布式单元的高通 RAN 平台配合使用,还支持标准化接口,能够与其他厂商的设备协同工作,以推动下一代 OpenRAN 的发展。
为了加速移动端 AI 技术的发展,高通还宣布推出 AI Hub,为开发者打造获取开发资源的中心,从而基于骁龙或高通平台打造AI应用。
高通 AI Hub 包含有一系列为了骁龙和高通平台而预先优化过的 AI 模型,开发者可以在超过 75 个流行的 AI 模型以及生成式 AI 模型中选择,比如 Whisper、ControlNet、Stable Diffusion 和 百川 7B。这些模型优化了内存占用和能效,并以多种运行时打包。每个模型均是为了在高通 AI 引擎各个部分上运行而优化,其推演速度相比未优化前最多快 4 倍。
此外,AI Hub 中的 AI 模型可以自动从源框架和流行的运行时中转译,也可以无缝和高通 AI 引擎 Direct SDK 合作。以便开发者无缝地将 AI 模型集成到应用程序中,加快了 AI 模型的部署,鼓励开发者更多使用设备端 AI 计算。
目前经过高通优化的 AI 模型已经在高通 AI Hub、GitHub 和 Hugging Face 平台上提供,高通后续也会加入更多新模型和操作系统支持。