从专用量子计算到实用化:解读郭光灿院士的量子计算最新论断

科技亿点不微小 2024-11-27 04:34:47

作为未来产业明确提出的六大领域之一,量子计算能够为新质生产力提供强大的算力支撑,已经并还将持续释放应用潜力。

近日,在合肥举办的以“量子科技 协同创新”为主题的2024年企业自主创新服务行动会上,中科大教授、中科院院士郭光灿围绕“量子计算发展现状”做主题报告时,将量子计算机的发展划分为三个阶段。

2010-2020:量子计算机原型机时代。这一阶段可以理解为实验室阶段,量子比特数较少,功能不强,应用有限,但“五脏俱全”,是地地道道的量子处理器,能够按照量子力学的规律运行。

2020-2030:专用量子计算机时代。这一阶段意味着量子计算机已经开始走出实验室开启应用探索,尽管量子比特数只有100左右,但其运算能力已经超过任何超级的电子计算机,只是并未采用“容错纠错”技术来确保其量子相干性,因此只能处理在其相干时间内能完成的有关问题。

2030-2040:通用量子计算机时代。这一阶段属于商业成熟阶段,量子比特数达到百万量级,并已采用“纠错容错”技术,能够在各个领域获得广泛应用。

郭光灿院士分享现场

很明显,眼下我们正处于专用量子计算机时代。

中国信通院前不久发布的《量子计算发展态势研究报告》(2024 年)中提到,目前量子计算处于从前沿研究向应用探索落地突破的关键阶段,也侧面印证了这一事实。此外,GJB 7688-2012《装备技术成熟度等级划分及定义》从技术成熟度角度拆解了“专用量子计算设备”,即牺牲了计算的图灵完备性,在工程可靠性上获得了有效进步。通过查阅公开报道可知,专用量子计算设备的稳定时间可达到数小时尺度,并且已经在一定数量的应用场景中迁移了软件算法,并获得了实际应用验证。对标GJB 7688-2012,可以达到5-7级成熟度,正处于工程化往产品化渐进的阶段。

不同于通用量子计算机较长的研发与应用周期,业界认为,专用量子计算机有望在未来3到5年率先迎来商业爆发期。据此前北京日报报道,国内专用量子计算代表企业北京玻色量子科技有限公司获得数亿元融资,无疑表明了资本市场对专用量子计算机的认可。

量子计算快速发展的背后,另一个备受关注的问题是:通用量子计算机何时能实现?

2024年9月,在以“共享创新、共塑未来:构建科技创新开放环境”为主题的 2024 年浦江创新论坛主论坛上,2023 年度国家最高科学技术奖获得者薛其坤院士指出,在研制量子计算机方面,从物理学上至少还有5道难关,包括错误率、相干时间、制冷机、硬件方案不确定性,估计至少还需要 10-20 年时间,才能研制出通用的执行任何量子算法的量子计算机。

言外之意,乐观指数拉满,通用量子计算机的诞生仍需要10-20年。

目前,通用型量子计算机体积巨大,附属设施复杂,难以部署在普通的数据中心中,且采购、建设和运行成本也极其高昂,只能以大型科研设备的形态存在。

但当未来到来的那一天,通用量子计算和专用量子计算又会是哪种相处模式呢?

并行发展。一个非常好的参考就是 CPU 和 GPU,它们是面向两个不同场景的硬件体系,看看如今的英特尔和英伟达便可知。

我们以人工智能为例。当前,AI 模型的训练和推理依赖于大量算力,而 GPU 已经成为 AI 训练的主力。要知道,GPU 最初是为加速图形渲染和游戏而设计的,因其具备强大的并行处理能力,尤其适合深度学习模型中矩阵运算的大规模并行计算需求。因此,虽然 GPU 原本并非为 AI 设计,但由于其特性与AI需求高度契合,迅速成为了主流的计算硬件之一。

未来的 AI 应用场景将更加多样化。随着 AI 从数据中心向边缘设备、物联网、自动驾驶、智能机器人等领域扩展,AI 计算逐步向“边缘计算”转移。这些应用场景对实时性、低延迟、高能效等方面有严格要求,使得通用计算设备难以满足需求。因此,各类专用芯片(如ASIC、FPGA、NPU等)应运而生。专用芯片可以根据具体的应用场景进行高度定制化设计,以优化特定任务的性能。

例如:

自动驾驶:需要处理大量来自摄像头、雷达和激光雷达的数据,实时处理需求使得通用 CPU 难以胜任。NVIDIA 的 Orin 芯片和 Mobileye 的 EyeQ 芯片等,都是为自动驾驶设计的专用芯片,提供强大的算力支持。

智能手机与物联网设备:这些设备要求高能效和低功耗,因此厂商设计了集成 AI 计算单元的专用处理器,如苹果的 A 系列芯片中的神经引擎,专门用于加速 AI 任务,如图像处理和语音识别。

综上可看出,AI 所依赖的算力越来越多元化,未来不同的应用场景将会根据需求选择最合适的算力设备,根本无需拘泥于专用还是通用计算设备,最终目的都是在实际的应用场景中提高计算效率,以应用效果促进生产力的发展。

0 阅读:4

科技亿点不微小

简介:感谢大家的关注