网上吹得神乎其神的北大模拟计算芯片,真就那么厉害? 最近半个月,科技圈被一枚“中国芯”搅得热度飙升。北京大学孙仲团队联合集成电路学院研发的新型模拟计算芯片,刚登上《自然·电子学》期刊就刷屏全网:“算力超英伟达GPU千倍”“能耗砍到几十分之一”“打破美国技术垄断”,类似的标题看得人热血沸腾又半信半疑。在芯片被“卡脖子”的焦虑背景下,这枚号称“让电流自己算数”的神奇芯片,究竟是噱头还是真突破?今天就用大白话拆解它的核心实力。 它究竟厉害在哪里? 要搞懂这枚芯片的含金量,得先走进“计算江湖”,看看两大流派的博弈——数字计算和模拟计算,这俩就像武林里的不同门派,各有招式也各有短板。 数字计算咱们太熟悉了,日常用的电脑、手机、服务器全是它的“门徒”。它做事讲究“按部就班”,所有信息都得先转换成0和1的二进制代码,就像把所有问题都拆成“是”或“否”的选择题,一步一步运算。比如算25.36乘以18.72,它得先把这两个数拆成无数个0和1,通过晶体管的开关状态完成运算,最后再把结果还原。这种方式就像用刻度精确到毫米的尺子量长度,误差小、抗干扰,但架不住效率低、费能量——遇到矩阵计算这类复杂任务,就像让短跑冠军跑马拉松,又慢又费劲。 模拟计算则是“江湖老前辈”,思路完全不同,更像“心算大神”。它不搞0和1那套,直接用电压、电流这种连续变化的物理量做运算。比如要解矩阵方程,它就利用“电压等于电流乘以电阻”的基本规律,让电流在特制电路里自然流动,电流的变化过程就是运算过程,最后直接出结果。这就像用弹簧秤称重,指针划过刻度直接读数,不用拆分解码,处理大规模并行任务时,简直是“千军万马齐上阵”,速度和能耗比数字计算强太多。 但模拟计算有个“致命硬伤”:精度差、易受干扰。传统模拟计算的精度只有4-6比特,相当于用厘米刻度的尺子量头发丝直径,误差大到没法用。而且温度变一点、有电磁干扰,运算结果就跑偏,好比心算时被噪音吵得算错数。也正因如此,它才被数字计算挤下了主流舞台,沉寂了半个多世纪。 北大团队的厉害之处,就是给这位“老前辈”升级了装备,用一套“组合拳”式逆袭绝招解决了世纪难题,让它强势回归。 第一招是“电子变形金刚”---阻变存储器。这玩意儿特别神奇,电阻能精确调成多个状态,断电了还能存数据,相当于同时兼具“U盘”和“计算器”的功能。研究团队把大量这种存储器排成阵列,让阵列位置和矩阵的数学位置一一对应,电流通过时自动完成乘加运算,不用像数字芯片那样反复搬运数据。这就像把工厂的仓储和生产线合二为一,原材料进去直接出成品,效率和能耗一下就上去了。 第二招是“草图精修大法”——迭代优化算法。就像画家先画铅笔草图定轮廓,再用细笔修正细节,团队先通过快速运算得到“近似解”,再多次迭代细化,最后把精度提到了24位定点精度。这是什么概念?相当于测量10公里的距离误差不超过1毫米,能和数字计算的高精度相媲美。 第三招是“乐高拼接术”——位切片技术。团队把24位精度的数字拆成多个3位的“小积木”,让不同的存储器阵列分别处理,最后再把结果拼起来。这一下解决了传统模拟计算“精度越高越复杂”的难题,原本只能处理粗糙计算的模拟电路,现在能搞定高精度复杂任务,就像让入门画家突然掌握了超写实技巧。 这套组合拳的效果堪称惊艳:处理32×32矩阵求逆时,单核算力已经超越高端GPU;矩阵规模扩大到128×128时,吞吐量是顶级数字处理器的1000倍以上——传统GPU要算一天的活,它一分钟就搞定了。更关键的是能耗,相同精度下比传统数字处理器降低100倍以上,完美治好了数据中心“耗电如流水”的毛病。
美国同意英伟达的芯片只要回到国内建厂,就能卖给中国。一出政策,中国立马反击:只要
【1评论】【20点赞】