IT之家7月31日消息,来自明尼苏达大学双城校区的研究团队最新研制出计算随机存取存储器(CRAM),可以将AI芯片的能耗降至千分之一。
国际能源机构(IEA)预测,AI的能源消耗将翻一番,2022年耗电量为460太瓦时(TWh),而在2026年耗电量预估将达到1000太瓦时。
团队表示,传统AI芯片需要在逻辑(处理)和内存(存储)之间不断传输数据,因此导致耗电量巨大。
而CRAM新型存储器通过将数据保存在存储器内进行处理来解决这一问题,数据无需离开计算机存储信息的网格,可以完全在内存阵列中进行处理。
团队表示和传统方法相比,基于CRAM的机器学习推理加速器能耗可降低至千分之一,甚至在某些场景应用下可以达到1/1700或者1/2500。
该团队成立于2003年,由物理学、材料科学、计算机科学和工程学专家组成,在过去20多年来一直开发该技术。
该研究以磁性隧道结(MagneticTunnelJunctions,MTJs)相关专利为基础,而MTJ是硬盘、传感器和其他微电子系统(包括磁随机存取存储器MRAM)中使用的纳米结构器件。
CRAM架构克服了传统冯-诺依曼架构(计算和内存是两个独立的实体)的瓶颈,能够比传统系统更有效地满足各种人工智能算法的性能需求。
明尼苏达大学团队目前正与半导体行业的领导者合作,扩大演示规模,并生产必要的硬件,以更大规模地降低人工智能能耗。
IT之家附上参考地址