重大突破!AI学习速度提升百倍还节能,性能还不打折

曦照认知 2025-03-12 09:39:06

近日,人工智能领域传来一个令人振奋的好消息:科学家们研发出了一种全新的AI训练方法,这种方法能让AI学习速度提升100倍,同时大大减少能源消耗,而且在学习的准确性上一点也不打折扣!这一突破,很可能会为AI的未来发展开辟一条更加绿色、可持续的道路。

大家都知道,如今AI已经融入了我们生活的方方面面,像各种大语言模型,给我们的工作和生活带来了极大的便利。但你可能不知道,支持这些AI运行的,是数据中心里那些超级耗电的计算机。就拿德国来说,2020年数据中心的耗电量达到了大约160亿千瓦时,差不多占了全国总能耗的1%。到2025年,这个数字预计还会涨到220亿千瓦时,这能耗简直高得惊人!

随着AI应用越来越复杂,训练神经网络需要的计算资源也越来越多,能耗问题也就越来越严重。为了解决这个难题,来自慕尼黑工业大学的物理学增强机器学习教授菲利克斯·迪特里希和他的团队,经过不懈努力,研发出了一种全新的训练方法。

咱们先了解一下神经网络,它是模仿人类大脑设计的,由很多相互连接的节点(也就是人工神经元)组成。这些节点就像一个个小“信息处理器”,会给输入的信号分配不同的权重值,当信号强度达到一定程度,就会传递到下一层节点。在训练神经网络的时候,一开始参数值是随机设定的,然后要经过无数次的调整,才能让预测变得更准确。这个过程需要进行大量的计算,所以特别耗电。

而这次新的训练方法就不一样啦!慕尼黑工业大学迪特里希教授团队不再像以前那样一次次地去调整节点之间的参数,而是用上了概率的方法。他们会专门挑训练数据里那些变化大、变化快的关键地方,根据这些地方的值来确定参数。简单来说,就是找到了训练数据里的“关键点”,利用这些点来让训练变得更高效。

用这种新方法训练神经网络,好处可太多了。菲利克斯·迪特里希教授说:“我们的方法用很少的计算量就能确定需要的参数,这样一来,神经网络的训练速度能大幅提升,自然也就更节能了。而且,新方法训练出来的AI,准确性和传统方法训练出来的差不多。”

这一研究成果已经在相关学术会议上进行了展示,相信在不久的将来,这种新的训练方法会得到更广泛的应用,让AI变得既高效又环保,给我们带来更多惊喜!

参考资料:《ai-can-now-learn-100x-faster-without-wasting-energy》

0 阅读:7
曦照认知

曦照认知

感谢大家的关注