春节期间,中国浙江一个公司发布了DeepSeek大模型,这个模型超过了美国的ChatGPT模型,但是成本只有美国模型的5%,这就意味着,光靠堆芯片算力,已经不是唯一的人工智能模型方案了。 人工智能核心就是模型的优劣,而模型主要就是依靠“算力+算法”得出来的,过去,大家都觉得算力很重要,因此算力成了发展核心,而算力就需要好的芯片,英伟达的芯片很厉害,所以股价一路狂飙。 但是现在中国人在算力不行的情况下,通过优化算法,也达到了很高的级别,这就意味着,过去只看算力,忽略算法的路子被打破了,同时也让很多人意识到,只要算法足够优秀,算力的意义并不大。 我们将大模型比作高考,想要得到高分,过去的逻辑是大量的做题,只要给机器做足够多的题,那么最终一定能实现对高考题库的全覆盖。于是美国人搞出来了很厉害的芯片,每天可以做1万套高考试卷,而中国的算力很差,每天只能做500套试卷。 这时候,中国公司就想,这1万套试卷,有的题难、有的题简单,甚至还有大量的重复题型,我为什么不将其提炼出来,总结一些经典题型呢。于是就优化题型,也就是算法,只做那些具有代表性的,经典的题型,每天依旧做500套试卷。最后参加考试,发现中国公司的成绩更好,原因是算法更优秀,做的题更有针对性。 这就是过年期间,美国以英伟达为代表的科技股大跌,而反过来中国的科技股大涨的逻辑。但是,这个逻辑我觉得更多的是情绪化的,因为算法的优化只是一时的,而算力的差距还得靠中国人自己想办法补起来。 为什么这么说呢,因为算力的优化理论上是有限的,就像高考经典题型始终是有限的,但高考的题目肯定是变化多端的,不可能只靠一些经典题型就能解决问题,所以算力,也就是多做题肯定是必要的,因为只有做得多,才能更好的覆盖高考的题目范围。
春节期间,中国浙江一个公司发布了DeepSeek大模型,这个模型超过了美国的Ch
佳丽聊世界趣事
2025-11-20 17:28:47
0
阅读:0