中国AI产业突围,新模型吊打美国?算力需求骤降?如何解读?

樱狼全球说 2024-12-31 14:07:24

中国的AI大模型,竟然一夜之间“吊打老外”?

中国发布大模型,性能吊打美国开源大模型

事情是这样的,26号的时候,中国的一家公司发布了一个叫做DeepSeek-v3的大模型,这个大模型非常厉害,性能不仅吊打大部分的开源大模型,而且和国外最著名的闭源模型GPT-4o以及 Claude-3.5差不多。

简单来说,我们的国内大模型性能,已经赶上了欧美国家,成为世界顶尖的水平。如果这还不够振奋人心,那么国产大模型,其实发挥了中国“勤俭持家”的本领。

这个国产大模型DeepSeek,也就是“深度求索”,训练成本仅有国外大模型的10分之一,也就是600万美元左右,这个金额是稍微小一点的AI公司都可以接受的成果。

国产大模型如何突围?

DeepSeek的公司,其实和金融有非常大的关系,浙江这边之前有一家公司叫做“幻方量化”,是浙江第一乃至中国顶尖的量化交易公司。

幻方量化,转型人工智能

众所周知,量化交易需要用到大量的GPU进行运算,而这家公司由于量化策略,在A股市场赚了非常多的钱,所以在当时英伟达对中国AI算力不限购的情况下,就直接囤了1万张A100的AI算力卡。

也许是因为量化交易对散户造成了降维打击,去年的时候,证监会开始对量化进行限制,幻方也开始清退量化产品,开始转型。

恰好这个时候已经是AI大模型火热的时代,于是幻方就集中资源,探索AI领域并成立了“深度求索”公司。

5月份的时候,DeepSeek V2发布,凭借着极致的性价比出圈,而这次发布的V3版本,更是火遍了全球。

国外媒体甚至直接表示,深度求索这次大模型的问世,或许直接让AI对于算力的需求降低了十分之一,这可以有效缓解市场对于算力需求的紧迫性,也意味着或许LLM大模型的训练,并不需要大规模的GPU集群。

国外对于幻方产品的描述

对于美国来说,其实真的不算什么,因为美国的大厂不缺钱,不缺人,也不缺算力。想要芯片,找英伟达订购就是了。

但是对于中国来说,其中的战略价值和意义就非常大了。

因为中国虽然是世界第二大算力国,但是我们现在想要拥有更多的算力,只能去美国采购那些被阉割的算力卡。最前沿和最顶尖的AI芯片,我们是没有办法拥有的。而美国最近几次最中国的制裁,不仅是要切断中国或许7nm以下先进芯片的可能。

而且要对中国28nm以上的成熟制程进行降维打击。这就意味着在未来,短期内的中国,依然会受到美国强大的算力限制。

拜登“围剿”中国AI产业

这个关键时刻,大模型的突破,让中国对于算力的需求一下子没有那么紧迫,这就意味着我们AI产业的发展,短期内不会受到美国算力封锁的限制,那么中国的AI产业容错率一下子就大起来的。

AI落地更加快速

中国拥有了媲美世界最先进的AI大模型,还有一个好处,就是在于落地。

其实现在我们用的各种大模型,每次输出内容都需要成本,不管是阿里,腾讯还是字节的大模型,我们现在虽然可以免费试用,但是成本都是大厂在掏的。只不过比起几年前,现在的成本其实已经很低了。

而本次的DeepSeek V3模型发布,其实把这个成本又打到了更低,按照官方的数据,,每百万输出tokens 8元,是当前模型性能/价格比最优的模型服务。可以说是又吊打了国外的大模型。

新的大模型性价比,是所有模型中最高的。

不是国外的大模型用不起,而是国内的更有性价比。

还有一点在于,DeepSeek-V3本身就是开源模型,这意味着其他大厂可以按图索骥,让自己的大模型进行迭代,很快的追上DeepSeek-V3的性能和产品。所以国内整体大模型的质量和价格,都会很快的打下来。

那么受益者是谁呢?

大模型企业卷的厉害,自然受益的就是我们的消费者。以前大模型刚开始的时候,想要使用AI产品,就得想办法用国外的,而且还要注册国外账号,用美金支付,现在国内各种大厂的大模型随便用,功能也越来越先进,最重要的就是都是免费的。

所以从这个趋势来看,虽然面对美国的技术封锁,但是国产大模型和AI产业,其实有自己的办法来对美国AI封锁进行“破局”。

中美“芯片战”

我也相信,中美之间的“AI战争”将会持续,而我们也会走出一条区别于美国的发展道理,紧跟美国,甚至实现弯道超车,像这次的大模型一样,超过美国AI行业的发展水平。

-----------------------------

【樱狼财经】探寻热点背后的真相,欢迎点赞、评论,赞赏。

0 阅读:1
樱狼全球说

樱狼全球说

感谢大家的关注