全球AI算力格局正在发生颠覆性变化。当美国以69%的算力占比遥遥领先,中国仅占15%的时候,很多人都认为这场竞赛已经失去了悬念。 美国手里握着全球75%的GPU集群性能,英伟达一家就占了AI芯片市场八成份额。就像造汽车得先有发动机,美国直接垄断了“AI发动机”的生产线。 去年有消息说,英伟达最顶尖的 H100 芯片早就卖空了,订单排到了 2024 年下半年,就算是亚马逊这种全球最大的云厂商,CEO 都直言 “想拿到货太难了”。马斯克更直白,说现在高端 GPU 比毒品还难买,ebay 上原价 3 万 6 美元的 H100,被炒到 4 万 5,还得靠抢。 咱们国内的百度、阿里这些大公司急得不行,一下子给英伟达下了 50 亿美元的订单,结果呢?去年只拿到 10 亿美元的货,剩下的都得排队等。 这还不是最糟的,美国早就开始卡咱们脖子,高端的 H100 直接不许卖给中国,英伟达没办法,只能搞些 “阉割版” 的 H20、B40 芯片,性能砍了一大截,就算这样,咱们以前还得捏着鼻子买。 直到后来国家出手反垄断调查,才叫停了这些低配芯片的采购,可这背后的无奈,只有搞 AI 的企业自己清楚。 光有芯片还不够,得把它们堆成 “算力集群” 才能发挥作用,这方面美国的优势更吓人。全球 75% 的 GPU 集群性能都在美国,就说微软吧,它家 Azure 云里的等效 H100 GPU 就有 75 万到 90 万块,计划到 2025 年要翻到 250 万到 310 万块,每年砸在数据中心上的钱就有 500 亿美元,这规模简直是 “下血本”。 亚马逊更狠,直接在印第安纳州的玉米地里建了个超级数据中心,占地 1200 英亩,要盖 30 座楼,花 200 多亿美元,专门给 AI 公司 Anthropic 搭计算平台。 那地方现在每天有 4000 个工人施工,每座楼都像好几个橄榄球场那么大,里面要装数十万颗 AI 芯片。这数据中心一年要耗 2.2 吉瓦电,够 100 万户家庭用,夏天降温得抽数百万加仑的水,就算引发环境争议也不管,眼里全是算力霸权。 反观咱们,2024 年阿里云在国内 AIIaaS 市场占了 23%,看着不错,但放到全球比,和亚马逊、微软、谷歌这三大巨头根本没法比 , 这三家加起来占了全球 70% 的云市场,数据中心遍布全世界,咱们的算力设施还局限在国内,根本没法全球调配。 更可怕的是美国的 “生态垄断”,就像织了一张大网,让你想绕都绕不开。全球 90% 的 AI 开发者用的都是英伟达的 CUDA 框架,这东西就像芯片的 “操作系统”,你想开发 AI 模型,就得学它、用它,久而久之就离不开了。 斯坦福大学的报告里有组数据扎心了:2024 年美国的 AI 私人投资是 1091 亿美元,是咱们中国的 12 倍。OpenAI 训练 GPT-4o 模型,一下子用了 380 亿 petaFLOP 的算力,而咱们国内头部模型的算力增长速度,每年大概是 3 倍,全球其他地区都是 5 倍,差距还在拉大。 有人说咱们可以靠算法优化补回来,比如去年的 DeepSeek V3 模型确实省了不少算力,但这好比 “用技巧省燃料”,可人家美国是直接 “建了油田”。 Llama 3.1 这种模型,训练一次就要 1.7 亿美元,咱们的企业能拿出这么多钱砸在算力上的有几家?更别说美国还在不断加码,英伟达的芯片产能卡着,云厂商的算力集群扩着,开发者的框架绑着,这三道坎儿,每一道都难迈。 可能有人会说 “差距在缩小”,但得看清楚是怎么缩小的。斯坦福报告说顶尖模型和第十名的差距变小了,可美国的顶尖模型已经跑到了前面,咱们追着人家的尾巴跑,就算距离近了点,人家还是在前面。 现在总算明白为啥很多人说竞赛没悬念了。美国从芯片生产到算力集群,再到开发者生态,全链条都攥在手里,就像牢牢把住了 AI 发展的 “命门”。咱们 15% 的算力占比,想要追上 69% 的美国,光靠热情和零散的突破根本不够。 那些说 “能弯道超车” 的话,听听就行,真要打破这种垄断,得踏踏实实地补芯片短板、建算力设施、搭自主生态,这可不是一天两天能成的事儿。现在这格局,确实让人揪心,但也得认清楚现实 —— 这场算力竞赛,美国暂时还真没给对手留太多机会。
全球AI算力格局正在发生颠覆性变化。当美国以69%的算力占比遥遥领先,中国仅占1
云景史实记
2025-10-01 10:11:29
0
阅读:3