文丨俊俊
国内外的AI热度没有天花板,就一直没停过。
据服务咨询机构Dealroom和Flow Partners最新公布的报告显示,市值总额达14万亿美元(约占标普500指数的32%)的美股“七姐妹”(英伟达、苹果、亚马逊、Meta 、谷歌、特斯拉和微软),每年在AI和云基础设施上投资高达4000亿美元(约合人民币29000亿元)。涵盖 AI 芯片、大模型等领域。
AI的潜在商业价值,是这场争霸赛的根源。
国外战场,市场看好AI PC
国外OpenAI与Google互掐风波稍歇,就迎来了芯片巨头的连环轰炸。
英伟达剧透下一代GPU芯片,以及未来三年规划6 月 2 日晚,英伟达创始人兼 CEO 黄仁勋在COMPUTEX 2024上现场剧透了未来三代的 GPU 架构、下一代 CPU 架构,以及全新 GPU+CPU 二合一超级芯片。
整体来看,英伟达 3 月刚发布了新架构 Blackwell 芯片已经开始投产,计划将在 2025 年推出 Blackwell 的增强版 Blackwell Ultra 芯片;2026 年,计划推出下一代用来取代 Blackwell 的 Rubin 架构芯片;2027 年推出 Rubin 的升级版 Rubin Ultra 芯片。
随着目前英伟达旗下最高性能的采用 Blackwell 架构的 GPU 已经投产,相关产品今年将会陆续上市,与此同时,随着英伟达 GPU 架构的迭代,算力大幅提升,功耗不断优化,以拥有 1.8 万亿参数的 GPT-4 为例,8 年内将其推理功耗降低至原来的 1/45000,训练功耗降低至原来的 1/350。这 8 年间英伟达芯片算力的提升幅度似乎让摩尔定律“失效”了。
值得一提的是,英伟达从未能将厚重的GPU塞进轻薄的笔记本中,但它推出了面向AI PC市场的GeForce RTX芯片。
3月的GTC大会彰显了英伟达的技术和业务扩张野心,6月COMPUTEX上的卖力推销,显示了黄仁勋在努力证明英伟达市值的增长神话并非泡沫。
AMD更新Instinct GPU路线图,加速数据中心Al创新6月3日,AMD公司CEO苏姿丰(Lisa Su)在COMPUTEX 2024宣布,更新Instinct GPU系列路线图。
其中,全新 AMD Instinct MI325X AI加速器(芯片),将配备288GB HBM3E内存和 6TB/秒的内存带宽,采用与MI300系列相同设计。相比英伟达最强 AI 芯片H200,MI325X内存容量提高2倍、带宽提升1.3倍、计算性能提升1.3倍,最快2024年四季度上市。
同时,此次AMD还即将推出下一代AMD Instinct MI350系列——首款MI350X加速器,基于全新AMD CDNA 4架构,采用台积电3nm工艺,具有高达288 GB的HBM3E内存。相比MI300系列,新的MI350系列的 AI 推理性能将提高惊人的35倍(3500%),预计将于2025年上市。另外,基于下一代AMD CDNA「Next」架构的AMD Instinct MI400 系列预计将于 2026 年上市。
目前各大科技大厂都在押宝的 AI PC,AMD超前公布了首批Zen 5处理器,包括台式机用的Ryzen 9000 CPU和笔记本电脑用的Ryzen AI 300「Strix Point 」APU,令其大出风头。
Arm的目标是在五年内获得 Windows PC 市场超过 50% 的份额6月3日,半导体IP大厂Arm CEO Rene Haas在COMPUTEX 2024展会上演讲,预计到2025年底将有1000亿台使用Arm处理器的AI设备。他还表示,Arm预计将五年内拿下Windows PC市场50%以上的份额。
目前采用Arm IP的芯片年出货量已经达到3000亿颗,庞大的生态系也是Arm在AI时代的最强而有力的合作伙伴。
为了加速开发者开发基于Arm架构的处理器的AI应用的开发,Arm 还推出了全新的 KleidiAI 软件。KleidiAI 具有高度优化的机器学习(ML)内核的集合,使开发人员能够在通过高度优化的生成式 AI 框架运行 AI 工作负载时释放 Arm CPU 的全部潜力。可以说,Arm KleidiAI 软件,将大大简化了运行 Android、Linux 和 Windows 的台式机、笔记本电脑、平板电脑、汽车、服务器处理器的开发和人工智能的部署。
报道称,如果 ARM 的推动取得成功,市场将重新面临「洗牌」。
国内AI热度,主要还是大模型
国内大模型刚开始出现之时,铺天盖地的榜单,五花八门的排名,自吹自擂的营销,让这个行业显得浮躁喧嚣。
但时至今日,国内没有哪个团队处于绝对领先位置。AI大模型有三大要素:算法、数据、算力,国内厂商们过去一直在啃算法,大家比拼谁的算法更先进,谁的模型参数更大,推理效率更高。但现在越来越多从业者发现,算法其实没有壁垒。
数据则是比算法更稀缺的资源,算法可以通过修改开源模型和人海战术迭代,算力可以通过砸钱买卡获得,但优质的数据没有渠道售卖,花钱也不一定能买来。
事实上,一个模型或一个项目要证明自己有价值,最直接的方法就是证明自己的盈利能力。大模型行业的商业化有两大类——To C 或 To B,即向个人用户收费,或向企业(包括政府、开发者)收费。
百度C端B端两手抓,其中面向C端的文心一言4.0是付费版,连续包月49.9元,但百度一直没有公布文心一言的付费率数据。
据悉,后起之秀月之暗面的Kimi,网页版的访问量在4月超过了文心一言。但Kimi没有选择用收会员费的形式「自废武功」,而是非常另类地推出了打赏功能,在高峰期算力不足时可获得优先使用的权益,非强制。
这还是C端大模型的头部选手,收费已经如此之难。在向上爬的过程里,必然有一些公司会摔下去被淘汰,尤其是那些还不具备造血能力的公司。
这背后主要原因还是在于,当前的大模型产品还是不够好用,不是那么刚需,并没有一个人们必须付费的理由。
大模型在具体应用时,还不能百分之百保证效果。以大语言模型为例,「胡说八道」的毛病一直没有克服。这种不可控的状态,很难让它在生产中发挥很大作用,还需要时间打磨。之前行业对大模型过于乐观,总有「训练出一个大模型就可以改变世界」这种不切实际的幻想,事实上大模型至今还没有真正形成生产力。
如果不能给企业带来业务价值,再便宜也是浪费。所以目前极少有公司能抓住市场需求,打通业务场景,率先赚到钱。
国内大模型行业,今年明显比去年「安静」。5月的这一波价格战,大模型API的调用价格直降超过90%。以字节跳动、阿里、百度为例,每百万token推理输入量的价格,降到了8毛、5毛及免费。可参考往期文章《国产AI大模型,开启狂卷模式》。
模型层一定要解决两个核心问题:好用、便宜。美国解决了第一点,尚未解决第二点,而中国两个都没有解决。这也就造成了大家都在说大模型,但大家却不会去用大模型的窘境。
AI PC或将开辟AI新蓝海
业界广泛预期,PC会成为个人大模型落地的首要终端,PC市场或将步入AI PC时代。作为AI技术与传统PC相结合的产物,AI PC被硬件厂商视作经历数年消费低迷期后,重振行业的星星之火。
AI PC市场高预期的背景下,英特尔、英伟达、AMD、高通等芯片厂商,以及联想、惠普、华为、苹果等PC厂商纷纷入场布局。
从硬件层来看,处理器芯片、内存、散热、交互将是主要收益领域;模型层来看,未来针对各行业的垂直端侧模型将成为主要发展趋势,进而支持传统软件的AI转型以及AI原生应用的发展;终端层来看,各主流PC厂商玩家正加快AI PC相关产品布局。
当前时点,AI PC虽然已经登上了历史舞台,但是仍处于产品早期阶段,未来还存在许多变数和疑问。不过可预见的是,技术催化、性能升级、应用落地、厂商押注……
无论是基础算力的芯片,还是赋能智慧的大模型,再到应用落地的 AI PC,我们期待 AI 能够从热度中进化,真正落地生根。
如果您有什么想说的,欢迎在评论区留言讨论!如果您有新鲜观点或者观察,也欢迎私信“投稿”,进行投稿。
如果您想要获取最新的科技趋势分析、行业内部的独家见解、定期的互动讨论和知识分享、与行业专家的直接面对面交流的机会!
欢迎扫描下方二维码,添加头部科技创始人、AI头号玩家俱乐部主理人张晶晶微信!