新科技浪潮一开始都是硬件和基础设施赚钱多一点,但到后面就是应用,应用赚的钱是前面的十倍以上。
大模型是近年来最热的话题,作为最基础的构件唯一供应商,英伟达也因此一路飙升成为美股新王。作为国内的投资者,如何看待这一浪潮,大模型的趋势是什么?未来AI科技革命的投资机会在哪里?最近参与了几场AIG主题的论坛,整理了一些印象深刻的专家观点,希望对大家有所启发。
国内大模型两股阵营:
一是技术信仰派,大多技术出身,认为应该像OpenAI一样信仰AGI、信仰scaling law(规模定律),思维更偏硅谷。在他们眼中,随着模型能力跃升、模型成本降低,过程中会解锁丰富的应用。倘若不追求“更大更强的AI能力”,一旦其他人的模型飞跃,很快会降维碾碎现有根据地与护城河。
一是市场信仰派,信奉陡峭的技术曲线终有放缓的一天,只需将“足够的AI能力”投入可以快速变现的商业场景中,相信数据和应用才是核心,用市场庞大而独特的数据构筑壁垒。
中美差距与中国优势:
关于当下中美AI的差距,GPT-5能否做出来是个关键点,技术上明年底都会对齐GPT-4。
中国在AI应用上的创新是比美国要领先的。原因一是数据多,二是AI做不到100%取代人。
OpenAI如果底层技术上碰到明显的瓶颈之后,中国在应用的创新肯定会比美国多,因为中国应用场景多、数据多。
快手的视频大模型明显比sora好,为什么?因为快手数据多。大模型的核心不是算法,是高质量的数据。高质量数据,中国在很多领域是比美国有优势的。
中国在AI应用上的创新是比美国要领先的。一是刚才讲的数据多,二是AI达不到100%取代人。在很多细分领域肯定是50%取代人,有些是80%,剩下的就是人工补齐,需要人工补齐的时候,中国肯定是有优势的。
很多财经数据,在中国是要靠人工清洗的,在美国也要人工清洗。公开数据不清洗,误差太多,没法用。中国搞人工清洗有优势,人多,价格便宜。只有把干净数据喂到模型里面去,出来的财经分析报告才是准确的。美国是砸更多钱去搞大模型了,今天根本看不到这个(美国拿到巨量干净数据库的)可能性。
美国创业者设想的目标都很远大,用AI直接制作电影,难度很大,最近两年很难落地商业化。
但是中国有场景优势,已经从图像、图片转向短视频了,今天(中国)所有的电商、网站基本上都是基于短视频的,美国今天还都是图片,中国有特别多的数据,且10-15秒的视频广告是用AI最容易生成的,即使当中有部分瑕疵,靠人工花10%-20%的功夫去补齐也特别适合中国创业者。美国公司看了以后直接就呆了:(虚拟直播!)卧槽,你们怎么做出来的?感觉很惊讶,在美国做不出来你知道吧。
(中国)整出200多个大模型有啥意义呢?没啥优势。但在应用层有很多创新。中国在数据和应用场景上是远远超过美国的。
技术迭代趋势性放缓:
GPT-4是30%的合成数据,GPT-5已经是90%的合成数据了。靠合成数据来提高大模型的能力,肯定很快会到上限。
任何时代都会有“永动机谬论”。AI时代的永动机谬论就是靠计算机不断合成数据,反复提升大模型的能力。这也是GPT-5需要几十万张卡的原因,因为它合成数据的效率非常低,但大部分合成数据没有信息价值,不可能做到熵减,就需要靠很大的合成数据量来创造部分的熵减。
技术迭代曲线肯定会放缓,PC刚出来也一样,(电脑的CPU型号)286、386、486,大家都觉得美国牛,但586以后,联想都收购IBM了。技术迭代曲线不可能一直这么陡峭。
GPT-5以后就基本会放缓—GPT-4.5今年应该很快发布,GPT-5不一定,可能明年。GPT-5是把视频生成做到今天图像生成的水平,再往前走不太容易。现在看,语言模型进步差不多见顶,突破在多模态,Sora再发布三四个版本也能见顶。后面突破按他们自己说7万亿美金,至少几十万张卡拿出来训练,成本太高太贵了,失去了技术革命的意义。
GPT-5惊艳与否不再重要
硅谷现在都开始怀疑到底还有没有GPT-5,即使推出GPT-5,其在核心的推理能力上有没有一个显著的跃迁,是被怀疑的。
英伟达核心的问题是Scaling Law(尺度定律)有没有效,如果无效,英伟达的股价会跌得一塌糊涂。最关键的核心就是今年年底美国到底能不能出GPT-5,如果是10万张卡、20万张卡搞下去,还见不到核心推理能力提升,英伟达就完蛋了。
OpenAI到现在也没发布 GPT-5,一直在“跳票”,硅谷也高度怀疑GPT-5还有没有,即使出来在核心推理能力上还有没有显著的提高,这是很不确定的东西,今年年底是一个验金石。
如果GPT-5出不来,大模型的核心推理能力就到现在这个水平了,后面只是优化性能、优化成本。
市场派认为,GPT-5肯定没那么惊艳,或者惊艳与否不重要了,因为GPT-4已经满足了绝大部分的商业需求了。这实际上和X86会很像,X86到586以后的升级几乎都是边缘化。那些升级对本身商业模式已经没有什么大的变化了。
一直到可能在586以后的差不多十年,推出新的多核,那是一个本质性升级,但当中这十年的升级都没啥意思。GPT-4以后,市场对GPT-5没有那么期待。
大模型发展的挑战
大模型Scaling Law还在往前推进,但大模型是不是能够帮助我们推到AGI顶峰上去,现在还有很多未知因素。
以现在公开的Scaling Law,还做不到AGI。Scaling Law之外还有范式的变化,比如数据、算法、算力,不只是去简单地变成压缩模式,走出这个体系,才有机会走向AGI。
大模型发展最大的挑战是数据,在数据没有那么多的领域,或者假设最后要做出来一个比人类更好的AI,可能根本不存在这样的数据,现在所有的数据都是人产生的,最大的问题是怎么解决稀缺甚至不存在的数据。
大模型进步放缓后是应用的大机会
大模型的迭代曲线放缓了以后,未来生成式AI应用的机会就会更多。
以前很多投资人不敢投AI的应用,就是因为大模型演化太快,很可能大模型迭代就把很多场景覆盖掉了,而现在大模型演化速度有放缓趋势,应用机会就会有很多。
现在OpenAI技术迭代曲线还比较陡峭,开源肯定比非开源落后一年甚至一年半。但等非开源技术迭代曲线缓慢下来,开源会上去的。
OpenAI就一两百个工程师,开源的全世界几百万、几千万工程师在用,怎么可能一直比非开源的落后?就像安卓,今天的安卓比iOS差吗?肯定不会。
未来大模型有两个趋势:
一个是模型垂直化,一个是模型缩小化。
比如,华为肯定要把模型上手机,小米也会这么做。大模型跟终端硬件做结合,也是中国创业者的机会。到时候比拼的不再只是参数,更不是一味地卷算力。
大模型的商业模式待商榷
今年就可以看出大模型本身是不是好的商业模式,多少OpenAI的用户会因为价格差异迁移到Google的Gemini——OpenAI是20美金一个月,Gemini 10美金一个月。美国团队已经有一半人切换到Gemini,一部分是因为价格,另外一部分是因为Google的ecosystem。三星的AI手机已经绑定Google Gemini。下面就看苹果的新iPhone会绑定哪个大模型,会向大模型公司收多少钱。
同质化产品必须讲价值,今天的中国大模型几乎没有差别的,最终就只能拼价格。
现在国内200多个大模型。2023年年初大模型一千万私有化部署一个,到6月份500万部署一个,到年底100万都不要。给央企部署一个私有化大模型,不要100万人民币。一年时间就价格杀到地板价去了。一开始就内卷,大模型公司就会很难单独生存。
问题是你技术没有差异点,而且每一代技术你都要投,可能GPT-3.5 就几千万美金, GPT-4 可能要几亿美金, GPT-5 可能要几十亿美金。每一代模型都要重新去砸钱,而且变现周期可能就两三年。这比发电厂还要差,发电厂投入一部分后,基本上不需要再投入更多钱。说实话,大模型是非常非常差的商业模式。
通用大模型是个“先行者劣势”的方向模式。先行者在前面试错,成本巨高无比,而后面跟进的成本却越来越低。今年能花1000万美金、2个月时间训练出一个GPT-3.5,明年1000万美金就可以训练出一个GPT-4。跟在后面的反而很舒服。
今天的大模型公司很难单独存在,因为没有自己单独的商业模式,在成本线以下了。大厂打大模型价格战,创业公司几乎都没法跟进,因为它的成本比大厂外售价要高,而且本身没有专用的数据,很难建立壁垒。
5年以后根本就没有单独大模型公司,只有应用公司或者云服务公司。云服务公司免费提供大模型这样的接口。大模型是基础服务,基础服务一定会和云在一起。
AGI是愿景,ROI是企业生存的前提,从商业模式上验证大模型的能力同样重要。改变商业模式本身或者ROI很重要的方式,还是要看大模型的成本和产生的实际价值。
很少有一个技术像AI大模型一样,技术迭代和商业模式几乎同时推进,这也意味着,技术带来的商业化时间窗口转瞬即逝,竞争难度可想而知。
边缘侧小模型的未来更美好
iPad Pro 推了 M4 芯片,非常有意思,一个几百亿参数的小模型就可以在端侧直接跑起来了。尤其今年下半年的新 iPhone ,可能也是类似的。预计明年AI在应用层绝对会爆发。
苹果用混合模型,把芯片和端做好,反正大模型已经太多了,我随便用谁的效果都不差。
边缘端的小模型必然是未来方向,而且商业机会特别多。
360帮一些公司做私有化模型落地,发现百亿参数在当下绝大部分场景下够了,甚至你如果给它规定的场景很清晰,会比 GPT-4 还好。只要岗位定义清晰,就是可以省人工。
非常看好在边缘端侧的小模型商业化应用,在未来一两年肯定会在这个方向爆发。
边缘端的开源小模型必然是未来方向,而且这里面商业机会特别多。非常看好这个方向,在未来一两年肯定会爆发,而且很多人在尝试。现在开始必须开始聚焦这方面要做的事情,机会很多,比如机器人,陪伴机器、情感机器基本都需要端侧小模型在这些具体应用场景。
机器人最后拼的就是大脑,大语言模型就是机械的大脑。你可以把机器人看成是大模型的应用。
ARM成功拼的是轻量级,低功率,多年后ARM通过迂回策略,照样成为了CPU王者,甚至在某些方面取代了X86。所以,大模型不只一条路,不是越往大做越好,从千亿到万亿。除了Open AI的路,还有另外一条路,就是大模型是越做越专。
现在卷通用大模型没有意义,我们抢用户、抢场景、抢数据,更有意义。
在企业的定向应用场景里,只需要大模型解决单个场景里的专有问题。培养一个专业大模型,不需要会写古诗,也不需要解奥数题,它只需要做一件事。企业只需要用专有数据和知识进行训练,和企业之前的业务系统进行紧密整合。
今天大模型不只白菜价了,而是免费了。企业终端的焦点不在于模型的选择,而是你有什么样的场景,有什么样的知识,如何和企业业务相结合。这已经被证明,是大模型的一个现实方向。
刚刚开源的Databricks,还有马斯克开源的Grok,看起来参数很大,但里面都是基于混合专家(MoE)架构。说白了,就是由8个或16个小模型构成的,未来可能会有32个。每一个小模型只做自己最擅长的事情,且参数量都是百亿级的,最后再用几十个小模型拼凑成千亿模型。
把一个模型参数从千亿变到百亿,看起来参数小了10倍,但是成本、复杂度、训练和推理成本,可不是小了10倍,而是小了几百倍,甚至上千倍。一个千亿模型,没有几千张卡根本没法训练。但今天一个百亿参数的开源模型,做单一任务,用一台电脑、一个4090的显卡,单机单卡都能跑起来。
现在大模型还有一个趋势,就是大模型上终端、大模型上PC。这证明了,大模型在企业应用场景中,把模型越做越小、越做越专,是有可能的。
最小的一个公司用1张卡,提高了50%的效率。从360的实践来看,+AI是门槛很低的事情,只要一跟进就是能看到效果,创造很多价值。很多创业者做应用端的创新,成本肯定不高,关键是懂垂直场景和用户需求。知道什么样的产品形态,可以给用户创造一个数量级的价值。
360AI浏览器用了5个小模型,分别做翻译、搜索、阅读理解、脑图生成。五个百亿级模型加起来,比千亿级模型成本更低、速度更快。
入口为王,最值钱的不是技术
苹果再次定义了什么是入口为王,最值钱的永远不会是技术本身。谷歌每年是给苹果100多亿美金,就是做一个预装,在苹果上打开搜索浏览器确保搜索器是谷歌,所以最终最值钱的还是入口。
今天苹果也可能用OpenAI的GPT,但苹果不给GPT导用户,不用注册就可以用GPT,就是苹果不给GPT导用户,只统一接口去访问GPT的服务;而且苹果可以随时切掉。
今天苹果和OpenAI双方是免费的,我免费用你的服务,但我也不给你用户也不给你付钱。如果谷歌追上GPT-4,还给苹果100亿美金,iPhone会用谁?最终还是入口为王,苹果自己也在做大模型,如果没有GPT-5,我觉得到明年所有人都到GPT-4水平,那可能就是用苹果自己的大模型了。
数据是企业的核心资产
做企业级大模型时,越智慧的知识,越是知识类的数据,才更有价值。而这些需要在企业里去深度挖掘和搜集。企业私有大模型融合了企业对业务的理解和企业独有的知识,进而成为了企业的核心资产。
数据,美国没有产品短视频数据。在美国看亚马逊、Shopify,还是基于照片。所有的电商,美国基于照片。中国过去三年全部转成短视频了。很多垂直领域,都要积累数据、积累优化。他们60%-70%客户授权监控效果,就知道哪些视频适合淘宝,哪些适合小红书,哪些适合抖音,有闭环数据反馈。后面追不容易。
AI应用赚的钱是前面的十倍以上。
不管是PC互联网和移动互联网都是一样的,新科技浪潮来的时候,首先是硬件涨得最快,然后是基础设施,然后才是应用。2000年PC互联热潮,第一市值的公司是思科,今天市值最高的公司则是英伟达。
从发展规律来看,硬件和基础设施之后,AI应用公司会有更多的机会。
历史总是踩着非常类似的旋律,从思科到移动互联网的高通,然后到苹果、三星,最后会是应用型公司的机会,创高价值的都是像亚马逊、谷歌、脸书等应用型的公司,所以像AI应用型的公司同样还有机会。从PC互联网到移动互联网都是应用赚最多的钱。
确实每一个周期一开始都是硬件和基础设施赚的钱多一点,但到后面就是应用,应用赚的钱是前面的十倍以上。
这次大模型肯定也是的,而且这次速度比较快,PC互联网可能迭代速度是十年为周期的,这次是以年为周期的。
AI应用级爆点:
随着技术的不断演进,下一个杀手级应用的核心将聚焦在准确率上,特别是大模型在垂直场景细分中能否达到95%甚至接近99%的准确率,将成为决定其成败的关键因素。
现象级应用的大趋势:
但从这个历史来看,肯定是每一代都是比上一代要放大一个数量级。PC互联网时代是搜索,移动互联网时期是推荐,AI时代到底是什么?现在没有人知道。
美国AI的应用创新两条路:
一条是非常、非常薄,因为底层大模型太强大了,所以上面叫套壳应用。
另一条是看上去很伟大,但肯定走不通的,像Pika。这种目标很伟大,AIGC生成视频、电影。但这条路可能在几年之内都看不到走通的可能性。
AI应用迅速落地的三个有利条件:
一、中国有很多垂直行业的高质量数据,通过post-training是可以降低幻觉、提高可用性,达到商业化质量;(国内有优势)
二、如果用AI自身无法达到商业化质量,那就靠人工补齐,可以用80%的AI加20%的人工,为客户交付最终服务;(国内有优势)
三、找到高度容错的场景,即使有部分的错误幻觉或者不可控的结果,也无所谓。
AI应用爆发的场景首先在B端:
短期内肯定做to B,起来快。iPhone、大哥大、电脑出来的时候,都是to B先用。马上能提高生产力、见到效果。企业愿意花钱。
在B端上首先采用的都是企业服务端,只要能够给企业创造价值,即使价格贵一点,企业也是愿意用的。现在的机会是要为企业端创造价值,AI赋能企业内部降本增效可以取得立竿见影的效果。
在微信营销端、电话中心客服端都可以很轻松地取代50%的人。
美国对AI应用的落地相对更理性一点,落地速度比期望值要慢很多,因为今年的大模型本身还是有很多错误的,且出来的结果不可控。
中国以前的企服软件在几千万人民币的时候增长放到50%了,很难增长。AIGC出来以后不一样,去年很多公司增长三倍到五倍以上。
中国企服还是有机会的,但可能还有三到五年冬天。宏观太多不确定,企服就是剩者为王。今天你能不能靠AIGC迅速达到不烧钱的爆发增长是唯一之路。
明年C端应用或见端倪
To C应用必须刚需、高频,长远才有机会守得住。
To C要见到iPhone 3时刻。就像当年移动互联网To C应用爆发是Multi-Touch(多点触控),想不到的,对吧?愤怒的小鸟和切西瓜是Multi-Touch出来以后,才成为全球爆款。
大模型到底在什么点让to C应用爆发,不知道。“个人助理”是技术人员的想象。实际有几个人需要个人助理?都是典型的伪需求!
今天C端应用明显不够成熟,还没有到时机点,到明年的时机才可以探讨应用。
AI创业建议:
一、聚焦行业,重度垂直。
聚焦落地场景,让你的用户一看到你的产品就尖叫。要聚焦到垂直行业里,懂你的客户,懂你的客户要什么东西。
中国市场还是有很好的机会,它的特点是很碎片,按企业、按行业、按规模分成了很多区隔市场。
重度垂直,场景选择要非常小切口,不要做宏大叙事。要有足够多的知识壁垒。
垂直场景,场景不怕小。有个说法叫小切口、大纵深。虽然切口小,但影响的企业是数以百万计。
其次是重度垂直,跟行业结合得很深,比如做广告视频或视频剪辑。在视频内容的产生方面跟Sora比,是以卵击石。但在做广告视频方面下很多功夫后,这个软件能降低做事情的难度,提升工作效率,也一样有价值。
二、没钱别碰大模型
中国创业者不要在底层技术上投入研发,因为大模型已经很强大了,做AI应用不需要砸大钱的,不需要很大算力,任何一个人告诉你做AI需要投入很多的钱他都是在忽悠你。
现在问你一个很扎心的问题:GPT-4你要不要投入做科研?你做GPT-4科研至少砸四五千万美金。GPT-5要几亿美金!关键是万一你砸了四五千万美金做出来,别人开源了呢?你不是全白砸了?
一定要做成AI 100%做不了的东西,这才是中国的机会,100%大模型能做的很快就被颠覆掉,你现在做的都是浪费。
中国创业者不要再在底层技术上投入研发,在垂直场景上做优化也很重要。不要再投很多钱,买很多卡。
找到好的场景切进去,也很有机会。要达到商业化质量,并降低一个数量级的交付成本。
没有足够的资金和技术积累的创业者,别去碰通用大模型。
绝大多数创业者在资金有限的情况下,面临巨头领先者的竞争,再去卷通用大模型,是不可能成功的。
对于AGI的竞争,算力越来越是一个卡脖子的问题了,算力背后又是能源问题。你做模型做不过Open AI,后面还有LLama2这种开源模型。昨天Databricks又开源了一个1320亿参数的大模型,能力也超强。
联想的“贸工技”路线依然最适合中国创业者。依然是先养活自己,脚踏实地,同时要记着远方的梦想。
(文中观点主要来自360创始人周鸿祎、金沙江创投主管合伙人朱啸虎、猎豹移动董事长兼CEO傅盛、百川智能CEO王小川、智谱AI CEO张鹏、月之暗面CEO杨植麟、面壁智能CEO李大海 )
特别提醒:本文为投资逻辑分享,不构成投资建议。
巴菲特读书会价值投资理念、知识经验学习与交流平台,投资风险教育平台。
发现价值,践行价值。书会长期开展独立投研活动,定期发布原创研究报告,组织线下分享活动。
“行稳致远”,秉持“专业、谨慎、诚信”的精神,努力与会员和客户共同实现长期价值稳步成长