硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探丨华映资本全球化观察

人工智能电子侃 2024-10-20 18:50:33

大模型行业泡沫正在显现。2022年诞生的ChatGPT,已经在相当程度上实现了大模型的Scaling law(尺度定律)和通用能力涌现。ChatGPT自身作为一个终端产品的商业化也持续有不错进展。据2024年7月的非公开数据,OpenAI的ARR(年经常性收入)已经达到了相当可观的41亿美元。但这些收入都是在极度高昂的算力、研发和运营成本基础上实现的,而且细看最近OpenAI的发展,也很难称得上“顺利”。今年以来,包括联创约翰·舒尔曼和伊利亚·苏茨克沃在内的多位核心高管已离开,9月下旬更是接连发生了首席技术官(CTO)米拉·穆拉蒂离职与苹果退出参与其最新一轮融资谈判的两大事件。

在华映资本看来,只有当GPT真正赋能所有上层垂直行业应用场景,即实现所谓大规模落地实践,以平台形式实现商业化,OpenAI开创的LLM浪潮才算彻底到来。但当前,无论是在to C还是to B侧,GPT都更像是一个超级APP,而非一个类似IOS的底层平台。GPT插件和GPTs已经证明了底座LLM不能简单复制IOS的App Store。

虽然OpenAI刚发布的o1模型用self-play RL的方法将scaling law推到了一个新的层次,实现了更强的推理逻辑能力,但上述“平台化瓶颈”并未得到根本改变。各垂直场景目前都尚未看到真正全面爆发的趋势。无论是在创业还是投资层面,大模型行业泡沫都已显现。这背后,限制GPT进行平台型商业化的根源究竟是什么?在今年上半年推出的《再访硅谷:生成式AI随处可见,VC开始关注国家安全类项目丨华映资本全球化观察》中,我们介绍了在生成式AI的浪潮之中,硅谷在Agent、具身、算力、无人驾驶等领域的发展情况,也提到华映关注“有底座大模型算法能力的垂直整合应用层公司”,当时华映资本已预见了“应用方数据难整合”将是“GPT平台型商业化”的底层制约。以下我们将结合近期在硅谷深入走访当地多位大模型从业者后总结的大量心得,继续对大模型创业、投资的困局以及潜在破局方案进行更详细拆解。文章篇幅较长,请参考以下目录:文章导读 ⊙AI投资逻辑困局应用场景派

底层技术派

⊙技术和商业化路线困局人工智能产业化的本质数据困局

算力困局

⊙潜在破局方案借鉴互联网时代的思考短期投资策略长期可能演变⊙总结*笔者为华映资本海外合伙人、北大计算机学士及美国南加大多智能体(Agent)方向博士,Robocup冠军队成员、腾讯云计算早期T4专家级架构师。本文既非学术论文、也非商业行研报告,而是以一个AI学界出身、亲历硅谷多周期的投资人视角分析现况和预测趋势。观点可能存在很多反共识之处,未必正确,但希望这些视角能对您有所启发。同时,硅星人驻硅谷资深记者Jessica对本文内容亦有贡献。

AI投资逻辑困局

目前AI领域投资人以及创业者 (尤其在国内)主要分成下面两个"流派":>>>> 应用场景派持这个观点的投资人,其投资标的是依靠对底座模型的调用实现垂直行业大模型商业化的公司,创始人通常是场景侧或产品背景,对于底座模型的深入理解并非必要。在做该种投资选择时,需要应对以下问题的挑战:

1. 预测LLM能推动应用场景爆发的底层driver究竟是什么;

2. 这个driver是否能持续、未来发展走向是什么;

3. 应用的全面爆发需要经历哪些milestones。

如果投资人对以上问题没有完全自洽的解答,盲目乐观押注应用场景的爆发,将催生投资和创业的泡沫。

>>>> 底层技术派

持这个观点的VC或创业者更聚焦底座大模型,即底层平台,认为未来一切都由AI平台驱动,所以不太纠结上层应用。这些大模型平台公司目前普遍遇到下面几个瓶颈:1. 上层杀手级应用迟迟未出现,很多时候需要底座公司亲自下场去场景侧做定制化交付和实施;应用少也造成数据闭环无法形成;2. 上层应用门槛薄,上下两层之间的边界不清晰,底座的版本更新会“不小心”碾压上层应用,如GPT-3.5更新至GPT-4后对Jasper的碾压;3. 训练数据开始"枯竭", Scaling law面临停滞;4. 大模型平台公司对算力越来越依赖,成为"金钱的游戏"。前两条其实也恰是应用场景派遇到的根本问题,当下在上层应用迟未爆发、甚至业界无法预测爆发时间点及爆发所需经历milestones的背景下,上述两类投资方法论暂时未能奏效。事实上这两种"流派"的区分,恰恰是受互联网时代的公司可以清晰切分为"互联网应用"和"互联网平台"上下两层的思维惯性所影响,但大模型在当前并没有到达互联网时代这个"分层解耦"的阶段,所以这两个流派的划分本身就值得商榷。

技术和商业化路线困局

>>>> 人工智能产业化的本质

要破解上文提到的诸多疑问,我们必须先从理解大模型乃至整个人工智能浪潮的本质开始。广义的人工智能在1956年的达特茅斯会议即宣告诞生,但AI真正的产业化直到2012年左右AlexNet的出现才实现。AI产业化主要经历了下面两个阶段:

1. AI 1.0 深度学习 (2012年AlexNet引发):深度学习算法将海量数据进行训练后输出模型,来替代计算机科学几十年来积累的算法和规则,从而第一次实现产业化。深度学习

0 阅读:3

人工智能电子侃

简介:感谢大家的关注