成立十周年,商汤开启新长跑。
在商汤迎来十岁生日那一天,商汤科技董事长兼CEO徐立发布了一封内部信《商汤十周年再出发:专注聚焦、知行合一》,宣布启动“大装置-大模型-应用”的三位一体新战略,以及成为“最懂算力的大模型服务商,和最懂大模型的算力服务商”的新目标,并围绕战略和核心资源,启动构建更加集中和高效的组织架构,推动资源的集中和集约化投入。
此番战略调整,可以看作是商汤全面拥抱AI 2.0时代的重要举措。过去一年多,商汤对于大模型和生成式AI的投入极为坚定,日日新大模型从去年4月发布以来已快速迭代至5.5版,商汤大装置算力规模不到半年激增近70%,突破20000P大关。
今年8月商汤公布的中期业绩显示,2024年上半年整体收入同比增长21%,其中生成式AI收入大幅增长256%贡献6成收入,标志商汤全面向生成式AI转型升级的战略目标已阶段性达成。
尽管业务体量快速增长,但大模型研发所需要的巨额投入,也给持续性发展提出新的挑战,更是整个行业面临的全新难题。商汤在这个节点上提出“三位一体”战略,反映的是其在AI 2.0时代的一个更加清晰且独有的全新商业逻辑。
潮水之后,拼的是成本
去年,ChatGPT的到来把AI行业推向了2.0时代,国内也随之掀起“百模大战”,各路厂商频频打榜,各种大模型应用和行业需求更是全面开花。不过到了今年,基础大模型企业的数量已快速收敛,甚至有玩家已经放弃了基础大模型的研发,转而拥抱开源。其中一个重要的原因便是收入与成本的严重倒挂。
徐立在内部信中提到,AI 1.0和AI 2.0的重要区别,在于成本结构的变化。AI 1.0时代,模型生产的主要成本在于研发人员的投入,而在AI 2.0时代,主要在于算力资源的投入。随着尺度定律在大语言模型、多模态模型、视频生成模型以及慢思考推理过程中得到验证,生产和使用大模型的成本可以直接等价于算力资源的消耗。
换言之,在尺度定律下,堆参数带来的效果的确很诱人,但背后所需算力成本付出也的确很感人。如何控制大模型的生产和使用成本,成为当下行业竞争的关键胜负手。
在高昂算力成本的重压下,一些大模型公司商业变现的速度,远远赶不上研发投入的速度,迫使在“做模型”和“做应用”之间二选一。但是,同时拥有算力、大模型和应用的商汤不做选择题,而是形成三位一体布局——以应用驱动模型的研发,以模型带动算力的优化,并根据算力的特点来迭代大模型设计和应用。
徐立表示,如果只有基础设施,不懂大模型的话,就没有竞争力。今天使用算力主要有两类,一是训练模型,二是使用模型。训练模型时,需要优化算力使用效率;使用模型的时候,则需要节约算力成本。
三位一体的本质,就是通过集约化投入,实现“大装置-大模型-应用”的无缝集成,把资源以最有效的方式利用起来,一方面给自己“挤出”更多利润空间,提供更具性价比和竞争力的MaaS等服务,另一方面也能为客户降本增效,反哺自身业务增长。
比如在基础设施层面,商汤已实现了“训推一体"调度能力,一方面可以帮助各地方自建的算力中心做更好的运营,从而为下游提供更高效、更具性价比的算力服务;另一方面可以帮助其他企业把训好的模型放到商汤大装置上来做推理,获得更高的推理弹性性价比。在推理场景上,商汤以创新的技术架构实现了相同算力及电力成本下的每秒请求数(QPS)提升4倍,并实现了推理服务弹性按需伸缩,优化了大规模AI推理的整体成本。
用徐立的话概括就是“最懂算力的大模型服务商,和最懂大模型的算力服务商”,这也是其对行业价值最直白易懂的诠释。
垂直领域是中国大模型差异化发展的重要方向
自OpenAI推出ChatGPT之后的短短两年多时间以来,又接连发布了GPT-4o以及o1。从单模态到多模态,再到慢思考推理。面对OpenAI不断刷新技术的制高点,很多人不禁会问,中国大模型公司的机会,到底在哪里?
此前,徐立将大模型的能力划分为三层“知识层(世界知识的全面灌输),推理层(知识背后的内在联系,需要大量思维链数据),执行层(与世界进行交互)”,并指出,垂直领域的高阶思维链数据构造的模型差异化能力,可能是中国接下来大模型很重要的道路。
而数字化办公、软件代码开发,以及金融等领域,正是商汤“三位一体”在应用层所聚焦的垂直方向,这些领域的共通之处,在于都极大依赖于思维链数据的价值。
比如,在人力资源领域,商汤近期与行业龙头中智股份达成合作。目前,基于日日新大模型,商汤已经打造出“招聘助手Agent、AI面试官、AI人才盘点助手Agent”等多种角色。
招聘助手Agent可实现从候选人信息总结、生成面试问题或建议、协助安排面试、AI面试到生成报告的自动化闭环。AI面试官可进行千人千面的提问和适时有效的追问。AI人才盘点助手Agent则融合了商汤大模型的慢思考推理能力,可深入分析和挖掘每个员工的工作内容,描绘综合能力图谱,助力管理者实现精准的人岗匹配。
在AI代码生成领域,商汤代码助手、办公助手产品“小浣熊”成为内地增长最快的Copilot产品之一,个人用户和开发者达数十万,亦服务于金山办公等头部应用。其中,“代码小浣熊”背后的代码大模型已落地互联网、金融、新能源汽车等行业,服务200+企业客户;“办公小浣熊”则入驻了联想应用商店,将便捷的文档处理、数据分析等体验带给广大PC用户。
包括商汤面向金融行业推出的大模型一体机产品,不光是满足金融行业对数据隐私的需求,更是能够通过算力、模型和应用的无缝集成,以更高效的推理能力,辅助于金融业务的各类决策。在垂直行业上,商汤的大模型一体机有望依托“三位一体”战略实现规模化推广。
为什么是商汤?
回顾这些年发展,商汤所做的事情可以用六个字来概括,解决AI的“能不能”和“廉不廉”的问题。
所谓“能不能”,就是指AI在特定任务上超过人的水平,即“工业红线”。最典型的应用就是以人脸识别为代表的各类图像识别任务,在智慧城市、轨交、园区、商业,包括工业生产等各种垂直行业形成了广泛应用。但这个阶段AI只解决了整个业务链条的其中一个环节,还无法真正带来成本的下降。
所谓“廉不廉”,就是AI要覆盖更多业务环节,打通价值闭环,因此要解决更多长尾问题,也就需要更多的模型数量。在这个阶段,商汤开始研发通用模型,并构建大算力集群,通过预训练模型+大算力的方式,实现针对各类长尾细分模型的工业化快速生产,降低单个模型的生产和应用成本。比如早在2022年ChatGPT发布之前,商汤就成功研发了320亿参数量当时全球最大的通用视觉模型。
在“能不能”和“廉不廉”两个阶段,商汤积累了通用模型的研发能力、丰厚的算力储备和优化能力,以及在多个垂直行业的实践经验和上下游生态资源。
这些源于AI 1.0时代的积累,如今都能转化为商汤在AI 2.0时代快速构建竞争力的重要基础,进一步解决大模型“用得上、用得好、用得起”的问题。用得上是指能真正为用户创造价值;用得好是要进入客户的生产和流程中;用得起,则是需要大幅降低训练、推理和部署成本,这也是商汤下一步的产品和业务目标。
这就如同一个最优的资源池,任何有模型训练部署需求或算力需求的人,都有望在商汤这里获得成本更低、效率更高的服务。而也只有像商汤这种既做算力、又做模型,还做应用的AI公司,才能提供这样的服务。
从这个角度来看,“三位一体”战略既可以说是商汤对AI 1.0商业闭环的一个总结,同时也是撬动AI 2.0商业闭环的一个支点。