在2024 火山引擎原动力大会上,火山引擎总裁谭待和媒体记者进行了对话,以下是对话部分实录。
火山引擎总裁谭待
问题:想问一下,最近 11 月全球月活跃排行榜豆包排到第二,仅次于 ChatGPT。想问一下目前海外版的 CICI 和国内版的豆包用户占比是多少?和 ChatGPT 相比,我们海外版的有什么特别之处?
谭待:我是负责火山引擎的,C 端的数据我也看不到,我回答不了。从火山角度来说,豆包大模型的调用量还是很高的,今天我们也讲了关于那些 token 的数据。
问题:还有一个问题,最近电脑版也开启了 AI 视频生成的内测,SORA 上线后不久 OpenAI 就出现了算力不够用的情况,想问一下后续如果豆包视频大模型开放之后,对算力这块会有什么样的布局或者补充?
谭待:我们火山方舟提供豆包大模型的 MaaS 推理服务,从我们自己的储备上我觉得还是很充足的。正是因为这个原因,我们现在可以提供业界最大的 TPM 和 RPM。我们现在即使有这样一个增速,包括今天发布会发了新的模型之后,我想可能增速会更快,视觉理解会解锁更多的场景。不管怎么样,从火山角度针对这些我们的储备是足够的。我还想说一下,新的功能上线,比如说用户使用的时候出现了卡顿或者阻碍,这个不一定是算力不够的原因。毕竟你用的是一个应用,是一套系统,你的前端、接入端,哪怕用户验证出了问题,也会影响到整个系统的流畅性,包括有没有工程化的优化。我想说的是其实不只是简单的算力问题。
问题:第一个问题,现在通用语言模型的能力,比如说能对话,目前的市场需求是否是有限的?今年的调用量增长比较迅猛,后面会持续吗?你们对它的商业化潜力有什么判断?
谭待:对话是一个很通用的场景,但是实际上大模型本身在很多场景,特别是生产力的场景也会非常大。从我们自己的角度来看,包括今天上午我公布的一些垂直领域的增长情况,比如说在信息处理增长了 39 倍。在企业很具体的场景,在客服、销售上面也长得非常快。这些场景里面一个是生产力相关,跟商业场景相关,而且增速现在比刚刚你说的聊天类的场景并不慢。所以我觉得其实现在是呈现一个多元化的发展,并不是说只是从娱乐角度来看。而且我还想说,聊天机器人的聊天功能是一个很基础的功能,你在工作中也跟同事聊天,教育场景中老师跟学生也聊天。我的意思是在各种各样的场景里面可能都或多或少会用一些聊天的功能。如果只是从聊天的角度来看,这个其实也是很大的用途,但是你得加上深度推理的、图像视觉理解的,还有各种各样的功能,这样才能处理更复杂的任务。而能解锁更多复杂任务的我觉得才是模型后面发展空间越来越大的前提。包括我们今天去推出视觉理解模型也是解锁了一个很大的场景,因为语言是来描述世界的,首先你理解这个事情得靠视觉。就像我们今天坐在一起聊一些事情,都得是你看得到它,感觉得到它,再说出它的信息再来交互,这个也会对大模型的调用量和场景带来很大的帮助。
问题:多模态的模型在你们整体的定位里是否会变得更重要?这类产品会得到更多的研发和投入资源吗?
谭待:我们从一开始就认为多模态很重要,并不是说变得更重要。我们一直的逻辑是说还是把模型做得比较好,然后再推出。所以你看我们的模型,其实每一个模型推出都不算市面上最早的,但是其实推出来的口碑和增长都是不错的。
问题:我这边两个问题,第一个问题,我最近听运营商的朋友说,因为最近中国电信在发一些大模型的产品,有些运营商也在发,我们的很多合作伙伴也在做 2B 的这块。所以我想知道一下从您的角度来说,合作伙伴或者说市场里面竞争对手变多,肯定第一天就会遇到,但是现在的局面,或者说有医疗的、有百川和我们竞争,竞争一个标的这种情况,对您来说,长期来说火山引擎在大模型或者 2B 这块我们怎么去更好地发力?或者说展现我们更多的优势或者存在感。
谭待:说实话从我的角度现在不太关心竞争,因为这个市场还在很早期,可能这个市场千分之一刚刚开发出来。这个时候其实不用关心竞争的问题,关心的是到底用户的需求有哪些没有被满足。比如说语言的场景,有些简单的事情被满足了,复杂的还没有被满足,所以我们的 doubao pro 这次做了更新的升级。视觉之前都没有满足好,模型又不好用,价钱又贵,我们这次推出来后希望一次做到位,就跟我们当初推出语言模型一样,推出一个好的模型而且把价格一次性做到位,这样大家就能用起来,用起来就有更多的反馈、更多的创新,这个是非常重要的事情。所以现在我觉得倒不用,你说局部有没有竞争肯定有,但我觉得这不是最关键的。最关键的是能不能把自己的东西做好,能不能把成本做低,能不能把方案的落地应用性做好,这样让真正的企业和用户能用起来。好比说年初的时候,有很多人都说发了自己的模型,但是你很少听到业界和谁用起来了用得很好。但是我觉得豆包大模型 5 月份发布了之后,我们首先把成本得到很大的降低,效果也做了很大的提升,其实这半年大家才能看到更多市场上的反馈这个模型的声音,以前大家没有讲什么调用数、token 数,现在大家也在说这个事情,所以我觉得这是一个更关心的事情。这个市场我觉得还在非常非常早的早期,所以我觉得竞争不是一件很重要的事情。当然我觉得在 2B 的领域大家都是有竞争有合作的,我们也会和运营商一起做一些项目,我们也会和第三方的 SaaS 厂商做一些项目,这我觉得很正常,主要还是因为这个事情价值非常大,空间也非常大,然后还在早期。
问题:第二个问题就是端侧的,端侧很多产品包括手机、电脑,还有 intel 这种 AIPC 的产品。我注意到荣耀不止和我们有合作,还有和其他厂商有合作。我想有一些合作伙伴他们在选择我们这个行业以及大模型时货比三家,对于我们来说有没有一些影响?或者说我们除了提供更低的价格,我们怎么能够服务得更好?另外,最近又传出苹果和百度的合作好像要谈崩了,大家都比较期望和豆包进行合作,这个我感觉比较意外,我想知道您的想法。如果苹果是一个端侧最大的客户,我们怎么能够更好地合作,您有没有什么兴趣或者想法?
谭待:其实国内安卓手机比苹果多,国内安卓手机大部分都在和豆包合作。其实手机的场景很多,所以对手机厂商来说,他会在某些场景用豆包,某些场景用其他的,或者某一个场景他混合使用。对企业来说,肯定也需要一个多云或者多模型的策略,这个我觉得很正常。最终还是说你的能力更好、成本更低,他就会用谁,这笔账就很好算。
问题:还有苹果的事情。
谭待:端侧本身,当然我想说今天其实我们也不只是讲到端上,我们讲到跟荣耀、跟 VIVO 的合作,我们还有很多场景适合来做,比如说汽车。我们和奔驰有非常强的合作,除了奔驰以外,国内八成以上的汽车品牌都在跟我们做合作。我觉得大模型本身让硬件终端智能化这件事情,可能性有很大的提升。
问题:但是我们的话语权会弱是吧?和终端的话语权相比,比如说小米,小爱同学可能货比三四家,有商汤的、讯飞的,货比了三家,这样的话把我们整个话语权降低,这个会不会?
谭待:这是合理的,这个市场就是要充分竞争,最好的才能活下来,而且企业也能拿到最好的东西。就像 C 端产品也是一样,我相信大家有很多用豆包 APP,但你们也会下其他的 APP,但最终你们可能用豆包用得更多,为什么?因为你还是在用的过程中发现这个好。我觉得对企业来说是一样的,我们有时候跟客户说你就每家都试试看谁好,然后你就知道跟谁来做,这是一个很自然的现象,而且我觉得也不涉及到话语权高和低。
问题:我最后想知道一下,不管从终端还是云端,你觉得长期来说,这两层大概分比或者从商业化来说有没有一个分层?
谭待:端模型现在主要靠芯片,芯片现在还不成熟,所以现在讨论这个事情为时太早。
问题:顺着上位老师的问题,刚刚聊了客户选择我们,因为我们注意到最近整个资本市场非常关注大模型,豆包的大模型发布。想请教一下您,从豆包的角度来说,现在处于整个行业的早期,在选择合作伙伴或者打造一个有范例示范性质的 case 的时候,从产业链的角度,豆包会选择哪些场景,或者看重哪些特点然后成为合作伙伴?
谭待:我觉得 AI 能用的场景非常多,所以其实我觉得它是没有一个特定的偏好。首先信息处理每个行业都会有对应的场景,视觉理解很多地方的信息都已经图文化、视频化。我觉得从我们的角度,我觉得并没有说我一定要有一个针对性的标准,选谁或者不选谁。而且我认为 AI 将来一定是普惠的,我们一直也在做这个事情,包括我们一次性地把成本做到位,就是希望更多的人特别是中小企业、创业公司还有个人能用起来,包括模型也能用好,包括他能用我们的平台扣子、HiAgent 能够非常方便地创造他的智能体创造价值,所以我们一直是这个理念。你要说客户有没有偏好?肯定是说客户自己对 AI 投入决心越大的,肯定合作起来就更愉快一些。
问题:两个问题想请教一下。第一个问题,火山算力在字节内部基建和应用这两侧,大概的算力占比是多少?内部和对外客户的算力占比分别是多少?
谭待:内部他们的算力情况我感觉得问他们的负责人。我只说一下对火山来说,我们对大模型,对 Mars 对方舟这个事情是非常重视的,所以这块我们算力的储备肯定是非常够的,这也是我们有信心去大规模、低价格而且高吞吐的去承接业界的服务很重要的一点。而且我们在工程技术上做了非常多的优化,比如说不同的负载,有的人夜间用,有的人白天用,通过混合调度就能把算力效率提升到最大。还有我们今天发的很多新的功能,比如说我们的推理支持 PD 分离,这样就能把异构算力用起来。不管是资源的储备,还是技术的投入我觉得做得都非常好,我们是很有信心去做好大模型服务这个市场。
问题:第二个问题,您刚刚提到了 chat 本身是一个相对基础的功能,现在大家行业都在讲所谓的全能 AI 助手,您会认为它是一个偏同质化的阶段吗?你对未来比较合适的战略或者说功能形态是怎样思考的?
谭待:我讲一个理念大家肯定都是同质的,但做不做得到肯定是另外一回事。
问题:您觉得现在行业有人做到吗?
谭待:第一点,你用豆包 APP 和用其他产品也能看到差异。第二点,从 C 端产品上你们自己用就能知道差别,这个不用我来说,这个也不是我负责的。从 B 端角度,我们现在大家说的 Agent 其实是不够的,我觉得 Agent 的价值在于能辅助人多长时间的工作,如果辅助人是 1 分钟的工作,比如说帮你写首打油诗,那这个价值就不大。如果能辅助一个人几个小时的工作,比如说教育,帮你真的端到端的完整的教育指导辅导作业,客服如果把这个做起来,这个价值是比较大的。这个我觉得今年还没有谁能做到,我觉得明年会有一些突破。
问题:您提到 Agent 明年可能是爆发年,有的是从生态角度切入,有的通过 API 接口去切入,您认可的智能体的接入方式是怎样的?
谭待:我觉得最核心还是要技术要好,刚刚说什么方式切入都是表象,东西不行怎么切都切不进去,这个账很好算,用 AI 做个东西跟我原来用人或者用原来的系统做的一比,是不是效果更好,而且成本更低。你把这个做到了怎么切都切进去,做不到怎么切都切不进去。
问题:想问一下 9 月之后有几家国内公司都有提到自己在做推理模型这方面,就想问一下字节这边在推理模型这块有没有布局?方便介绍一下目前的进展吗?
谭待:肯定有布局,你说的推理布局类似 O1 是吧?肯定有做。你今天看到我们的有些虽然没有叫这个名字,但是我们有些能力已经具备这个雏形了,比如说解数学物理代码。但一个完整的话但是我们的逻辑还是做得比较完善了再推出,这块大家敬请期待,不会太久。
问题:今年也快过完了,想问一下今年大模型带动了多少公有云的收入,包括今天有没有达到预期?明年可能会有哪些计划?
谭待:我现在不看带动多少云的收入,看的是有多少客户用了我们大模型以及用得有多深。从这个角度来说,我觉得做得还是可以的,我们在整个市场份额上都做到了比较大的领先。
问题:现在业界有些观点,因为语料数据的耗尽,认为大模型预训练可能会告一阶段,不知道您怎么看?您刚刚讲到字节在 AI 推理上已经有布局了,在这个前提下是不是在 AI 推理上有更多的机会?
谭待:你说的Ilya最近讲的这个,他的上下文应该是说原来方式的性价比现在已经不高了,现在我们在 COT 阶段,我们在强化学习阶段,那块的 Scalling law 其实还在早期,所以其实潜力会更大。我觉得他最终想表达的还是说 AI 还有很大的提升机会。我记得我上学的时候学系统优化,最重要的是找到当前瓶颈最大的那块把它给优化起来。我觉得这个东西是阶段性的,想把 pretrain 的东西解决一下,然后把 posttrain 解决一下,然后这个时候有更好的数据合成的能力,就是 pretrain 的空间又更大了,或者模型就有提升。整体上还是有很多可以做的事情,而且这个东西都是循环往复的。就好比 AI 本身,我记得一九六几年的时候就开始做这个事情,当时觉得做一会就没有空间了,后边随着 80 年代又有一波,到后面深度学习,再到现在的 Transformer、强化学习这都会有。本质上因为互联网化、在线化这个事情,到数据本身使用度越来越高,云让计算更加容易,这两个东西叠加我觉得未来还是能带来更多的突破。
问题:有个问题想问一下这次 OpenAI 的发布会,可以看得出来 OpenAI 从以前的技术标杆导向型,逐渐往应用型发展。之前一直觉得国内的大模型的优势在应用,我想问问您觉得连 OpenAI 这种标杆企业已经往应用端走,大模型发展遇到了瓶颈?
谭待:我明白你的问题,我首先跟你有不同的观点,我觉得 OpenAI 首先是一个做技术和做应用都非常棒的公司。大模型什么时候火的?不是发了一篇论文,GPT 论文已经发了好几年了也没那么火,他是因为把 ChatGPT 这个产品做出来了,大家用了以后觉得太棒了,所以他一开始其实就是做应用,而且做得还不错。但后面因为随着模型的提升,能解决的问题越来越多,应用的形态要发生变化,简单的 chatbot 的 UIUX 已经不足以支持当前的需求和能力了,所以就不断地做应用的创新。我始终认为技术和应用就是齐头并进的,并不存在我把技术做好我是技术公司。Google 也是一样的,Google 以前大家觉得技术很强,也是把搜索引擎这个产品形态以及搜索引擎广告的商业模式走通了,我认为这两者就是相辅相成的,在全球,在美国、在中国都一样。
问题:豆包好像今年特别的火,我们感觉字节跳动这边好像 2C 的产品好像活跃度也比较高,我想问问您觉得现在大模型的未来到底是在 2B 市场还是在 2C 的市场?
谭待:就像我们的数据来看,在工作、娱乐、生产力的场景其实是差不多的,所以我觉得大模型就是 2C 和 2B 齐头并进,因为你想娱乐要处理信息,获取知识要处理信息,处理工作要处理信息,企业自己运转也要处理信息,我觉得这跟以前互联网刚开始 2C 然后再 2B,我觉得这个直接就是 2C/2B 是齐头并进的。
问题:第一个问题,作为字节跳动旗下的云服务的提供者,我们相对于其他玩家来说算是后来者,但是我们这两年的势头很猛,你会怎么定位大模型,大模型的投入包括产出推动我们云计算增长这样一个角色做得怎么样?
谭待:谢谢对我们的关注,我原来讲过很多次,我们作为一个后来者为什么有信心进入到这个市场?第一,我们相信这个市场非常大,因为是可以用 GDP 里面数字化的占比,数字化云的渗透率来算出来空间的,这个空间是非常大的,而且会越来越多。第二,规模优势,火山一开始就把抖音、头条的内部规模和外部规模统一来建设,所以一开始就是中国最大的规模,我做云这个事情我肯定能坚持到最后。第三,你想做得更快,一定要在新的技术变革中做到第一。新的技术变革是什么?其实就是 AI 和大模型,所以这块我们的目标就是第一,而且我们在朝这个方向在前进。
问题:你认为 AI 大模型助力到我们起到了怎么样的作用?到目前为止。
谭待:还是起到很大的作用,今天 PPT 的最后的结尾,我们的使命愿景我们希望 “用领先的云和 AI 技术去帮助企业降本增效,加速创新”,这是我们的使命,做这个事情最重要的就是使命驱动,我们看到今年很多企业就是通过豆包大模型获得了业务的提升,我觉得从这点上我们的使命确实在朝着一个更好地完成的角度来做,所以我觉得是的。
问题:问一个落地的问题,今天聊到了很多 2C 或者 2B 都还是有点在云端或者数字内容的范畴,如果涉及到 AI 往实体行业落地,我们举个细分场景,比如说 AI 往硬件落地,今天下面有个耳机也会豆包这个词,我觉得可能也有往相应的智能硬件落地的可能性,您是怎么看待这个空间?因为现在也有人在谈类似 AI 眼镜这样的场景。
谭待:前面在问是不是 2C/2B,我觉得第一是 2C/2B 齐头并进,第二是物理 / 虚拟也是齐头并进。为什么?你的物理世界也是服务于人的,服务于人就要和人打交道,听觉、语言、视觉都要做,那这些事以前其实做不好的,但是大模型能够做好这些事情,所以反而我觉得大模型比过去的很多技术都更容易连接数字世界和物理世界。
问题:这是我们未来的一个业务重心之一吗?
谭待:我觉得自然就会发生,倒不是重心,不是说我们一定要做这个事,而是说你把大模型服务好好做,天然就把物理世界和数字世界连接在一起了。
问题:刚刚您提到了豆包大模型要争当行业第一,想问一下您,您认为您这么有信心的表态背后您认为豆包大模型的核心竞争力是什么?另外,当前 AI 领域的竞争也是人才的竞争,在吸引高端人才这方面火山引擎的策略是怎样的?当前我们还存在多大的人才缺口?
谭待:我自己觉得做好模型有很多点,包括算法、人才、数据、工程都很重要,但我觉得如果只说一点的话我觉得很重要的一点,大模型这个东西跟过去所有的技术不一样,以前过去的技术 2C 端跟 2B 端是割裂的,大家天天刷抖音,但是你天天刷抖音是不是会天天用火山引擎的云?没有必然关系,因为你看重抖音的价值和你看重火山引擎的价值是完全不一样的,你个人用云这个没有需求。但是大模型不一样,大模型的 C 端和 B 端其实背后都是同一个东西,就是那个模型本身,因为所有的能力都是内化到模型本身了,这个事情是有一个 C 和 B 协同的方式,就包括今天 PPT 里面,有好多人问我企业怎么做 AI 转型,这不是开玩笑,第一 CEO 自己下个豆包 APP,你天天听报告有什么用,你自己天天用就知道它能干什么不能干什么,然后你就可以想说企业哪些场景可以用,哪些场景不可以用。所以我觉得这个技术不仅是对很多事情发生变化,可能对 2B 的商业模式和路径也会带来很大的变化,因为他是第一个决策者自己可以感受到这个技术好不好的,以前 2B 很多使用者是分离的,他感受不到这个东西好不好,只能通过听汇报,听 PPT,或者听 case 来做这个事情,所以这也是为什么我觉得我们的豆包大模型肯定能做好的一个很重要的因素。就像在座大家用得最多的就是豆包 APP,我相信你们是企业家大概率也会选择豆包大模型。
问题:第一个问题,这一年您觉得火山引擎的哪些业务发展是最快的,最让您满意的,到底是中间的智能体 Agent 的相关业务,还是说某些垂类的场景?
谭待:我在准备这次大会的时候我也在想,过去一年我做了什么,未来我做什么,我认为有两个事情很重要。第一,围绕大模型全软件栈,包括模型本身,模型本身要越来越强,越来越丰富,成本要做到合理可持续,落地要更容易,我们做了很多这方面的事情。当然企业不能只用个 API,还要开发,要开发平台,所以我们有火山方舟,包括我们这回推出来记忆功能,我觉得这是一个很重要的能力,包括怎么基于模型做 AI 搜索和推荐,这个我觉得也很重要,比如企业要做知识库,以前所有的知识库做得都不太好,因为很难真正地去洞察,以前搜索引擎很重要的是通过点击通过反馈来做,但是企业内部的搜索没有那么多的反馈是很稀疏的,这个必须回到语义本身来做这个事情,传统的 NLP 很难做好这个事情,大模型是很大的突破,而且能解决多模态的问题。包括开发平台扣子、HiAgent 这是一个环境,我觉得我们做得还可以。第二,因为 AI 的出现,所有的基础架构从 CPU 转向 GPU 为核心之后,其实过去讲云原生这套东西它好但是它需要变,所以我们认为未来 10 年其实 AI 云原生是更重要的事情,今天是我们在业界首先提出这个概念,而且我们不只是提出概念我们还做出了对应的产品,比如说怎么把计算实例通过 vRDMA 去支持高吞吐、PD 分离的推理,怎么去做 GPU 直连的 cache,这个跟以前 CPU 的 cache 是完全不一样的。包括我们的 PCC 去做好私密云,以后大家各个场合都用模型,你们的数据怎么做端到端加密,这个必须要用软硬件的整体方案来做这个事情,要做到技术上绝对的可靠才行,这个也是我们在国内首先推出了这个产品。包括大数据,数据飞轮也是一样的,怎么样做好非结构化数据全模态的数据湖。AI 云原生可能大家还没有完全注意到,我自己也是放到最后来讲,因为是下午的主论坛我讲了很多,我觉得这是未来可能从基础架构领域一个很大的变化,从云原生到 AI 云原生,火山希望做成这块的领军企业。
问题:字节是 2C 和 2B 都做得还不错的公司,您觉得 C 端的业务跟 B 端之间的业务是怎么互相作用的?
谭待:以前没有什么作用,其实 C 端议长的技术点和 B 端,就是客户的点是不一样的。但是从大模型之后这个东西就统一了,因为你用豆包 APP 它的能力主要来自于底下的模型,在火山用火山方舟,用豆包大模型,用 AI 搜推引擎背后的核心点也是那个模型,我觉得这块未来应该是能产生更好的点,包括现在看比如说 Google 最近有很多新的突破,新的 Gemma2 也做得很好,包括 OpenAI 也是一样,他 C 端、B 端都做得很好。
问题:针对大模型上车的方向问两个问题,刚刚您说到了商业这块,毕竟一方面大模型还处于发展初期,据我了解大家现在还是主要以 token 使用量去收费,从 2B 模式来看,似乎车企每年的预算成本是固定的,以 token 数用量收费的模式,是不是存在动态性比较大的问题,涉及到后期比较难以接受,在商业模式探索路径这块豆包有没有新的考虑?
谭待:这个是两者。很多硬件是固定的 BOM。如果跟动态交费的怎么办?两种办法,一种是把预估量做好,提前算好,这个也能够解决固定预算的问题。第二种做成扩展的服务,未来用户还能增值来使用,我们跟车厂做的很多新的功能,我们都认为这些功能将来会特别受用户的喜欢,甚至用户会为此额外的付费,这样的话对车厂来说也会很开心,因为他不是卖完一次车就完了,也是持续地跟用户产生联系来去获得收入,这个在手机上已经实现了,我认为未来在汽车在其他的智能硬件上也会实现,核心是一定要做出新的有黏性的出彩的功能,我觉得大模型在这方面能发挥很大的价值。
问题:第二个问题,大模型虽然开启了汽车智能化的下半场,但是汽车下半场终局到底是不是大模型?因为目前来看大模型的运算能力要求太高了,很多家还是达不到上车的要求。
谭待:就是座舱用大模型不一定非要在车里面选,用云端就可以了。未来可能会有些负载放到汽车里面,也是有可能的,因为汽车空间大,而且电力供给也好,有可能会率先落地,因为芯片相对会更小一些。
问题:今年每次参加火山引擎的会都发现 token 量又涨了好多倍,今天您也举了不同行业分别消耗量多了十几倍到几百倍的案例,就想问火山引擎在帮助客户把模型用好用深这个方面有哪些经验?体系化的经验。因为我们关注到 AI 应用被用起来没有像火山这么多。
谭待:很重要的一点是,我们在最开始发布火山引擎的时候就说了同时组建了一个算法和服务的团队,我觉得这个非常重要。因为一开始企业可能对 AI 有一些不同的理解,有的时候想得太容易了,有的时候想得太难了。其次,我们画个图,根据模型能力强和弱、场景价值高和低,我们肯定希望找到一个产品市场匹配(PMF)来做这个事情。在这个过程中:
第一,需要做好匹配,以及做好你最后发现效果不好有可能是 Prompt 优化的问题,也可能需要精调,或者说可以在交互界面上做处理来做这个事情,这个就需要又懂业务又懂算法的人来做这个事情,我们自己首先组建了这样一个团队,这样就能针对不同的客户和场景深入跟客户做好共创。
第二,我现在发现场景很重要,场景不仅需要模型还需要平台,所以我们有扣子、有 HiAgent,还有对应的 AI 咨询的团队,可以帮这些企业看哪个场景好,哪个场景不好。长期更重要的是,这件事情需要伙伴和生态跟我们一起来做,所以我们也很重视这块的建设,也希望有越来越多的人能加入到豆包生态里面去,跟我们一起做好 AI 落地的事情。
问题:刚刚提到的团队大概多大?
谭待:大几十人。
问题:从您的角度来观察今天火山引擎市场份额的增长,主要取决于哪些因素?
谭待:刚刚讲了对火山来说两个最重要的事情。
第一,把规模优势做好,做好了以后每年自然就会增长,因为规模大、弹性高、成本便宜,自然而然企业会迁移过来,或者有企业选择你,这是一个很重要的因素。
第二,通过豆包,通过模型我们把这个事做好也能够得到很多关注,得到很多新的合作机会。
问题:开发平台上你们有公有化和私有化两个产品 HiAgent 和扣子,模型化豆包可以私有化部署吗?我在展台上我听说豆包有私部版,但是客户好像又说没有。
谭待:HiAgent 会搭载一个可以私部的豆包模型。
问题:你们怎么看这个市场上大模型的私有化部署需求?还是你们更倾向于大家用公有云来用?
谭待:模型更新太快了,最好的模型一定是在云上,如果要求很高,云上做 POC(Proof of Concept,概念验证)做各种落地会非常容易。比如说我们有扣子、HiAgent,这两个产品定位是不一样的,扣子是开发平台,HiAgent 最后想要做的比如企业要做好自己的 AI 中台和能力中心,不仅需要解决开发的问题,还要解决集成数据各种问题。HiAgent 要往前更走一步,首先定位有个差别。现在我们能看到很好的案例,客户用扣子快速搭建做原型的设计,然后再基于 HiAgent 做一个企业内部的实现,因为企业有监管的要求或者其他要求,做一个内部真正线上化的实现。我自己觉得未来混合这个模式还是会持续存在的,如果你想用最好的模型,想快速地实验快速的创新一定要用云上的版本。而且我刚刚说了技术上我们现在有很多技术上的突破可以很好地解决安全的问题,比如说我们的 PCC 是从硬件层面来实现端到端的加密,不可能有人能够去把这个数据下下来,或者破译里面的东西,这个是从技术的角度,100% 能够做到的,包括苹果手机也用的类似的方案。觉得通过技术是能够解决性能的问题,这样大家能够去既获得技术的便利也能够解决安全合规的问题。
问题:云厂商出海现在提的比较多,字节本身也是全球化部署,出海这块你们是怎么布局的?
谭待:我们也很重视出海,我们很多行业的客户自己都在出海我们就好好服务他,我们有很多游戏的客户,直播的客户,互娱的客户,还有汽车,汽车出海是很重要的一点,我们也和他们一起携手对海外,把我们一些相关的经验也变成工具能更好地服务他们。