顶着“OpenAI叛军”旗号的阿莫迪兄妹,又给Anthropic找来了一笔新融资。
北京时间3月4日,Anthropic宣布完成35亿美元的E轮融资,投后估值达到615亿美元,是前一年的三倍。值得注意的是,Anthropic原本计划的融资金额是20亿美元,这次是超额完成的任务。
此时,距离阿莫迪兄妹兄妹独立创业也不过才四年时间。2020年底,ChatGPT推出之前,阿莫迪兄妹俩决定另起炉灶。当时,哥哥达里奥·阿莫迪(Dario Amodei)已经是OpenAI研究部门副总裁,妹妹丹妮拉·阿莫迪(Daniela Amodei)则是安全政策部门副总裁。
2021年,兄妹俩的AI创业公司Anthropic诞生,并模仿着奥特曼绑定微软的招数,为Anthropic相继找来了亚马逊和谷歌两大金主,此后,Anthropic估值便一路水涨船高。
根据CB Insights的数据,此次融资将使Anthropic成为继SpaceX、OpenAI、Stripe和Databricks之后美国第五大最有价值的初创公司。它也将成为继SpaceX、字节跳动、OpenAI、Stripe、Shein和Databricks之后全球第七大最有价值的初创公司。
两个在人工智能领域都得算是“半路出家”的兄妹俩,在Anthropic助力下,也越发成了大模型领域炙手可热的明星人物。
A
打一出生就被打上了“OpenAI叛军”的名号,Anthropic起点很高。
那是2020年底,距离ChatGPT推出还有两年,距离OpenAI高管频繁出走更远,阿莫迪兄妹俩决定另起炉灶。
当时,哥哥达里奥·阿莫迪(Dario Amodei)已经是OpenAI研究部门副总裁,妹妹丹妮拉·阿莫迪(Daniela Amodei)则是安全政策部门副总裁。
在后来才加入的情况下,亲兄妹在同一家科技公司担任高管实属罕见。
阿莫迪兄妹来自一个意大利裔家庭,成长于谷歌,家庭中也有浓厚的学术氛围,可以说是人生开局起点就颇高。
但实际上,他们在人工智能领域都得算是“半路出家”。
哥哥达里奥主攻物理学。快毕业的时候,他开始关注人工智能,并在研究生阶段选择了神经科学。他拥有斯坦福大学的物理学学士学位、普林斯顿大学的物理学博士学位,也曾在斯坦福医学院担任博士后学者。
从2014年底开始,达里奥两年之内三次换“东家”,先是在百度硅谷AI实验室开启职业生涯,是吴恩达的手下,而后跳槽到谷歌。2016年,达里奥加入刚创立不久的OpenAI。
两年后,妹妹丹妮拉也加入了,而她本科在加州大学圣克鲁斯分校学英语文学,毕业后的职业生涯始于全球健康和政治领域,和人工智能几无关联。然而,随着她加入金融服务公司Stripe,就此开始接触人工智能。
后来,他们把这种对人工智能的兴趣放在更宏达的叙事当中,觉得“都感到自己肩负着让世界变得更美好的巨大责任”。
2018年,在哥哥达里奥进入OpenAI两年后,丹妮拉也加入,兄妹俩汇合。在那之后,达里奥对GPT-2和GPT-3贡献力量,最终成为研究部门副总裁,而丹妮拉则以管理自然语言处理生成团队开始,担任过人力资源副总裁,最终成为了安全政策部门的副总裁。
不过,OpenAI内部的分歧也正在酝酿。
正是在兄妹在职场汇合的那一年,OpenAI内部以山姆·奥特曼(Sam Altman)为代表的领导层意识到算力跟不上,开始考虑转型,而创始人之一马斯克因为种种原因最终退出。之后的OpenAI,走上了商业化的道路,营利性公司“OpenAI LP”成立。2020年,OpenAI和微软签署了一项价值10亿美元的协议。也正是在这个时候,阿莫迪兄妹感到已经待不住了。
达里奥后来回忆称,在OpenAI时发现了缩放定律,使用更多数据和算力训练AI,而非依赖算法,就可以获得更高的性能。这一点让他感到可怕:“它由简单的组件组成。只要有足够的钱,任何人都可以建造它……我们正在开发一种强大且具有潜在危险的技术。”
那一年年底,阿莫迪兄妹一起离开了OpenAI,并一口气带走了OpenAI的7名高级职员。2021年,Anthropic成立。
当被问及离职原因时,达里奥面对媒体总是表现得很油滑,称“我们(联合创始人)意见一致,彼此信任。我们是处于正确的理由这样做的”,但被问到这是否意味着他不信任OpenAI的其他人时,他却拒绝回答。
B
到底是不是“OpenAI叛军”,行动是最好的说明。
在公司属性上,阿莫迪兄妹选择将Anthropic设立为公益型公司(PBC,Public Benefit Corporation),可以同时追求社会责任和盈利。如今OpenAI寻求转型,也是想成为PBC。
从一开始,“安全”成了Anthropic的高亮关键词。Anthropic的前身甚至被命名为AI Safety Lab(AI安全实验室)。在2021年,人工智能危险论并非主流。
起初,Anthropic也考虑到用其他公司的AI模型来进行安全研究,但很快就放弃了这个想法,决定构建自己的模型。模型被命名为Claude,有三个核心目标:有用(helpful)、无害(harmless)、诚实(honest)。
他们甚至引入了“宪法式人工智能(Constitutional A.I.)”的概念,给模型提供一份书面的原则清单(“宪法”),并要求它尽可能遵守。这些清单中包括联合国《世界人权宣言》、苹果的服务条款等等。然后,他们使用第二个模型,评估第一个模型的行为是否符合“宪法”,并在必要时进行纠正。
说白了,就是让人工智能自我监督。
在创立之初,Anthropic就被外界当做“OpenAI叛军”,并在A轮融资中吸引了1.24亿美元,随后又有5.8亿美元融资到账。但相比于OpenAI,这家公司依然显得非常小和“寒酸”(只有寥寥员工和很少的钱)。
到了2022年夏天,阿莫迪兄妹迎来了第一个艰难时刻。
那就是:Anthropic已经完成了对Claude的训练,整个团队都对它的表现赞叹不已。发布Claude,对成立仅仅一年的Anthropic来说一定会带来更多名利。但是,他们同时也担心将强大的Claude直接发布会不会有安全风险。
最终,阿莫迪兄妹决定,继续进行内部安全测试。这一压就是数月。
而在另外一边,OpenAI在11月底发布了ChatGPT,这款软件如巨石入水,掀起惊天骇浪。从后续多家媒体报道的“内幕故事”来看,OpenAI当时是在很“拿不准”的情况下推出了ChatGPT。
也就是说,奥特曼和阿莫迪兄妹面临着同样的难题,但是做出了完全不同的选择。
至少从对外的表态来看,阿莫迪兄妹不说后悔。达里奥在《时代》杂志的采访中说,他想避免引发一场建造更大、也许更危险的人工智能系统的竞赛:“我认为这是正确的做法。”
他紧接着又补充:“但这(正确与否)不是完全明确的。”这种不确定性很好理解,毕竟竞赛无论如何都开始了,而阿莫迪的决定可能会让Anthropic损失数十亿美元。
不论如何,这个决定最终也让Anthropic在很长一段时间里获得了赞誉。尤其是当ChatGPT引发了监管机构和大众对安全问题的担忧时。在2023年面对华盛顿的参议院,达里奥作证时说,他认为强大到足以“造成大规模破坏”并改变全球力量平衡的AI系统可能最早在2025年出现。
彼时这样说的人很多,但始终握着“安全牌”、被视为“OpenAI叛军”的阿莫迪兄妹自然显得可信度更高。
在Claude最终发布并迭代的过程中,Anthropic更加坐实了“安全牌”。《纽约时报》的记者凯文·罗斯(Kevin Roose)因为撰写了一篇文章,记录其与微软嵌入ChatGPT的新必应聊天机器人之间的“冲突”,而被Anthropic邀请到了总部。
当时是2023年的夏天,距离Claude 2发布还有几周,罗斯感受到的仍旧是紧张和焦虑,而非振奋和期待。
“我最担心的是,模型会不会做出我们未曾预料到的可怕行为?”达里奥说。
甚至这种情绪并非高层特有,整个公司的所有工程师似乎都更有兴趣谈论“安全风险”,而非技术能力。一位员工在吃午饭的时候告诉罗斯,未来十年内,失控的人工智能毁灭人类的概率高达20%。
罗斯形容,这就像你走进了一家备受赞誉的餐厅,准备饕餮一番,结果发现所有店员都在和你聊食物中毒。
用首席科学家卡普兰的说法来解释,就是这种悲观情绪不是刻意营造的,而是Anthropic本来就吸引这种“深思熟虑的”“对这些长期风险持怀疑态度”的人。
这种情绪也最终传导到了Claude产品本身。这种安全导向的训练方法,也使Claude成为了一款格外谨小慎微的聊天机器人。它被评论家调侃为“AI末日轮宣传家”“过于无趣爱说教”。
但是,Anthropic的“安全牌”和Claude的谨小慎微,却让这家公司愈发吸引企业客户和投资者青睐。吸引企业客户很好理解,毕竟to B用户和to C用户不同,前者要的正是安全和可靠。
在初代Claude发布之后,Anthropic融资爆发,先是4.5亿美元C轮融资,其中包括投资方谷歌;后亚马逊也出手,其融资金额节节攀升。到2023年10月,Anthropic总融资额超过了76亿美元。
C
然而,随着Anthropic发展壮大,成为AI领域的“头号玩家”之一,这个“OpenAI叛军”似乎也受到了和OpenAI一样的质疑声。
达里奥不得不越来越频繁地解释Anthropic的“安全”与“发展”如何平衡的问题。
阿莫迪兄妹因为OpenAI商业化转型、心系AI安全而出走并成立Anthropic,这是一开始公认的创始故事。但一直拿着“好人卡”的Anthropic逐渐吸引越来越多的投资、发布一个又一个大模型,也不免让人发现矛盾点:Anthropic和OpenAI比拼大模型性能、融资规模、盈利能力的同时,怎么兼顾安全问题。
或者更直白一些:同样都是AI独角兽、明星初创企业,为什么我们要相信你?就凭你说你更关心世界、更注重安全问题吗?
去年,Anthropic发布Claude 3.5 Sonnet,并称其在推理、编码和某些类型的数学方面梳理了新的行业标准,击败了彼时OpenAI的最新模型GPT-4o。
这个时候,达里奥在《时代》杂志的采访中表示,公众眼中的“安全”和他们的想法“存在一些差距”:
“我不认为我们是一家人工智能安全公司,而是一家专注于公共利益的公司。我们不是一家相信人工智能系统将会带来危险的公司。这是一个经验问题。”
“我更愿意生活在一个理想的世界里。不幸的是,在我们实际生活的世界中,存在着许多经济压力,不仅存在着公司之间的竞争,还存在着国家之间的竞争。但如果我们真的能够证明风险是真实存在的,我希望能够做到这一点,那么也许我们真的可以让世界停下来思考一下。”
也就是说,达里奥依然坚守强大的AI可能造成巨大的危险的观点。而不做出强大的AI,就不能发现巨大的危险到底是什么,也就无法阻止它。
达里奥一直在向外界传达的一个信息是,Anthropic不是要引发或者参与竞赛,而是想要以自己注重安全的标准与态度,让大家都被迫拉高安全标准。
阿莫迪兄妹始终都是缩放定律的信仰者,毕竟Anthropic的创办逻辑正是:在缩放定律中看到了只要投入的资源够大就有可能造出更好的AI系统的可能性,而这背后的安全风险太大,因此自立门户。
在这样的叙事下,他们也始终紧盯OpenAI,视之为最大的竞争对手。
但在今年1月底,DeepSeek R1横空出世之后,情况变得复杂起来。
几乎是第一时间,达里奥称DeepSeek的表现“基本上是我们测试过的所有模型中最差的”,但没有表明Anthropic测试了DeepSeek的哪一个模型,或有关这些测试的更多技术细节。
并且,达里奥亲自发布檄文,支持美国加强芯片管制,但其中引用的一些估算实际上缺乏事实依据。
颇为意味深长的是,达里奥建议DeepSeek“认真对待人工智能安全方面的考量”。
如果是几年前,Anthropic创立之初,达里奥的“安全牌”很有可能引来更多支持声。但如前文所提到的,如今的Anthropic也在“安全”与“发展”的平衡难题之中。
TechChurch在关于此事的报道当中特别提到,“此类安全问题是否会严重阻碍DeepSeek的快速普及还有待观察”,而另一边,“AWS和微软已经公开宣称将R1整合到他们的云平台中——讽刺的是,亚马逊是Anthropic最大的投资者”。
在这之后,2月底,Anthropic的新一代模型Claude 3.7 Sonnet发布。值得关注的是,外界此前一直以为Anthropic下一个发布的会是Claude 4。
这一次融资,Anthropic无疑证明了自己仍旧具有吸引力,尤其是比计划中高出不少的融资金额(从20亿美元到35亿美元)、600亿美元估值以及60倍的市盈率,都在表明着投资者仍然看好Anthropic的未来。
不管是信仰缩放定律的“头部玩家”也好,在有限资源中妙手生花的创新玩家也罢,新的模型还将一个接一个地推出。在DeepSeek引发“混乱”之后的一个月时间里,xAI、OpenAI和Anthropic都已经发布了新一代模型。
此外,OpenAI的GPT-5和DeepSeek R2有可能很快就会问世。
接下来,阿莫迪兄妹的“安全牌”还能奏效多久,是一个未知数。