10月29日消息,全球权威的开放源代码促进会(Open Source Initiative,OSI)发布了关于“开源AI定义”。根据该定义,真正开源的AI大模型必须提供训练数据的详细信息、完整的构建和运行AI的代码以及训练时的设置和权重。
OSI称,新定义是为了避免当前行业中对“开源大模型”的过度营销和使用误解。据此标准,当前市场上表面开源的大模型几乎都“名不副实”,包括大名鼎鼎的“开源大模型”标杆Llama和Gemma。
OSI是多年来一直负责管理开放源代码定义(OSD)。在过去两三年中,OSI发现传统的“开源”定义并不适用当前火热的AI大模型。因为AI大模型比传统开源软件更复杂:它不仅包含代码,还涉及大量的数据、复杂的模型架构以及训练过程中的各种参数等。而这些数据的收集、整理、标注等过程都对模型的性能和结果产生重要影响。传统的开源定义无法全面涵盖这些新的要素,导致在AI领域的适用性不足。
2023年,OSI对市场上的大模型调查发现,表面上开源的大模型几乎都“名不副实”。Hugging Face应用政策研究员Avijit Ghosh表示,将大模型描述为“开源”可能会使它们被认为更值得信赖。Meta和Google宣传的免费模型似乎任何人都可以调整,但并不是真正的“开源”,它限制了用户可以对模型做什么,而且训练数据集并不公开。
去年6月,OSI表示将为开源AI重新设置定义。它邀请了70人专家组,包括研究员、律师、政策制定者和大型科技公司代表等,来共同协商制定AI开源定义。
如今,OSI正式宣布了开源AI定义(OSAID)1.0版。根据新定义,AI大模型若要被视为开源有三个要点:
训练数据透明性:必须提供足够的信息,使任何人能够“实质性”地重建该模型,包括训练数据的来源、处理方式和获取方式;
完整代码:需要公开用于训练和运行AI的完整源代码,展示数据处理和训练的规范;
模型参数:包括模型的权重和配置,需提供相应的访问权限。
OSAID还规定,开发者应享有使用、修改和共享模型的自由,而无需获得他人许可。对于新定义,独立研究员和开放源代码创建者Simon Willison称,“既然我们已经有了一个强有力的定义,也许我们可以更积极地抵制那些开源洗白(open washing)并宣称自己的工作是开源的公司。”
此前,国内市场也爆发了“大模型开源闭源”之争。某企业负责人曾公开表示,“很多人混淆了模型开源和软件开源的概念”。所谓的“开源大模型”其实并未开放训练源代码、预训练和精调数据等影响模型效果的关键信息,所以这些模型无法像开源软件一样,靠社区开发者一起参与来提升效果和性能。应用“开源大模型”的企业,其实很难迭代并优化这些模型,以至于无法高效地应用于企业场景。基于这些原因,闭源模型更适合商业化。