内部模型可以释放生成式人工智能的潜力

米言看科技 2024-04-18 18:05:36
释放生成式 AI 潜力的关键

在过去的一年里,人工智能的发展步伐显着加快。OpenAI 的 ChatGPT 于 2022 年 11 月到来,引起了消费者的极大关注,组织很快意识到在其产品中实施生成式 AI 应用程序可能带来的盈利潜力。与此同时,技术领导者在支持生成式人工智能的大型语言模型 (LLM) 上投入了大量资金,去年组织生成 AI 模型的速度增长了 411%。

随着这一趋势继续呈上升趋势,许多高管正在考虑如何首次将生成式人工智能引入他们的组织。领导者正在寻求消除噪音,并制定具有成本效益、提供业务价值并保护其数据的生成式 AI 战略。在内部建造模型是答案吗?

将生成式 AI 引入其中

对于大多数企业来说,人工智能本身并不一定是新的,而是一种现有的工具,在去年已成为更高的优先级。例如,在 2022 年,在 ChatGPT 出现之前,《麻省理工科技评论》的数据显示,94% 的组织正在以某种方式使用人工智能。同一项调查还显示,这些组织中只有 14% 的目标是到 2025 年实现“企业级人工智能”的实施,即让人工智能成为至少五个核心职能的关键部分。因此,在此期间,人工智能的使用很少在组织之间标准化,因此没有开发重大的好处。

从那时起,生成式人工智能已成为许多组织的必备工具,原因不言而喻。麦肯锡公司最近的研究估计,生成式人工智能每年可以推动全球经济增长2.6万亿至4.4万亿美元(2万亿至3.4万亿英镑)。生成式人工智能将对所有行业产生重大影响,无论是小型企业还是大型企业。为了释放其全部潜力,高管需要实施强大的生成式人工智能战略,其中包括结构良好的模型、高技能的团队和一流的数据基础设施。

并非所有 AI 都是平等创造的

在图像生成和个性化内容创建等新兴用例的潜力的推动下,生成式人工智能正在成为集成到组织结构中的通用功能。技术团队很少需要将其价值出售给其他部门,而是在组织的各个方面看到巨大的需求。因此,问题通常不在于生成式人工智能是否具有价值,而在于如何高效、安全和有效地实施它。

模型越大并不总是越可靠,尤其是在数据治理方面。一些最流行的生成式 AI 工具,如 ChatGPT 和谷歌的 Bard,要求用户授予对模型创建者数据收集的访问权限。然后,这些个人数据将用于模型的进一步训练,这在企业环境中尤其令人担忧。例如,如果员工将敏感的公司数据输入到第三方生成式 AI 应用程序中,这些数据可能会构成聊天机器人稍后对其他用户做出响应的基础。较小的开源模型可以缓解其中的许多问题。当使用小型内部模型时,组织永远不必与第三方共享他们的数据,从而确保其安全。随着时间的推移,可以利用这些数据来训练模型,从而大大提高其性能并减少不准确或不相关输出的可能性。

更大并不总是意味着“更准确”

生成不准确或不可靠的输出是许多组织进一步关注的问题。业界最大的 LLM 的训练需要庞大的数据集,因此第三方组织经常抓取网络来收集数据。因此,不可避免地,这些数据可能会被网上存在的大量事实不准确之处所污染。同样,这种培训的规模可能会在ESG领域带来额外的担忧。马萨诸塞大学的研究人员发现,训练大型人工智能模型平均可以排放超过626,000磅(284公斤)的二氧化碳当量,这几乎是普通汽车生命周期排放量的五倍。

更高效的小型模型可以减轻对不准确的担忧,可能是一个有前途的替代方案。组织可以从市场上的一系列开源模型中进行选择,这些模型通常是针对非常具体的用例量身定制的。这与第三方提供商开发的大型模型不同,后者是根据来自网络及其用户的数据进行训练的。如此大的数据集可能对消费者使用有用,但在企业内部,模型了解内部概念和数据将更有用。小型模型带来了独特的知识,这要归功于它们根据组织的专有数据进行训练。

小型开源模型将与大型模型的性能相媲美,并允许从业者进行创新、共享和协作。随着组织越来越多地接受生成式 AI 的价值,他们必须考虑如何有效和负责任地利用生成式 AI 工具。事实上,市场上最大的模型有许多重要的用例,但对于许多组织来说,值得关注较小的模型。在内部构建时,组织可以更好地控制其敏感数据,降低与生成式 AI 部署相关的成本,实现更准确的输出,以及更环保的方法。要想在不影响盈利能力、效率和安全性的情况下驾驭生成式 AI 浪潮,小型模型就是答案。

0 阅读:0

米言看科技

简介:感谢大家的关注