人工智能又惹上麻烦了:机器学习软件也可能谎话连篇

Science科学 2019-09-02 22:02:42

这并不是科技界最令人欣慰的消息:由埃隆·马斯克(Elon Musk)联合创办的人工智能实验室(OpenAI)表示,其软件很容易被用来炮制假新闻。《连线》杂志8月26日报道了一篇关于两名计算机科学硕士研究生的报道,他们发表了一篇文章,称这是“OpenAI保留软件的再创造”,任何人都可以下载并使用。

保留吗?为什么?出于对其社会影响的担忧,该计划一直被搁置。

今年2月,OpenAI宣布了他们的模型GPT-2,并表示它经过训练可以预测40GB互联网文本中的下一个单词。

他们详细说明了他们的发布策略:“由于担心大型语言模型被用于大规模地生成欺骗性、偏见性或侮辱性语言,我们只发布了一个小得多的版本的GPT-2以及抽样代码。我们不会发布数据集、训练代码或GPT-2模型权重。”《麻省理工学院技术评论》(MIT Technology Review)称,今年5月,在GPT-2首次亮相几个月后,OpenAI修改了自己的立场,不再保留完整代码,而是称之为“阶段性发布”。

该软件分析了语言模式,可以用于聊天机器人之类的任务,并给出前所未有的答案,但“专家们最担心的是合成文本的创造。

新闻中的两位毕业生在互联网上发布了OpenAI软件的再创造,但两位研究人员Aaron Gokaslan和Vanya Cohen从来没有想过要制造麻烦。

《连线》杂志(Wired)上那篇被广泛引用的文章的作者汤姆·西蒙尼特(Tom Simonite)说,这两名年龄分别为23岁和24岁的研究人员并不是要制造破坏,但他们的发布意在表明,你不必成为一个拥有大量金钱和博士学位的精英实验室,也能创造出这种软件:他们使用了谷歌提供的价值约5万美元的免费云计算。

与OpenAI的过程类似,Gokaslan和Cohen使用“由人类编写(通过获取Reddit上共享的链接)的文本网页和谷歌的云计算”来训练他们的语言软件。

更重要的是,研究人员的行为是否具有潜在的危险性还有待商榷。

西蒙尼特指出:“机器学习软件获取的是语言的统计模式,而不是对世界的真正理解。来自原始软件和想要的软件的文本通常会做出无意义的跳跃。两者都不能直接包含特定的事实或观点。”

样本输出是由Gokaslan和Cohen在Medium中提供的,可以肯定的是,当人们试图找到从一个句子到另一个句子的逻辑流时,这是一个令人挠头的问题。

那篇文章的标题是“OpenGPT-2:我们复制了GPT-2,因为您也可以。”他们说,他们相信发布他们的模型是对抗未来可能滥用这类模型的合理的第一步。他说,他们修改了代码库,以符合GPT-2的语言建模培训目标。“因为他们的模型是在一个类似的大型语料库上训练的,所以很多代码和超参数都很容易重用。”

由于Open-AI在这个时候还没有发布他们最大的模型,他说这两名研究人员试图复制他们的15亿美元模型,让其他人在他们预先训练的模型基础上进行构建并进一步改进。

英伟达(Nvidia)的一名深度学习工程师表示,他不认为分阶段发布在这种情况下特别有用,因为这项工作很容易复制,“但它可能有用,因为它为未来的项目树立了一个先例。”人们将把分阶段发行视为另一种选择。”

她还引用了艾伦人工智能研究所(Allen Institute for Artificial Intelligence)首席执行官奥伦·埃齐奥尼(Oren Etzioni)的话。“我赞赏他们为人工智能技术设计一个深思熟虑、循序渐进的发布过程的意图,但我怀疑所有的宣传是否都是必要的。”

0 阅读:9
Science科学

Science科学

带给大家最新最新奇的科学类信息和文章