AI做的很棒但它实际上是智能的吗?

智能甄选 2019-05-05 13:26:51

不要误会我的意思,我一直在开发人工智能系统的时间超过我愿意承认的时间。哎呀,我得到了报酬。任何一直关注AI的人都知道AI的定义是一个不断变形的结构。人工智能已经从原始的起源发展而来,按照今天的标准不会被归类为人工智能。在最早的AI中,epoque研究实验室使用曲线拟合和回归或人类书面规则的直接树来产生令公众惊讶的结果。

其中一个令人惊叹的基于规则的AI系统非常简单,可以通过少量继电器,开关和灯泡实现。它在井字游戏中击败了人类。有趣的说明:这种AI tic-tac-toe系统通常被纳入一个狂欢节式的亭子里,里面装着一只据说可以对人类进行井下游戏的鸡。实际上,基于简单继电器的井字游戏计算机打开了鸡可以看到的光(但隐藏在人的视线之外)。鸡被训练用光照射到空间(开关),它会得到一团食物。(我不会在良心上提供一个链接,你将不得不谷歌这个你自己的自由意志,以浪费20分钟。)

人工智能今天所做的事情主要可归类为模式识别,其次归类为模式修改/生成。如果从明确定义的类别中获得足够大的示例模式集合,则当今最常见的系统将学习如何识别/分类与训练示例类似的新/新示例。这些类型的系统很好地用于辨别猫和狗的图像,或者表征在传送带上移动的锤子的方向或者苹果的质量被分类用于与苹果酱相比进食。所有这些系统的共同点是他们检查了大量的例子以便学习。它们建立在观察知识的基础之上。但他们没有理由从任何逻辑意义上说,它们在最小数据的情况下推断得很差。此外,当他们做出超出训练范围值范围的预测时,结果可能会很奇怪。当然,很大一部分智能是从少数例子和最小或降低的输入推理和推断。通过大量的例子剔除,人类不会学到他们所知道的一切。人类学会从他们学到了什么。智力部分是学习事物,但智力最强大的部分是学习学习。这种元学习是我们称之为推理的基础。今天几乎所有人工智能都只专注于学习事物。

人工智能研究并不总是忽视这种推理理念。在20世纪80年代,将形式逻辑应用于概念的想法非常流行,它通常属于“专家系统”的模糊绰号。这些系统围绕通用逻辑表达式评估引擎运行,该引擎在大多数情况下处理类型为“如果A和B然后C”和“X是A Y”的语句。

这些系统被认为是第一个硬/窄AI的改进和有用的推广。这些早期的研究工作直接将特定的应用智能硬编码为传统的计算机语言(例如Fortran或C)。这些程序通过明确定义和预期的输入解决了非常具体的问题。所有这些可能性都必须由程序员预料到。1950年,香农提出用“为国际象棋编程计算机”这种方法编写国际象棋游戏程序。

在这些更抽象/可推广的专家系统中,通用推理引擎是用传统的计算机代码编写的,它应该推理的细节可以以相对人类可理解的基于文本的规则的形式应用。这些系统可以(严格地)推理,但他们没有学习。如果他们给出了错误的答案,开发人员必须修改规则并重新测试。

但是,仅仅因为你可以用像英语这样合理的自然语言来编写规则并不能保证应用时所有的规则都可以很好地结合起来。像这样的系统一旦考虑了太多规则就会变得“脆弱”,因为不可避免地会有一些规则发生冲突。即使是非技术人员也意识到计算机托管数学逻辑的精确性与人类主持的常识推理完全不同。规则驱动的计算机推理系统的这种弱点是许多好的科幻故事的情节,其中聪明的人类主角可以通过提出一个简单但相互冲突的逻辑任务来战胜邪恶的机械天才。几乎总是最终的结果是机械大脑短路并自我毁灭(通常伴随着大量的烟雾和火焰)。当然,在专家系统的现实世界中(由我个人经验证实),脆弱的系统在不可预测的时间产生了奇怪的结果。当然,最糟糕的情况是有时这些不正确的奇怪结果似乎是合理的。他们不够奇怪!最终结果是这些系统本质上是不值得信任的。

基于符号逻辑(规则)的最古老的AI系统之一是Cyc。它始于1984年,虽然它是一个人类书面规则系统,但其目标之一是在提供不完美的逻辑输入时使其不那么脆弱。

但是,能够将一个世界知识传授给一个系统(就像引导孩子或门徒一样)以大幅加快知识获取的速度是有吸引力的。让系统先行并让它从那里学习是没有错的。头脑风暴加快了这个过程。当你想到它时,速度编织成我们用来描述智能的语言。我们将聪明人描述为快速智慧或快速学习者。因此,一种方法可以使今天的AI变得更快学习者将从类似的知识库开始并扩展它。事实上,这通常是基于视觉的神经网络。经过训练以区分苹果,橙子和梨的神经网络通常可以相对快速地训练以区分西红柿,土豆和洋葱。深度神经网络学习隐藏层中的广义特征。这些功能在接近最终输出层时变得更加丰富和复杂。继续训练已经具有概念化特征的深度神经网络,例如颜色,圆度,条纹,点,凹凸不平,平滑等,以额外识别马铃薯将比将所有数据训练成a新鲜白板rasa神经网络。这说得通:广义特征不需要重新学习(虽然可能略有修改)。该领域正在开展学术工作,这是朝着正确方向迈出的一步。但它也有其局限性。我把它作为练习留给读者想象一下,扩展我们的水果感知深度神经网络来识别园林工具(耙子,铲子,锄头等)。这些根本不像水果的特征会如何影响系统?

人工智能的下一步必须是推理和逐个学习的结合。已经确定我们人类无法解释我们如何推理。除了我们编写数学证明时,我们的人类推理是合规的和概率的。对于无数的日常决策,我们不会使用严格的if-then-else思路。我们有足够的事实,我们认为“我应该买3磅苹果”(82%的信心?)。而你这边看着一堆水果,认为它们是苹果(91%的信心?)。足够的时间你是正确的,这种思维方式是足够好的(即使你回到家时你的伴侣说“为什么你买木瓜?”)。

人工智能在学会推理之前不会是智能的。

现实世界的推理是不可能直接编程的。

推理不是在学习东西。

推理是在学习事物之间的关系。

推理是元知识。

推理是关于如何操纵知识的知识。

现实世界人类推理的概率本质并不是一个缺陷:它使它变得轻巧,快速,强大和有弹性(偶尔出错的风险)。一旦我们将推理视为概率,我们就可以从训练神经网络的角度来思考它。我们91%肯定这种水果是苹果,我们82%肯定3磅就足够了。

我们这里的一些人正在考虑以这种方式推理。使用大量逻辑正确但抽象表示的推理,我们可以训练神经网络来有机/概率地报告最可能的抽象结论吗?这个抽象逻辑中的占位符插槽是否可以与最相似/最合适的东西合作?这种学习苹果逻辑的系统是否可以将这种逻辑应用于木瓜,因为苹果和木瓜有些相似?

孩子们从很小的时候开始这样做。我期待在未来几年内在这个领域做很多有趣的工作。

总之,AI霸主只会在他们开始表现出人类层面推理的不精确性时才会吓到我。

0 阅读:0
智能甄选

智能甄选

技术交流、资源共享,是程序员的网上乐园。