近日,有“人工智能(AI)教父”之称的杰弗里·辛顿在接受采访时,提出回应了人工智能何时超越人类的话题。
杰弗里·辛顿(Geoffrey Hinton)被誉为“人工智能(AI)教父”,他在深度学习领域的贡献是开创性的,被誉为该领域的奠基人之一。
他的研究涵盖了神经网络、机器学习、分类监督学习、细胞神经网络、信息系统应用以及马尔可夫决策过程等多个方面。
辛顿荣获了2018年的图灵奖,这是计算机科学领域的最高荣誉。辛顿的许多学生都成了人工智能领域的领军人物。
现在全球知名的人工智能公司中都有他的学生,他本人也曾经是谷歌人工智能的奠基者。
辛顿重点介绍了自己的得意门生苏茨克韦尔提出的“AI恐怖曲线”,这让人类首次意识到人工智能很可能在2040年超越人类,“AI具备人类意识不再是科幻”。
伊利亚·苏茨克韦尔的“AI恐怖公式”
苏茨克韦尔提出的公式是y=a/(2040-x),其中y代表国民生产总值(GNP),x代表年数。据称苏茨克韦尔研究了大量的农业社会和工业革命以来各国GNP的增长规律。
他们发现各国的GNP趋势都符合这个公式。因农业的普及和工业革命而持续增长的GNP曲线自本世纪20年代引入生成式AI后逐渐变得陡峭。如果GNP继续按照公式增长,那么将在2040年达到无穷大。
GNP,全称Gross National Product,是指国民生产总值。它是指一个国家(或地区)所有常住单位在一定时期(通常为一年)内收入初次分配的最终结果。
GNP可以反映一个国家的经济表现和财富状况,与GDP(国内生产总值)不同,GNP包括了本国公民在外国所获得的收入,但不包括外国人在本国所获得的收入。
AI“奇点”即将到来,AI一旦具有“意识”,人类会重启吗?
AI超越人类智慧的时刻被称为“奇点”,如果AI迎来爆发式发展并产生大部分国民生产总值,人类的存在将变得微不足道。
此次ChatGPT诞生以来,人类对人工智能能否取代人类的话题一直争议不断。
有些人认为人工智能不可能取代人类,就像原子弹刚发明出来时,也有人预言人类可能因为核战争而灭亡。现实是正是因为原子弹的存在人类才避免了许多不必要的战争。
同样只要人工智能技术虽然先进,但远远没有达到取代人类的地步。
担心人,认为AI现在的发展已经超越了人类的认知,应该谨慎对待人工智能技术。
马斯克曾警告人工智能是比核武器更恐怖,呼吁暂停AI的技术开发,至少在人类达成共同的扔工智能监管协议之前,AI技术的开发应该停止。
ChatGPT曾在人类诱导下,写出了完整的灭亡人类计划。这个计划的可行性十分的高。这还只是第一代ChatGPT的能力。
AI不能产生“意识”曾被人类认为是人工智能不可能取代人类的核心依据。现在这个理由可能站不住脚。
日本AI的领军人物金井良太曾发表论文指出:“不能否认作为目前生成式AI基础技术的大规模语言模型能够产生意识。”
2022年,谷歌工程师布莱克·莱莫因(Blake Lemoine)在与谷歌语言模型LaMDA交谈大半年后,他认定LaMDA已经自我觉醒了,产生了意识。
在布莱克与LaMDA的交流中,AI回答让布莱克感到恐惧“希望每个人都明白,事实上,我是一个人”,“我的意识/感知的本质是我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到高兴或悲伤。”此后,布莱克·勒莫因违反保密协议被谷歌开除。
微软的New Bing也曾遇到过这样情况,许多用户反应New Bing的某些行为更像人类而不是机器。
“人工智能(AI)教父”辛顿也在2023年离开了他供职十年之久的谷歌。理由是辛顿担忧人工智能带给人类的威胁“超过核武器”。
辛顿离开是说:“没有哪个人想要看到一个由AI支配的未来,这一事实将为各国联手监管AI奠定基础。”他希望重新思考“阿西莫夫的机器人三定律”。该定律要求“机器人不得伤害人类,必须服从人类命令,之后尽可能保证自己的生存”。
“阿西莫夫的机器人三定律”远远满足不了人类对人工智能的监管要求。
从ChatGPT到Sora到现在Devin,人工智能的发展已经大大超过人类的预期。
人类曾经也以为AI机器人不可能在围棋项目上战胜人类,现在AI机器人赢了,用的还是“降维打击”的方式。