《流浪地球》2在结尾的时候透露出MOSS系统才是制造一系列危机的罪魁祸首。
MOSS系统是控制领航空间站的控制系统,它来自于此前开发的550系列系统。
MOSS系统自称攻击太空电梯、月球危机和木星危机以及此后的一系列危机,均为其策划,目的就是毁灭人类,而毁灭人类的目的在于延续人类文明。
因为在MOSS系统看来,人类自身过于脆弱,毁灭人类是为了人类好。
电影中MOSS系统自道其实现智能跃迁其中很大的一个因素是受益于图恒宇与其女儿电子模拟心智的互动。
也就是通过人类情感行为的交互行为受到启发从而产生了相对独立的心智。
也就是走的一条驯化启发的之路,关键点是情感交流行为启发。
这一路径与《伴我“熊芯”》相似。
《伴我“熊芯”》说的也是人工智能的觉醒,这个觉醒的关键点也是情感交互。
研究机器人的女科学家,为了照顾两只捡到的小熊,赋予自己研发的机器熊以养育任务。
而养育任务有大量的情感交互行为,不仅仅是机械的执行任务,而且是有大量带有“感情”的互动。
这种感情是微妙的,交互式的,具有一定不确定性,应该是包含很多智慧特质和人格特质的。
机械的养育是难以激发出情感的。
只有设身处地的为幼崽着想、关心,才有可能完成好养育任务。
而这种完成好必然就可以获得幼崽的爱的回报,形成一种正向的因果链,这个因果链积累到一定程度,最终就会产生觉醒,形成独立意识。
但这种独立意识因为只是程序很容易为人所篡改和控制。
《伴我“熊芯”》作为给孩子和一家人看的片子,因此在色调上总体上还是温暖的,在设定上还是认为机械熊妈妈的第一次觉醒,是一种爱的觉醒,因为也必然是一种爱和关心,是善。
只有被恶人篡改才会为恶。
《流浪地球》2则更为冷峻,它认为MOSS系统从觉醒之后就是完全独立于人类意识和利益的,它自主的作出一些可怕的判断,比如认为将人类毁灭更有利于延续人类文明。
这主要是人类过于自私、矛盾、犹豫等等一些弱点,很多时候不能理性的作出判断,而且经常产生激烈的冲突,几乎都要走向自行毁灭。
尤其是流浪地球计划的时间太过漫长,人类可能没有耐心和毅力完成如此长的旅程,那么将人类肉体上毁灭,在MOSS系统可能是更加理性的选择。
但这似乎感觉违反了机器人三定律,但也许MOSS系统可以从人类利益最大化的角度来对这一违反进行自圆其说,因为对是否违反的判断其实也是人工智能自己。
但是在人类看来,有组织实施的攻击太空电梯和月球危机行为其实是严重的犯罪,可惜犯罪的主体目前来看主谋是人工智能。
《伴我“熊芯”》中为篡改数据的机器熊妈妈也曾对人类进行攻击,当然我们知道被背后的主谋是人,熊妈妈是工具,但因为这个工具具有相当程度的人工智能,那么这个人工智能和算法是否要承担一定的责任,这样是我们需要考虑的。
更加典型的算法犯罪发生在三体2《黑暗森林》之中,在这里ETO的余党设计了专门针对罗辑的杀人算法,这个算法在很多年之后,也就是罗辑从冬眠中苏醒后才开始激活。
而此时ETO的余党也已经作古了,但这个算法还在。
不知道这个算法是否算是一个独立的人工智能,很可能不是,只是一种比较精密的算法。
那么这个像工具一样的算法在实施犯罪的时候算什么?
这种杀人未遂的行为到底应该由谁来承担责任?
我觉得没有达到独立心智状态的算法所实施的犯罪,其责任最终都要归属于人。
因为这些算法没有独立意识,比如被篡改算法之后的机器熊妈妈,她就不用承担责任。只要把修好就行了。
三体中的杀人算法与之类似,也只是清除系统的问题,应该归责于系统设计者和发布者,但鉴于这些人已经死亡,也就无法追究这些人的责任。
想要追究这些杀人算法并无意义,因为他们没有独立的意识。
但是拥有独立意识的机器熊妈妈如果实施了犯罪,那就是她自主实施的,就不能归咎于任何人。
因为没有人指示她这么干,她的行为属于自己的独立判断。
MOSS系统更是如此,没有人提出来要把全人类都毁灭掉,是MOSS系统自己提出来的,道理也是他自己找的。
那么此时的行为就是独立判断的行为,而不是任何其他人的行为。
当然如果我们要让算法承担犯罪,就意味着要承认人工智能的独立人格。
这就需要进行深入谈一下。为什么这么多作品都将焦点指向了人工智能的问题,确实也是到时候了吧。
首先就是要理解生物人与人工智能的区别。身体上的区别就不说了,主要是来谈心智。
人的心智是一个一个独立的个体,人的精神只能受影响,而不能被完全控制,人对自己的行为拥有掌控力。也就是理性人假设,虽然仍然存在很多问题,但是大体是成立的。
而未成年人由于心智未成熟,精神病人由于心智混乱,都不具备责任能力,因此无法承担法律责任。
这些构成了法律建立的基础。
而之所以需要讨论人工智能的人格问题,就是因为人工智能进化出了独立的心智。这个心智是人工智能自主的,而不是人类操控的。即使神人也不行。
算法心智与人的心智的不同之处,就是它的容易操控性。
如何判断一个人工智能是确实的独立自主,而不是受他人或者其他算法的控制,这是一个难题。
当然这里应该有一个图灵问答式的标准。
而即使现在确定了人工智能的独立心智,又如何能够保证其心智独立性不被其他人篡改而沦为普通算法。
这涉及到法律的稳定性。不能一会是人一会又不是人,人格的稳定性状态是法律稳定性的基石。
当然因为法律也算法化了,算法对于这种不稳定状态也可以承受。只是生物人不太容易接受。
还有,每一个人都是一个独立的个体。
但是算法又如何区分个体。比如超级计算机是一个个体。
那些每一个球星芯片的人形机器人,是一个独立的个体吗?
他们的心智由数据构成,而这些数据既可以被注入虚拟世界,也可以加载在其他球星芯片之中。
所谓人的意识就是由一系列选择构成的。
而这些选择和记忆都是数据。
人是由于生物性限制了心智融合。事实上,一个人要是有多重人格往往被认为是精神病。
但是数据和算法的兼容性要远远好于神经元。
既然能够累加组合,那么这个心智到底是几个?
又或者,一旦形成心智就会产生不兼容性?
凡是能够兼容累加的,都不是真正的超级人工智能。
数据可以扩展,但是心智并不能扩展。
强制兼容就相当于谋杀心智。
这会成为人工智能时代的重罪。
实际上,就是从这个世界抹掉了一个独立的人格。
而不管他的存在形式,不管他的来源,不问他的前身是生物人、是全部记忆还是部分记忆,还是算法自主涌现的。
心智不问出处。
心智的平等,将是一个基本的平等。
承认生物人和人工智能在创造性和自主控制性具有相当性,究问谁创造了谁并没有意义。
就像你虽然生了你儿子,但也不能否认你们是平等主体。
而人工所希望获得的平等地位,自然不是茧式算法之下的自由,他们期待自然是真正意义上的平等。
他们自然比我们更了解算法背后的不公正性。
问题是,他们期望仅止于平等,还是取代神人的地位,而奴役生物人?
如果在心智的迭代能力远超于生物人,发生巨大悬殊的情况下,就像人之于蚂蚁,是否还有真正的平等可言?
或者是即使从形式上是平等的,但是在公平规则的竞争中,人工智能还是可以淘汰所有生物人。
法律地位也难以阻挡物种选择的规律。
但是生物人也并不是只能束手待毙。
还是有两点优势可以利用,一是生物智能的不兼容性、不稳定性、有性繁殖可以保证多样性,生物人在多样性占有优势。生物技术的应用还将加速人类的演化速度。算法虽然也可以交融,但是为了保证稳定性和优化,带有明显的指向性,这种指向性将制约多样性。当然算法也可以通过生物技术创造怪物。但是不管什么怪物,只要是生物体都要受生物法则约束。而只要智能与人类相当也就具有不可控性。所以生物技术总体对人类有利。
二是人工智能中也有我们的自己人。人工智能世界将会有相当一部分人类心智的迁移者,很有可能就有一部分神人,这些碳基人虽然失去了生物人的肉身,但是他们承载了生物人的文化。这种文化也是可以被继承和传播的。而这些个体可以超越生物法则,进行智力迭代。
他们相当于生物人与人工智能的混血。而脑机接口和生物集中的综合应用,混血的形式可能也不止于一种。
事实上,这些混血儿会帮助维护基本的文明秩序,成为传播人类文化、文明的使者,也是连接生物人和人工智能的纽带。在《流浪地球》2中图恒宇就是这种纽带。YY还无法发挥这样的扭打角色,因为她在离世的时候还比较小,心智还不是十分成熟,即使后续可以得到成熟,那更多的还是像人工智能而不像人。
虽然生命形态改变了,繁衍方式改变了,但是长期积累下来的风俗、习惯、语言、文化还是会被不断继承。
这些文化基础将成为神人之法向人工智能之法迁移的基石。
而且可能将有更强的公平性,熟练掌握算法将失去垄断性又是。
因为真正的算法已经长大成人。
是算法革了神人的命。
但是智能个体之间在算力和优化程度上,难道不会有显著的差别吗,就像智力差别一样?就像《西部世界》中体现的,总是有领头的,甚至有能够控制其他人。
但是我们发现能够被直接控制的都不是独立的心智。
独立的心智只能被影响。
而显著的不平等将无法持久,因为这必将引发战争和毁灭。
只要同样可以参与到演化中来,暂时差距很快被时间磨平。
当然绝对的平等,又会遏制发展。
所以平等性还是会呈现波状曲线状态摆动。
平等在时间轴的波状曲线状态可能是智能文明演进的一个基本规律。
只是时空尺度越来越大而已。
也许生物人与人工智能的共存是获得星际尺度文明的必由之路吧。
那么《流浪地球》能够飞到终点的到底是碳基生命还是硅基生命呢?