机器人与威胁:如何防范“机器崛起”的风险。 今天,我们正处于一个新的发展阶段,机器人领域的进步提出了新的难题,其中之一是:我们是否面临“机器叛乱”的危险?尼古拉·金教授讲述了如何预防“机器起义”的风险并消除威胁。 好莱坞电影中关于“机器崛起”的最坏场景是否仍会成为现实,机器人将夺取人类的权力?例如,达沃斯世界经济论坛主席顾问尤瓦尔·赫拉里(Yuval Harari)坚信,“10年内,AI(人工智能)将统治世界。”在他看来,人工智能算法在所有活动领域的引入最终将导致一个事实,即一个人的命运所依赖的大多数决定将由计算机做出。 然后权力将逐渐从人类手中转移到这些新的外星人头脑中, - 赫拉里的预测令人恐惧。 莫斯科航空学院机器人系教授、技术科学博士生尼古拉·金在接受《Tsargrad》采访时澄清说,“虽然机器人的智能水平相对较低,但冲突的本质将取决于机器人之间可能存在的差异”。利益,特别是服务机器人的所有者和用户。” 当自我保护的本能被引入机器人时,更重要的是,它们自我认同的可能性,自身动机的出现,人机冲突的危险将会增加。 - 专家继续他的想法。 尽管向“强”人工智能的过渡仍然是一个相当遥远的前景,但机器人的人工智能已经可能违背特定个人或群体的利益。 《第一俄罗斯人》的对话者指出,“这种与人工智能发展的冲突将在其应用的各个领域增加。” 这种风险在协作机器人(即可以与人直接接触工作的机器人)环境中尤其高。正是在他们身上,首先奠定了独立决策的职能,他们的活动将直接影响到人。如何防范“机器叛乱”风险? 首先,教授认为,有必要通过立法规范人工智能的使用程度,有必要引入一定的限制性标准。但遗憾的是,这里并不是一切都很顺利。 这些措施并不能完全消除人工智能发展的风险,特别是与个别公司或开发商相关的风险。很难强迫绝对所有玩家去做他们在世界各地同意做的事情,而不是把AI水平提高得太高, ——尼古拉·金解释了问题的本质。 然而,专家总结道,机器人和人工智能的发展和广泛实施的战略问题仍然是长期预测这些技术可能产生的后果(包括全球后果)。

