IT之家1月25日消息,哥本哈根大学的研究人员在世界上首次用数学方法证明,在各种基础问题之上,不可能开发出始终稳定的人工智能算法。
以ChatGPT为代表的AI浪潮下,机器能比医生更准确解读医学扫描图像、能比人类更安全地驾驶汽车,但再优秀的算法也存在弱点。
以自动驾驶汽车读取路标为例,如果有人在路标上贴有标签,人类驾驶员的注意力通常不会被分散,而机器由于和接受训练的路标存在差异,很容易出现分心。
该小组负责人阿米尔・耶胡达约夫(AmirYehudayoff)教授说:“现实生活中存在着各种各样的噪音,人类习惯于忽略这些噪音,而机器却会感到困惑”。
如果AI能睡觉而不是昏迷,那就差不多了。毕竟两者差距巨大
胡说八道,世界上本来就没有绝对真理,只要大概率胜利即可
本来就没有绝对稳定的人…
人都会被各种忽悠,扭曲认知,机器怎能免俗。
大自然是永恒的,它的规律和秩序是不可战胜的。
人和ai都会犯错,都会不稳定,比如ai不会受情绪影响。
阿彌陀佛!你啥畢業?相對論説了啥?啥叫相對論?
不管前方的山再陡峭,愿我和你都能永远真诚而炽热,永远勇敢一往无前,总有一天阳光会照亮心桥
就是基线问题。就像是“满意”,就无法用精确算法表示
科技可以进步,过份融入人类生活,人就会退化[呲牙笑][呲牙笑]