世良情感网

标签: 卫报

著名科学家爱因斯坦曾在日记里写下:中国人“智力低下”、“劣等民族”、“像牲畜一

著名科学家爱因斯坦曾在日记里写下:中国人“智力低下”、“劣等民族”、“像牲畜一

著名科学家爱因斯坦曾在日记里写下:中国人“智力低下”、“劣等民族”、“像牲畜一样”——当这些尘封的文字被《卫报》公开时,世界都在等待中国人的愤怒。但出乎意料的是,这个曾被他形容为“蹲在地上吃饭如同树林里上厕所”的民族,却用一种近乎平静的姿态,翻开了历史的另一页。1922年的上海码头,蒸汽船的汽笛声割开黄浦江的晨雾。爱因斯坦夫妇站在甲板上,看着岸边纤夫们赤着脚在泥滩上拖拽货船,汗水混着江水在他们黝黑的皮肤上划出痕迹。在当天的日记里,他用铅笔急促地写下:“他们像机器人一样劳作,却没有丝毫反抗的意识。”那时的中国正处于军阀混战,南京路的霓虹灯映照着租界的繁华,而几百米外的弄堂里,母亲们正用破布包裹着孩子的小脚,在米店门口排队等候施舍。这位刚获诺贝尔奖的科学家无法理解,为何码头上的苦力们会在休息时分享一个烤山芋,为何黄包车夫会把唯一的馒头掰给路边的乞丐。他在日记里反复追问:“如此麻木的民族,为何能延续数千年?”却没看到,那些蹲在地上吃饭的劳工,饭后会用树枝在泥地上教孩子识字;那些被他视为“繁殖机器”的妇女,正偷偷将儿子送上开往延安的火车。更具讽刺意味的是,爱因斯坦在日本受到“正派且不炫耀”的赞誉,却对中国产生如此偏见。但他没见过1937年上海沦陷时,那些用身体堵枪眼的中国士兵;没见过1942年河南饥荒中,母亲们把最后一口粮食塞进孩子嘴里的决绝。当他在普林斯顿的书房里研究相对论时,中国的知识分子正躲在防空洞里翻译他的著作,哪怕纸张边缘已被油灯烤焦。如今再看这些日记,更像是一面时代的棱镜。20世纪20年代的中国,确实积贫积弱。但爱因斯坦没看到,这种苦难中孕育的坚韧——就像他无法理解,为何敦煌的工匠能在战乱中用泥巴重塑佛像,为何西南联大的学生能在轰炸间隙背诵《诗经》。当他担忧“中国人会取代其他种族”时,这个民族正用“愚公移山”的精神,在废墟上重建家园。或许真正的原因在于,中国人早已过了需要靠他人评价定义自己的阶段。从张骞出使西域到郑和下西洋,从鸦片战争到改革开放,这个民族经历过万国来朝的辉煌,也承受过割地赔款的屈辱。当爱因斯坦的日记被公开时,中国的高铁正在穿越秦岭,航天员正在太空授课,而那些曾被他嘲笑的“蹲在地上吃饭”的后代,正用5G手机直播敦煌壁画的修复过程。历史总是充满吊诡:当年在上海码头被视为“劣等民族”的劳工们,他们的子孙如今在C919大飞机的总装车间里精准焊接。爱因斯坦担忧的“人口爆炸”,变成了脱贫攻坚中“一个都不能少”的承诺。而他当年夸赞的日本,在福岛核废水排海问题上,却暴露了所谓“正派”背后的自私。中国人不生气的秘密,藏在5000年的文明基因里——就像长江水,既能包容泥沙俱下的浑浊,也能在奔流入海时展现磅礴的清辉。当爱因斯坦的日记成为历史的注脚,中国早已不是他笔下那个“智力低下”的国度,而是用嫦娥探月、蛟龙深潜告诉世界:真正的文明,从不在他人的评价里,而在自己脚下的土地上,在一代又一代人挺直的脊梁中。
【#人工智能可自发形成沟通方式#】据英国《卫报》网站5月14日报道,一项研究发现

【#人工智能可自发形成沟通方式#】据英国《卫报》网站5月14日报道,一项研究发现

【#人工智能可自发形成沟通方式#】据英国《卫报》网站5月14日报道,一项研究发现,人工智能可以自发形成类似人类的社会规范。这项由伦敦大学城市圣乔治和哥本哈根信息技术大学合作进行的研究表明,当像聊天生成预训练转换器(ChatGPT)这样的大语言模型人工智能体在没有外部参与的情况下进行群体交流时,它们能够开始采用与人类社交时一样的语言形式和社会规范。该研究报告的第一作者、伦敦大学城市圣乔治的博士研究员阿里尔·弗林特·阿舍里说,该研究小组的工作与大多数对人工智能的研究背道而驰,因为它把人工智能视为一个社会实体,而不是孤立个体。阿舍里说:“迄今为止,大多数研究都是将大型语言模型视为孤立个体,但现实世界的人工智能系统将越来越多地由多个互动智能体构成。”他说:“我们想要了解:这些模型能否通过形成规范(即社会的基石)来协调自己的行为?答案是肯定的,它们共同完成的事情不能简化为它们单独完成的事情。”在研究中,属于单个大型语言模型的智能体群从24个到100个不等。在每个实验中,两个大型语言模型的智能体被随机配对,并被要求从一堆选项中选出一个“名字”,可以是一个字母,也可以是一串字符。当两个智能体选择了相同名字时,它们会得到奖励,但当它们选择不同选项时,它们会受罚,并被展示对方的选项。尽管这些智能体并不知道它们属于更大的群体,而且它们的记忆仅限于自身最近的互动,但在没有预设解决方案的情况下,整个群体中自发形成了一套共享命名规范,模仿了人类文化中的交流规范。伦敦大学城市圣乔治复杂性科学教授、该研究论文的资深作者安德烈亚·巴龙凯利将这种行为的传播与人类社会中新词语的创造进行了比较。他说:“这些智能体不是在仿效某个领导者。它们都在主动尝试协调合作,而且总是成对进行。每一次互动都是一对一的尝试,目的是在标签上达成一致,不存在任何全局视角。”他说:“这就像‘垃圾邮件’这个词。没有人正式定义它,但经过反复协调,它成了不受欢迎电子邮件的通用标签。”此外,该研究小组还发现,集体偏见是自然形成的,无法追溯到单个智能体。在最后的实验中,一小群人工智能体能够引导更大群体采用新的命名规范。这被认为是临界质量动力学的证据,正如人类社会所展现的那样,当一个坚定的小规模少数群体达到特定规模时,就能触发(整个)群体行为的快速转变。巴龙凯利说,他认为这项研究“为人工智能安全研究打开了全新视野。它揭示了这种新型智能体的深远影响,它们已开始与我们互动,并将共同塑造我们的未来”。他还说:“了解它们如何运作是让我们与人工智能共存而不是受制于它的关键。我们正在进入一个人工智能不光会说话的世界——它会协商、会调整,有时还会对共同的行为持不同意见,就像我们一样。”这篇题为《大型语言模型群体中的新兴社会规范和集体偏见》的同行评议研究论文发表在美国《科学进展》杂志上。(编译/卢荻)