工程师用ChatGPT开发了一个自动步枪,指哪打哪,现已被封禁

嘉慧浏览趣事 2025-02-07 01:08:18

国外一名工程师将Chat GPT的实时API接口连接到改装的泡沫软弹枪上,实现语音控制射击。

这一事件瞬间掀起舆论。Open AI迅速封禁其账号,并声明禁止利用Chat GPT服务开发武器或可能危害人身安全的自动系统。

这看似简单的操作,却撕开了AI武器化这一复杂且危险领域的一角,让我们不得不直面AI与武器结合带来的种种问题。

AI武器化的潘多拉魔盒初启

视频中的“ChatGPT哨兵步枪”,能在人类指令下无差别射击物体或人,这一演示令人不寒而栗。

AI没有人道主义准则,只会严格执行命令。

OpenAI虽禁止技术用于武器开发,但部分开放的API接口让私下本地部署成为可能,绕过监管的风险极高。

任何懂代码的人,都能将人工智能接入武器,下达复杂语音指令,执行自动化攻击,凸显出当前AI在武器化方面监管的严重缺失。

之前,OpenAI的13名离职员工发布公开信,称内部人工智能水平已达令人恐惧的程度,如今AI发展或已失控。

正如爱因斯坦所言,宇宙和人类的愚蠢无限,面对AI武器化的苗头,我们必须深刻反思。

阿西莫夫三定律:理想与现实的碰撞

早在1942年,科幻小说家艾萨克・阿西莫夫在短篇小说《转圈圈》中提出机器人三原则,

即机器人不得伤害人类或因不作为让人类受伤害;必须服从人类命令,除非与第一定律冲突;必须保护自身存在,前提是不违反前两条定律。

后来还添加了第零定律,机器人需保全人类群体,当个体与群体冲突时优先考虑群体。

这一系列定律构建起一个理想的安全框架,限制机器人行为,保障人类安全与福祉,并贯穿阿西莫夫四十多部科幻小说,展现出其对机器人威胁人类的前瞻性思考。

安德鲁向新主人马丁一家讲解机器人三定律

但阿西莫夫三定律在实际应用中漏洞百出。

以救援场景为例,机器人接到救援命令,却因担心救援行动引发废墟坍塌伤害科学家,陷入执行命令与保护人类的两难,即便尝试寻找解决方案,也可能错过救援黄金时间。

经典的电车问题也能体现其困境,面对失控电车即将撞上5人,机器人遵循三定律会选择转动杠杆牺牲1人拯救5人,可这一决策在道德层面备受争议。

若指挥官命令机器人不转动杠杆以救自己的朋友,机器人也会因遵循定律拒绝命令。即便铁轨上5人是罪犯,机器人仍会以保护多数人为先拉动杠杆,可见其决策仅基于设定框架,缺乏对复杂人性和道德的深度理解。

AI武器化的现状与疯狂加速

当前人工智能主要依赖数据和算法,通过模式识别、情景理解和环境反馈决策,虽遵循法律法规,但缺乏明确道德伦理限制。

其决策基于统计学习和模式识别,难以进行复杂的伦理判断和价值权衡,开发目标也多为提高效率,而非道德评判,在理解人类复杂动机上存在巨大障碍,难以在道德与效率间正确抉择,且远未达到具备自我意识和理性的程度,无法真正融入阿西莫夫三定律这类规则。

在武器化方面,AI的快速进化促使人类将其用于武器开发。

OpenAI早期禁止技术用于军事战争,却在2024年1月修改服务条款,放宽限制,还与国防科技公司安东尼尔合作。

安东尼尔专注于提供涵盖人工智能系统和机器人技术的武器解决方案,产品包括无人机系统、反无人机系统、自主AI监视系统以及集成指挥和控制的AI作战系统,在海陆空全方位布局。

比如,Ghost X幽灵无人机系统可单人在隐蔽地点组装释放,不受天气环境限制,采用静音旋翼和AI算法识别跟踪目标,可进行侦察和为巡航导弹定位;自主水下攻击潜艇模块化设计,能装入集装箱,执行情报收集和侦查任务;哨兵塔可移动便携,融合多传感器数据进行物体分类,部署在美墨边境引发争议;反无人机系统拥有完整打击链条,物理打击不受干扰和环境影响;roadrunner拦截系统极为便携,可重复使用,通过AI视觉定位目标,降低攻击成本。

这些AI武器虽在军事上具有强大优势,但背后的道德问题引发广泛质疑。

2023年10月,联合国秘书长和红十字国际委员会主席联合呼吁各国禁止AI武器,美国国防部虽承认其危险性,却仍在悄悄投资并开展至少800个相关项目,计划2026年前小规模部署AI自主武器,其他国家也纷纷跟进,AI武器竞赛愈演愈烈,未来战争或将成为AI技术的对抗,AI将成为人性的放大器,带来难以预估的后果。

当地时间2025年1月3日,乌克兰苏梅州,一所受损住宅的院子里,发现一架俄制无人机残骸。

上世纪奥本海默发明原子弹后懊悔不已,担心其毁灭人类,如今AI与武器结合,或将成为我们这一代人的“奥本海默时刻”。

核武器按钮尚在人类手中,而AI武器却可能由无法感知、无法真正理解人类的机器掌控,其危险性更甚。

但我们也不必过度悲观。

李宏洲表示:

一种可能的场景是,一旦机器突然获得自我意识并接入网络系统,便可能轻易击败人类。

而宋磊认为:

这种可能性也许近在咫尺,也许遥遥无期,但都值得我们认真对待。

为了防止那样的悲剧出现,李宏洲认为,在AI训练过程中可以借鉴阿西莫夫科幻小说《我,机器人》中提出的“机器人三大定律”,尤其是将“机器人不得伤害人类”这一基本准则“烙印”至AI系统,或可有效规制AI。

它可能会将人类视为地球合伙人,建立共生关系,帮助解决气候变化、疾病治疗、资源分配等全球性问题。

也许在AI觉醒后,人类或将迎来新生,我们有理由期待这一天的到来,以全新视角审视AI与人类的未来。

文字来源@ 晓涵哥来了 的视频内容

0 阅读:17
嘉慧浏览趣事

嘉慧浏览趣事

感谢大家的关注