据媒体报道的消息显示,当地时间12月8日晚间,欧盟就《人工智能法案》达成协议,表示将按照不同的风险类别为人工智能技术应用进行分类,从“不可接受”也就是必须禁止的技术,到高、中、低风险的人工智能等,通过识别不同风险进行监管。根据法案要求,对人类安全具有不可接受风险的人工智能系统将被禁止使用。虽然此举是规避人工智能发展漏洞,建立风险管理体系,但依照此前“碳排放”的相关协议,不少网友仍旧质疑该法案是“假禁真追”!
在该法案中,备受关注的“自动生成式人工智能”所建立的大模型,包括ChatGPT建立的模型,都需要遵守新的透明度要求。据称,该法案最早将于明年初生效。
网友的担心并不是没有道理,参考此前有关的碳排放协议,只有我国去按照标准减少碳排放,但对于制定该协议的欧盟国家却丝毫没有按照标准进行。而对于如今禁用的人工智能风险系统,或许也是当局假意禁止,而在背后悄悄发展,以应对未来的人工智能环境,催生新的网络攻击系统。
对此,我国还是应该形成自己的标准体系,以应对人工智能时代的发展和挑战。