AIGC技术目前的问题

米言看科技 2024-04-19 02:51:36
AIGC 技术不断升级,进一步释放内容生产力,但其在人工智能关键技术方面尚存在局限,掣肘产业发展进程。 人工智能算法存在固有缺陷。人工智能算法在透明度、鲁棒性、偏见与歧视方面存在尚未克服的技术局限,导致算法应用问题重重。在透明度方面,由于算法模型的黑箱运作机制,其运行规律和因果逻辑并不会显而易见的摆在研发者面前。这一特性使人工智能算法的生成机理不易被人类理解和解释,一旦算法出现错误,透明度不足无疑将阻碍外部观察者的纠偏除误。 在鲁棒性方面,算法运行容易受到数据、模型、训练方法等因素干扰,出现非鲁棒特征。例如,当训练数据量不足的情况下,在特定数据集上测试性能良好的算法很可能被少量随机噪声的轻微扰动影响,从而导致模型给出错误的结论;在算法投入应用之后,随着在线数据内容的更新,算法很可能会产生系统性能上的偏差,进而引发系统的失灵。 在偏见与歧视方面,算法以数据为原料,如果初始使用的是有偏见的数据,这些偏见可能会随着时间流逝一直存在,无形中影响着算法运行结果,最终导致 AI 算法生成的内容存在偏见或歧视,引发用户对于算法的公平性争议。 AIGC 内容编辑与创作技术不够完善。人工智能技术加持的内容编辑与创作技术仍然受短板制约,导致产业发展存在技术门槛。文本生成方面,企业在自然语言理解技术上存在瓶颈,往往只简单地套用模板生成机械化的填充,导致文本结构雷同、千篇一律,而且难以真正产出感性的、拟人的表达,背离用户对于文本合成产品的易读化、优质化期待。 语音合成方面,语音表达不够流畅、声音机械感较强等问题突出。语音的情感嵌入需要大规模的数据量支持训练,并且对于建模的要求非常高,由此导致使用复杂度提升,也使得相应的成本难以控制,制约企业释放技术价值。 视觉生成方面,存在智能图像的处理效果不够理想,实时动作捕捉精准度不足等问题。在应用中,由于视觉大模型同时完成多种视觉感知任务的能力不足,机器视觉的精准度、还原度、仿真度不能周全,需要后期人工标注,因而技术门槛高、制作效率低的问题没有得到很好解决。 企业核心能力参差不齐,威胁网络内容生态健康安全发展。随着数字技术的开源开放,AIGC 技术研发门槛、制作成本等不断降低,致使市场上的平台企业泥沙俱下,企业核心能力不足对良好网络生态构建造成严重障碍。一是内容审核能力有待提升。近年来,各 AIGC企业通过建立内容审核机制的方式落实互联网内容治理主体责任,“机审+人审”已成为其基本审核方式。在机审方面,审核准确率受审核类型、内容违规变种繁杂、网络黑灰产对抗手段加剧等影响而导致误报率偏高,需要人工叠加审核。在人审方面,使用人审外包服务已经成为市场主流,但不同的人审团队在人员管理、业务流程管理、审核能力等方面表现各异,行业内也未形成统一的标准。总体而言,缺乏合格的审核人员可能会导致包含虚假、不良信息的违法违规内容流出,严重影响产业甚至整个网络生态环境。 企业技术管理能力建设不足。由于 AIGC 技术愈发复杂,且在企业中的运用往往具有高动态性等特点,要求企业作为技术设计者和服务提供者具备相应的技术管理能力。然而,企业具有商业属性,这就决定了在资源有限的情况下其往往倾向于首先满足自身利益,而对技术安全和制度保障投入不足。在这方面,各企业的差距十分明显。投资积累“家底”厚、发展时间长的企业,就更有可能技术防护和管理水平较好,反之不然。诸多初入市场的小型企业在技术管理能力不达标的情况将 AIGC 投入应用,为抄袭侵权、内容造假、恶意营销等灰黑产业链提供温床。 企业风险治理能力尚未完善。《关于加强互联网信息服务算法综合治理的指导意见》明确提出强化企业主体责任。企业应构建完善的人工智能管理能力,切实防范人工智能发展过程中的各项风险。但是,当前 AIGC 技术仍处于发展初期,其风险具有未知性和复杂性等特点,很多企业对于对风险的预测、防范和应急处置能力均尚未完善,风险治理理念也未落实到工程技术实践中。这一问题导致企业很可能错失把风险拦截在萌芽状态的机会,在复杂的网络安全博弈中处于被动,一旦遭受内部威胁或外部攻击,极易引发网络信息内容生态安全风险。 相关规范指引尚需完善。近年来,人工智能产业规范指引不断推出,治理体系初显格局,但随着科技进步加快,制度建设亦步亦趋也未必严丝合缝,这又引发了技术创新发展与政策支持、法律规制的匹配问题。一是产业发展需落实支持政策。2021 年 3 月,我国十四五规划纲要出台,提出“打造数字经济新优势”的建设方针并强调了人工智能等新兴数字产业在提高国家竞争力上的重要价值。在规划纲要的指引下,面对人工智能生成内容关联产业——尤其是数字文化产业的迅速发展,中央政府相继出台了多项政策推动发展数字文化产业新型业态。2022 年 5 月,最新出台的《关于推进实施国家文化数字化战略的意见》,要求研究制定扶持文化数字化建设的产业政策,强调各地要因地制宜制定具体实施方案,相关部门要细化政策措施。未来,各地、各部门政策的支持力度、推进落实和动态调整情况将决定着技术与社会的相互建构程度,将对 AIGC 技术在社会情境中的发展起到重要作用。 AIGC 可版权性有待厘清。当前,我国《著作权法》中规定,著作权的指向对象为“作品”。仅从法律文本来看,我国现行知识产权法律体系均规定法律主体为享有权利、负有义务和承担责任的人,因此非人生产的智能化内容难以通过“作品—创作—作者”的逻辑获得著作权的保护8,这一观点获得了2019 年北京互联网法院的判决支持。而在 2020 年腾讯公司诉网贷之家网站转载机器人自动撰写的文章作品一案中,深圳南山区法院认为在满足独创性要求的情况下,人工智能撰写的文章属于著作权保护的作品。法律概念的模糊引发司法裁判的翻转,导致 AIGC 作品存在着著作权归属不清的现实困境。这一问题不仅可能导致使用 AIGC 技术-中华人民共和国国家互联网信息办公室:“人工智能生成内容的著作权”,http://www.cac.gov.cn/2019-08/21/c_1124902661.htm. 创作的作品无法获得著作权保护,阻碍人工智能技术发挥其创作价值,还有可能因人工智能的海量摹写行为稀释既有作品权利人的独创性,威胁他人的合法权益。 新技术增加监管难度。近年来,随着人工智能技术不断成熟,机器深度学习后生成的内容愈发逼真,能够达到“以假乱真”的效果。相应地,应用门槛也在不断降低,人人都能轻松实现“换脸”、“变声”,甚至成为“网络水军”中的一员。由于契合民众“眼见为实”的认知共性,技术滥用后很可能使造假内容以高度可信的方式通过互联网即时触达用户,导致公众在观念博弈中判断失灵,难以甄别水军和虚假信息。而这又牵涉到一个现实的难题,那就是由于互联网提供的虚拟身份外衣和相关技术的发展,造假内容生产者具有分散性、流动性、大规模性和隐蔽性的特点,导致追踪难度和复杂性与日俱增,再加上规范指引的模糊和滞后,对于那些擦边球性质的造假行为存在难以界定的现实困境,这无疑对内容监管行动造成了严重阻碍。
0 阅读:0

米言看科技

简介:感谢大家的关注