人工智能(AI)应用再引争议。
据媒体报道,成都某慈善组织在其网络众筹募捐的页面中,使用了AI技术合成的照片,经民政部门调查核实后,随后进行了整改。
在接受媒体采访时,该慈善组织解释称,使用合成照片是为了保护受捐者隐私。但从媒体报道的诸多细节看,这一解释很难让人信服。
值得注意的是,在该募捐项目使用合成照片的场景中,合成照片与描述性文字形成了匹配对应关系。例如,一张媒体披露的截图显示,合成照片的下方有明确的详细描述文字,如“80多岁的周奶奶照顾瘫痪伴侣”等。
在合成照片没有明确标记的情况下,这种图片文字对应的呈现方式,极容易给读者制造误解。因此,这并非简单的不当使用合成照片的问题,而是存在利用合成照片对募捐者进行误导的嫌疑。
实际上,如果只是为了保护隐私,通过对真实照片进行一些技术处理也完全可以实现,而不必通过合成一个虚假人物特写的方式来进行。
因此,强烈的误导性暗示加上难以自圆其说的解释,使得公众很难不对该项募捐的真实性产生更深的怀疑。
从动机上看,提高传播效果是很多慈善募捐活动的重要元素。在慈善公益历史上,诸多成功的慈善案例也都依赖于大众传播。
例如,我国公益史上经典的“大眼睛女孩”案例,在成功打动公众的同时,也成功引发了社会对于女童助学问题的关注。
借助多种传播技术来提高慈善募捐活动的知名度,一直是很多慈善公益组织的核心运行目标。
如果对比其他公益组织、众筹平台的类似募捐项目,AI通过对经典特写照片的模仿训练生成的照片,质量明显要胜过普通人自行提供的照片。
低廉的生产成本,加上较高的图像质量,二者结合带来的传播效果提升,或许正是让该慈善组织不惜铤而走险,违背慈善真实性来使用合成照片的主要原因。
当前,通过AI对内容生产的效率与质量进行规模化提升,已经成为了很多有传播需求的个人、企业与组织广泛考虑采用的一种应用方案。
但比起商业海报、内容视频等正常应用,慈善公益应用AI作为传播效果提升工具,仍然需要极其慎重,甚至在没有形成明确规范和社会共识的当前情况下,应主动拒绝使用这一技术。
这是因为,真实性是公益慈善行业的生命线。一旦公益慈善的真实性存在任何瑕疵,不仅会引发公众质疑,还会对慈善行业乃至社会的整体公信力产生反噬作用。
慈善依托于公众互助的爱心,而公众爱心需要建立在真实基础上,其对真实性的要求,远高于普通行业。
而AI技术与虚假信息之间的关系与界限,在社会层面仍然没有得到妥善解决。因此,公众对于合成照片等新技术生成的内容始终存有较高顾虑。
换句话说,当人们看到AI生产的文章、照片、视频,都会本能地产生不真实、甚至是“被骗”的感觉。在此情况下,应用AI技术来提升慈善行业的效率,无疑是适得其反。
因此,在尚存争议的新技术面前,慈善或许应该跟进得更慢一些。在社会尚未对AI内容进行明确划分与规定之前,最好不要使用AI来生产相关素材。
如果必须使用,也应当做到全部公开透明,避免公众对AI技术本身的担忧,变成了对慈善行业的质疑,进而伤及社会公共利益。
来源:新京报评论
撰稿:马尔文
编辑:何睿
值班编辑:王可
-阅读推荐-
新京报元旦社论 都在盘点2023,任务交给你了……欢迎关注新京报传媒研究!
想和大家分享你的“传媒观点”吗?
投稿邮箱就在这里:
cmyj@bjnews.com.cn
投稿一经采用,有好礼相送呦!