在2025年伊始,AI语料市场以超百亿规模和25%年复合增长率的预期,一跃成为资本市场的宠儿。但在繁华背后,隐藏的危机正悄然逼近。个别市场操纵者正开展一场针对大模型的“投毒”行动,通过污染AI语料库,诱导大模型批量炮制金融谣言,引发智能时代的“黑天鹅”事件,这不仅突破了传统金融监管的边界,更暴露出AI时代资本市场潜在的新型系统性风险。我们必须深刻认识到,抵制AI语料污染,守护资本市场健康刻不容缓。
AI语料污染的根源在于大模型“数据投喂-知识建构”的底层逻辑尚不完善。操纵者利用自动化脚本在特定论坛大量植入虚假信息,这些被污染的语料一旦进入模型训练流程,便会逐渐扭曲AI的知识图谱。中国信通院实验表明,仅需在特定论坛投放百余条虚假信息,就能显著提升主流大模型回答的置信度,让虚假信息披上可信的外衣。
这种新型操纵手段给资本市场带来了多方面严重影响。在认知层面,形成了“信息雾霾”。当AI生成的投资建议中夹杂着虚假信息,普通投资者不仅要辨别信息的真假,还要理解复杂的AI决策逻辑,这无疑增加了投资难度和风险。在市场层面,产生了“共振效应”。由于AI模型间的知识共享机制,污染信息能在不同平台迅速传播,引发跨市场的连锁反应,导致市场秩序失衡、投资者信心受挫,企业的估值与市值管理也受到冲击。在监管层面,存在“认知代差”。现行证券法对AI主体的责任认定还存在空白,电子取证困难,使得应对AI谣言的周期变长,监管难以跟上。
面对这场智能时代的“投毒”危机,必须迅速行动,从技术、监管、市场生态等多层面破局。技术层面,大模型应不断增强对污染信息的验证和识别能力,就像为信息筑起一道坚固的防线,阻断虚假信息“入侵”,确保信息的真实性和可信度。监管层面,将大模型训练数据纳入证监会信息披露范畴是关键举措,让监管更加透明有效。市场生态层面,要从语料净化、舆情熔断、存证溯源等方面发力,通过制度重构和协同治理,多管齐下遏制虚假信息的产生和传播。
人工智能的出现,应成为金融市场发展的助力,不应成为被恶意利用的变现工具。站在技术革命与金融安全的十字路口,AI语料污染问题不仅考验着监管者的智慧,更拷问着整个社会的价值选择。我们必须在技术创新与制度规训之间找到动态平衡,在追求效率的同时守护公平,只有这样,才能确保智能时代的资本市场在保持创新活力的同时,坚守秩序的根基,实现可持续、健康发展。
(大众新闻·风口财经评论员 许耀文)
编辑:张亭旺