近日,奇富科技智能语音团队论文《Qifusion-Net:基于特征融合的流式/非流式端到端语音识别框架》(Qifusion-Net: Layer-adapted Stream/Non-stream Model for End-to-End Multi-Accent Speech Recognition)被全球语音与声学顶级会议INTERSPEECH 2024收录。这是继去年《Eden-TTS:一种简单高效的非自回归“端到端可微分”神经网络的语音合成架构》论文之后的又一国际认可,也是对奇富科技在语音信号领域技术实力的有力证明。
INTERSPEECH,由国际语音通讯协会(International Speech Communication Association, ISCA)创办,是语音处理领域的顶级旗舰国际会议。作为全球最大的综合性语音处理领域的科技盛会,历届INTERSPEECH会议都备受全球各地语音语言领域人士的广泛关注。本届会议以“Speech and Beyond”为主题,内容涵盖语音识别、语音合成、语音编码、语音增强、自然语言处理等多个领域。奇富科技智能语音团队将受邀参与9月INTERSPEECH 2024科技盛会并发表主题报告,进一步分享其在语音识别领域的创新成果,与全球同行共探语音科技的未来。
“百里不同俗,十里不同音”,我国幅员辽阔,方言种类丰富,方言的语法和语音特征差异显著,加之噪声干扰、方言混杂、主观感知的标注问题,以及人力标注工作的庞大和系统性不足,导致语音识别技术的准确性和智能化水平受限。特别是在金融业务场景中,市面上的通用语音识别技术在应对方言时常常表现不佳,导致人机交互的准确性和智能性大打折扣,服务效率和质量受损。
为此,奇富科技引入全自研Qifusion框架模型,并将其集成到智能营销及贷后提醒等业务场景中,不仅能够有效地解决上述难题,还在识别准确率上得到大幅提升。在复杂的通话环境中,语音识别综合准确率达到了93%以上,意图识别准确率超过95%,在业界处于领先水平。
相较于其他语音识别框架,Qifusion框架模型具有以下特点:
1.方言种类更丰富:
凭借自身在贷后场景及方言领域的丰富数据样本,Qifusion框架模型在原有东北官话、胶辽官话、北京官话、冀鲁官话、中原官话、江淮官话、兰银官话和西南官话等国内八种主流方言的基础上,精准强化了四川、重庆、山东、河南、贵州、广东、吉林、辽宁、黑龙江等用户密集地区的方言识别能力。这使得平均识别准确率相对提升了25%,尤其在川渝地区,方言识别准确率相对提升超35%。
2.方言识别更精准:
Qifusion框架模型具备自动识别不同口音的能力,并能在时间维度上对解码结果进行口音信息修正,使方言口音的语音识别误差率降低了30%以上,整体语音识别字错率降低了16%以上,显著提升了用户体验。此外,在业内知名的Kespeech 开源方言数据集性能对比测试中,Qifusion字错率刷新模型最低值,达到国内顶尖水平。
3.方言识别更高效:
Qifusion框架采用了创新的层自适应融合结构,能通过共享信息编码模块,更高效的提取方言信息。同时,该框架模型还支持即说即译功能,能在无需知晓额外方言信息的前提下,对不同方言口音的音频进行实时解码,实现精准的识别和转译。这使得Qifusion框架在业务场景中能够迅速准确地捕捉并响应用户需求。
奇富科技以"持续创新"为核心理念,致力于人工智能语音领域的深入研究和自主研发。公司不仅在INTERSPEECH这一国际顶级语音学术会议上取得了显著成就,更在IEEE声学、语音与信号处理国际会议上发表了多篇论文,如《基于多粒度Transformer的多模态情绪识别》、《基于SE模块和多尺度特征学习的语音情感识别》等,为全球智能语音技术的发展贡献了中国智慧。