联发科创新基地(MediaTekResearch)于2月19日发布了两款支持繁体中文的轻量级多模态模型,分别是适用于手机的Llama-Breeze2-3B模型和适用于轻薄笔记本电脑的Llama-Breeze2-8B模型。这些模型基于MetaLlama3.2语言模型构建,主要特点是其在繁体中文处理方面的卓越性能,同时支持多种输入方式和功能调用,并且具备图像识别能力。
根据联发科提供的数据显示,在与参数相同的Llama3.23BInstruct模型进行对比测试时,Llama-Breeze2-3B在撰写关于台北夜市的小短文时,能够准确地列出士林夜市、饶河街夜市和罗东夜市等当地知名夜市,而Llama3.23BInstruct模型仅能正确提及士林夜市并生成两个不存在的夜市。此外,联发科还基于Llama-Breeze2-3B开发了一款安卓AI助理App,并推出一款AI文字转语音模型BreezyVoice。
这款AI文字转语音模型可以在输入5秒示例音频后实时生成逼真的语音输出。这意味着用户只需输入一段声音示例,就能立刻获得高质量的语音输出结果。这将为用户提供更加便捷和精确的声音服务。
总之,联发科研发的这两款轻量级多模态模型在繁体中文处理方面表现出色,为用户提供了更好的使用体验。随着技术不断发展,我们可以期待联发科在未来推出更多先进的技术产品来满足用户不断增长的需求。