在影视特效、直播互动、短视频创作等领域,视频抠像技术一直是刚需,但传统工具常因复杂背景干扰、细节丢失(如头发丝、透明物体边缘)等问题让创作者头疼。2025年2月,南洋理工大学与商汤科技联合推出的MatAnyone,以“首帧标注、全程追踪”的创新模式,实现了复杂场景下高精度、高稳定性的视频抠像,被业界称为“发丝级抠像神器”。
这项技术的核心突破在于:只需在视频第一帧标注目标对象(如人物、物体),AI即可全程自动跟踪并生成精准的透明背景(Alpha遮罩)。测试数据显示,MatAnyone在头发丝、衣物褶皱等细节处理上,精度比传统工具提升40%以上,且背景干扰误判率降低至3%以下。

1. 记忆传播:像人脑一样“记住”目标传统AI抠像常因视频帧间变化出现抖动或目标丢失,MatAnyone独创的“一致内存传播(CMP)”技术,通过模拟人类记忆机制,将前一帧的抠像结果与当前帧动态融合。例如,当人物转身时,系统会优先保留身体核心区域的稳定信息,同时根据头发飘动幅度调整边缘细节,实现“主体不抖、发丝清晰”。

2. 区域自适应:核心与边界的智慧分工MatAnyone将视频画面划分为核心区域(如身体)和边界区域(如头发),采用差异化处理策略:
核心区域:依赖历史帧数据保持稳定性,避免误判;边界区域:实时分析当前帧细节变化,确保半透明过渡自然。这种“分工协作”使它在处理人物与背景颜色相近(如白衣站在白墙前)时仍能精准抠像。
3. 数据与训练:用真实场景“喂”出强模型团队构建了VM800数据集,规模是行业常用数据集的两倍,涵盖电影、游戏、日常拍摄等多场景素材。通过“先学分割再练抠像”的多阶段训练法,模型既能理解物体语义(如区分人物与背景行人),又能捕捉发丝级透明细节。
落地应用:从影视大片到日常创作1. 影视工业化:告别绿幕时代传统绿幕拍摄成本高、限制多,而MatAnyone可直接处理实景拍摄素材。例如,在科幻电影中,演员在嘈杂街道上表演,后期只需标注首帧即可将人物抠出并合成到虚拟外星场景,节省70%特效制作时间。
2. 直播与会议:一键切换虚拟背景面对居家直播时杂乱的房间背景,MatAnyone可实时抠出人物并替换为虚拟演播厅。测试显示,即便背景有人走动或宠物闯入,系统仍能稳定锁定主播,边缘处理速度达每秒30帧。
3. 游戏与元宇宙:动态抠像激活交互游戏开发者利用MatAnyone将真人动作捕捉与虚拟角色融合。例如玩家跳舞时,系统实时抠出人体动作并驱动游戏角色,使《元宇宙舞力全开》等游戏的沉浸感大幅提升。
4. 大众创作:小白也能玩转高级特效短视频创作者用手机拍摄后,通过MatAnyone的“点击标注”功能,3步即可完成人物抠像与背景替换。网友实测,一段5秒的宠物抠像视频处理仅需10秒,且猫咪胡须清晰可见。
行业影响与未来展望MatAnyone的推出直接冲击了Adobe After Effects等传统工具的市场份额。第三方评测显示,其在复杂场景下的抠像效率比行业标杆工具快3倍,且硬件兼容性更强,甚至可在中端显卡上流畅运行。
未来,该技术或向更多领域延伸:
医疗影像:辅助医生从超声视频中精准分离病灶;自动驾驶:实时抠出道路障碍物,提升识别精度;文物保护:对古迹扫描视频进行细节修复。正如项目负责人周尚辰教授所言:“当AI既能理解语义,又能捕捉像素级变化时,虚拟与现实的边界将真正被打破。”这场始于视频抠像的技术进化,正在重塑数字内容生产的未来图景。
