VideoMind:Chain-of-LoRA突破时间盲区让AI真正看懂长视频

deephub 2025-04-01 09:59:15

视频作为一种富含信息且密集的媒介,已广泛应用于娱乐、社交媒体、安全监控和自动驾驶等领域。人类能够轻松理解视频内容,例如理解因果关系、定位特定时刻以及关联动作。

但是人工智能,尤其是大型语言模型(LLM)及其多模态(MLLM)变体,在视频理解方面仍然面临挑战,尤其是在处理长视频时。尽管像 GPT-4V 或 Claude 这样的模型可以详细描述图像或短片,但在需要根据长序列中特定时间间隔推断事件时,它们往往表现不佳。它们虽然可以提供笼统的总结,但难以精确定位事件发生的时刻,或理解事件之间的因果关系。标准的 Chain-of-Thought (CoT) 技术在基于文本的推理中表现出色,但在需要将“思考”与精确时间相关联的视觉证据时,会遇到困难。

视频不仅仅是一系列静态图像,它还包含一个至关重要的时间维度。理解视频不仅需要识别“正在发生什么”,还需要识别“何时发生”、“持续多久”以及“与什么相关”。当前的 MLLM 通常通过抽样帧来处理视频,这可能会错过关键时刻或难以在较长时间内保持上下文。它们缺乏一种强大的时间定位机制,无法将推理和答案明确地链接回视频中特定的、可验证的时间段。

图 1:VideoMind 的 Chain-of-LoRA 推理策略应用于一个 50 分钟长视频的复杂问题。问题由 Planner 分解,并分发给 Grounder、Verifier 和 Answerer,以系统地定位、验证和解释相关的视频时刻。与纯文本 CoT 过程相比,这种基于角色的管道能够实现更像人类的视频推理。

VideoMind 是一种专为应对长视频中时间定位理解挑战而设计的新型视频语言代理。它不仅“观看”视频,还“分析”视频,采用一种结合了专门角色和名为 Chain-of-LoRA 的创新技术的策略。

本文将深入探讨 VideoMind,分析其克服的局限性,剖析其独特的代理工作流程,揭示 Chain-of-LoRA 机制,介绍其采用的专业 AI“角色”,评估其性能,并讨论其对 AI 发展的更广泛影响。

时间盲点:长视频为何使 AI 模型失效

试图通过观看随机快照或阅读没有提及关键事件发生时间的文本摘要来理解复杂电影的情节,可能会导致对情节的模糊理解,并错过细微之处和因果关系。这类似于当前许多 AI 模型在处理长视频时遇到的困难。

以下是导致这种“时间盲点”的核心挑战:

数据量巨大: 长视频包含大量信息,处理每一帧在计算上是不可行的。模型通常采用抽样帧的方法,但这可能会错过关键事件,例如体育比赛中快速的动作或改变对话含义的表情。

长程上下文维护: Transformer 架构是大多数 LLM/MLLM 的基础,但在处理极长序列时存在局限性,因为计算复杂度高。尽管稀疏注意力和线性 Transformer 等技术有所帮助,但在几十分钟或几小时内保持精确的时间关系和依赖性仍然困难。模型可能会忘记之前发生的事情,或难以将相隔很长时间的事件联系起来。

精确对齐需求: 与回答整个图像相关的图像问答不同,视频问答通常需要精确定位事件发生的时间。例如,对于问题“这个人什么时候踩到香蕉皮滑倒的?”,笼统的答案“这个人摔倒了”是不够的,答案需要与特定的时间戳或时间间隔对齐。

文本 CoT 的局限性: Chain-of-Thought 推理可以帮助 LLM 逐步分解复杂的问题。将其直接应用于视频通常会导致一个纯粹的文本推理链,而该链并没有明确地链接回时间上的视觉证据。模型可能推断出兔子聚集在一起的原因,但难以说明“我得出这个结论是因为我观察到男孩在 [X, Y] 时间段分发食物”,因为它缺乏可靠地找到该时间段的机制。

模糊性和细微差别: 视频通常包含多个类似事件的发生,或需要仔细观察才能正确解释的事件。模型可能会找到兔子聚集的一个时刻,但它是否是用户询问的相关时刻?这需要不仅找到潜在的时刻,还要验证它们的关联性和准确性。

这些挑战表明,简单地扩大现有 MLLM 的规模或应用标准的推理技术,对于需要深入的时间定位的视频理解任务来说,通常会产生不理想的结果。因此,需要一种从根本上不同的方法,明确地处理时间维度,并模仿人类使用的分析过程。

VideoMind:一种模仿人类视频理解的 AI 代理

VideoMind 采用一种具有四个不同角色的代理工作流程来实现视频理解:

Planner(计划者): 协调员,负责分析用户查询,并确定回答查询的最佳行动顺序,以有效地回答问题。

Grounder(定位器): 时间定位器,负责根据文本描述(由 Planner 或原始查询提供)精确地定位视频中的相关时刻或时间间隔。

Verifier(验证器): 事实核查员,负责获取 Grounder 识别出的候选时刻,并仔细检查它们,以确认它们的准确性和相关性。

Answerer(回答者): 沟通者,基于经过验证的证据(特定的视频片段),生成对用户问题的最终答案。

图 2:VideoMind 的整体工作流程。给定一个视频和一个查询,VideoMind 自适应地激活不同的角色(在本例中为 Planner → Grounder → Verifier → Answerer),并通过调用各个模块执行逐步推理。

这种基于角色的方法允许每个组件高度专业化,并针对其特定的子任务进行优化。Planner 确保灵活性,根据查询的性质调整工作流程。Grounder 专注于时间定位,而 Verifier 则专注于准确性检查。

VideoMind 的核心创新在于 Chain-of-LoRA,它能够在没有运行四个独立的、大型 AI 模型开销的情况下高效地实现这些角色的协作。

Chain-of-LoRA:技术详解

Chain-of-LoRA 采用类似于多功能工具的 AI 模型原理。它使用一个可以接受各种轻量级附件的单一多功能手柄,而不是携带一个装满笨重工具的工具箱。

LoRA 简介

LoRA(Low-Rank Adaptation,低秩适应)是一种用于微调大型预训练模型(如 LLM 或 MLLM)的技术。LoRA 不是重新训练模型中所有参数,而是在原始模型的特定层(通常是注意力层)中注入少量新的、可训练的参数,这些参数采用低秩矩阵的形式。原始模型权重保持冻结,仅更新这些小的 LoRA 适配器。这降低了计算成本、缩短了训练时间,并减少了存储需求。

Chain-of-LoRA 详解

VideoMind 利用 LoRA 的效率,并为其代理工作流程中的不同角色(Planner、Grounder、Verifier)训练单独的适配器。所有这些角色都在同一个基础 MLLM 上运行(在论文的实现中,具体来说是 Qwen2-VL)。

以下是 Chain-of-LoRA 在推理期间的工作方式:

基础模型: VideoMind 从预训练的 Qwen2-VL 模型开始。

角色激活: 当需要特定角色时(由 Planner 确定),其相应的预训练 LoRA 适配器会被动态“激活”或“插入”到基础模型的层中。

专业处理: 基础模型现在由活动角色的 LoRA 适配器增强,执行该角色的专业功能(例如,Grounder LoRA 帮助模型专注于时间定位)。

角色切换: 当工作流程需要下一个角色时,先前的 LoRA 适配器会被停用,而新角色的适配器会被激活。这种切换是无缝的,并且计算成本很低。

执行链: 这种动态激活和切换会按照计划继续进行,形成“Chain-of-LoRA”执行流程。

Chain-of-LoRA 的优势

效率: 避免了为每个角色加载和运行多个不同的大型模型的计算和内存开销,以最少的额外参数实现了功能专业化。消融研究表明,Chain-of-LoRA 以与单个基础模型相同的低内存占用(4.2G)实现了最佳性能,而使用单独模型的分布式方法需要更多的内存(16.6G)。

灵活性: Planner 可以根据查询动态地以不同的顺序链接角色,从而动态地调整推理过程。

有效性: 允许使用其专门的 LoRA 适配器微调每个角色,优化每个子任务(计划、定位、验证)的性能,而不是试图让单个模型同时完成所有任务或仅仅依赖于文本 CoT。

极简主义: 通过巧妙地调整单个核心模型来实现复杂的行为。

Chain-of-LoRA 是架构支柱,它以高效和有效的方式实现了 VideoMind 复杂的、多步骤推理过程。它有力地证明了轻量级自适应技术如何能够释放大型模型中复杂的代理行为。

VideoMind 的角色详解

下面将更仔细地了解 VideoMind 代理中的每个专业角色。

图 3:VideoMind 工作流程的可视化。Planner 首先确定对函数调用的需求,并使用 Grounder 生成多个候选时刻。然后,它应用 Verifier 来选择最相关的视频片段(以黄色突出显示)。放大后,该片段将传递给 Answerer。通过链接 Grounder、Verifier 和 Answerer 角色,VideoMind 可以准确定位关键时刻并选择正确的答案,从而避免了来自不正确片段的混淆(红色框)。

Planner(计划者):协调分析

充当中央协调员,理解用户的查询,并通过决定调用哪些角色以及以什么顺序调用来制定最佳执行计划。

工作方式:

将视频和用户的文本查询作为输入。

分析查询以确定所需的功能,例如是否需要定位或验证。

输出一个计划,该计划被制定为 JSON 动作列表。该论文确定了三个主要计划:

[Grounder, Verifier, Answerer]:对于在回答之前需要精确定位和验证的复杂查询(例如,“当婴儿哭泣时,男孩在做什么?”)。

[Grounder, Verifier]:对于答案是时间戳的时刻检索任务(例如,“女人什么时候下楼?”)。

[Answerer]:对于不需要特定时刻定位的简单问题(例如,“总结此视频”)。

查询改写: 如果原始查询含糊不清或缺乏有效定位的细节,Planner 可以将其改写为更适合 Grounder 的描述性查询。这是使用 GPT-40 mini 训练的,以生成查询改写对。

训练: 使用其特定的 Planner LoRA 适配器进行微调,使用从 NExT-QA 和 QVHighlights 等数据集中重新利用的数据,将问题映射到适当的计划和潜在的改写。

Grounder(定位器):精确定位时间点

核心时间定位引擎,给定文本描述(查询),识别视频中相应事件的开始和结束时间戳。

工作方式(技术细节):

时间戳解码器头: 一个自定义解码器头构建在基础 MLLM 功能之上,不依赖于 LLM 的文本生成功能来获取时间戳。

特殊 Token : 引入了一个特殊 token ,当 LLM 生成此 token 时,它会发出执行定位的信号。

特征提取: 与  token(表示查询)和视觉 token(表示视频帧)关联的隐藏状态从 MLLM 的最后一层提取。

时间特征金字塔: 视觉特征通过 1D 卷积金字塔处理,以捕获多个时间分辨率的信息,创建视频时间动态的多尺度表示。

集成与解码: 查询特征和多尺度视频特征(以及模态和位置嵌入)被馈送到 Transformer 解码器中。

密集预测头: 两个头对输出进行操作:

分类头: 预测帧级别置信度分数(此帧是否在目标时刻内?),使用二元焦点损失进行优化。

回归头: 预测从每帧到目标时刻的开始和结束边界的偏移量,使用 L1 损失进行优化。

对比损失: 鼓励在目标时刻内的帧的特征比在时刻外的帧的特征更类似于查询特征,从而改善对齐。

训练: Grounder LoRA 适配器和时间戳解码器在各种时间定位数据集(QVHighlights、DiDeMo、TACOS 等)的集合上一起训练。

图 4:VideoMind 的监督微调数据集。计划数据集是从 NExT-QA 和 QVHighlights 重新利用的。验证数据集是从预训练的 Grounder 的预测生成的。mr 和 step 分别表示 HiREST 的时刻检索和步骤定位子集。

采用这种方法的原因: 与依赖于可能脆弱的时间戳字符串的文本生成相比,直接从丰富的视觉和查询特征解码时间戳可以实现更精确和鲁棒的定位。多尺度金字塔有助于处理不同持续时间的事件。

Verifier(验证器):通过仔细观察确保准确性

充当质量控制步骤,评估 Grounder 提出的候选时刻,并选择最准确和相关的时刻。

工作方式:

Top-N 候选: 接收来自 Grounder 的前 N 个候选时刻。

通过放大进行回顾: 对于每个候选时刻:

扩展: 时间边界略有扩展。

裁剪: 视频在时间上被裁剪为此扩展的片段。

提高分辨率: 可能会提高此裁剪片段中帧的空间分辨率。

这种“放大”使 Verifier 能够以更高的保真度和更多的周围上下文检查关键时刻。

布尔判断: 放大后的视频片段和原始查询被馈送到 Verifier,要求它判断此片段是否完美地覆盖查询的时刻。特殊 token(<SEG_START>、<SEG_END>)被插入到视觉 token 序列中,以明确标记扩展片段中原始提议的边界,从而增强边界意识。Verifier 输出“是”或“否”。

评分和选择: 该模型计算生成  token (Ly) 和  token (Ln) 的可能性。候选者的置信度分数为 Sigmoid(Ly — Ln)。选择具有最高置信度分数的候选时刻作为最终定位的时刻。

训练: Verifier LoRA 在通过获取 Grounder 在其训练集上的预测并根据它们与真实时间戳的 Intersection-over-Union (IoU) 将它们标记为“是”或“否”来生成的数据上进行微调。

图 5:Grounder 生成多个候选时刻,然后通过应用放大策略并由 Verifier 评估来优化这些时刻,以选择最佳时刻。

Answerer(回答者):传达发现

生成对原始查询的最终答案。

工作方式:

接收由 Verifier 识别的经过验证的视频片段(如果 Planner 确定不需要定位,则接收整个视频)。

接收原始用户查询。

直接使用基础预训练的 MLLM (Qwen2-VL),没有任何特定的 Answerer LoRA 或进一步的微调。

根据提供的视觉证据生成自然语言答案。

没有 LoRA 的原因: 假设是,当提供正确的视觉上下文时,基础 MLLM 已经非常擅长问答。其他角色解决的关键挑战是查找和验证该上下文。

通过 Chain-of-LoRA 机制结合这些专业角色,VideoMind 实现了一个复杂的推理过程,该过程直接解决了长视频中时间定位的挑战。

VideoMind 的性能评估

VideoMind 研究人员在 14 个不同的公共基准上进行了实验,涵盖了视频理解任务的三个主要类别:

Grounded Video Question-Answering (Grounded VideoQA): 需要回答问题并提供特定时间间隔作为证据的任务。

Video Temporal Grounding (VTG): 专注于定位文本查询描述的时刻的任务。

General Video Question-Answering (General VideoQA): 标准视频 QA 任务,通常在较长的视频上进行,其中时间理解仍然有益。

实验结果表明:

最先进的性能: VideoMind 在所有三个类别中的众多基准上都实现了 SOTA 结果。

在长视频定位中的优势: 在具有挑战性的长视频定位 QA 基准(如 CG-Bench)上,VideoMind 明显优于以前的开源模型。值得注意的是,VideoMind 的 7B 参数版本超过了更大的闭源 GPT-4o 的定位性能,甚至轻量级 2B VideoMind 模型在定位指标方面也与许多更大的模型具有竞争力或更好。

图 6:CG-Bench 上的 Grounded VideoQA。尽管尺寸较小,但 VideoMind 在这个具有挑战性的长视频基准上超过了 GPT-4o 和开源基线。

强大的泛化能力: 在 ReXTime 上,VideoMind 展示了出色的零样本性能,优于其他零样本模型,甚至超过了已在该任务上进行微调的几个模型。

图 7:ReXTime 上的 Grounded VideoQA。FT 表示是否在下游训练集上进行了微调。VideoMind 展示了强大的泛化能力;其零样本分数优于所有零样本基线,并超过了微调变体。

零样本时间定位能力: 当仅在时间定位任务上进行评估时,VideoMind 的 Grounder 和 Verifier 组合实现了令人印象深刻的零样本结果,超过了许多基于 LLM 的专用定位方法,并且接近在这些数据集上明确微调的专家的性能。

图 8:CharadesSTA 上的零样本视频时间定位。VideoMind 明显优于同类产品。

图 9:ActivityNetCaptions 上的零样本视频时间定位。VideoMind 优于基于 LLM 的方法。

提升通用 VideoQA: 即使在通用 VideoQA 基准上,与其他 MLLM 相比,VideoMind 也表现出卓越的性能。

图 10:Video-MME、MLVU 和 LVBench 上的 VideoQA。VideoMind 在长视频上表现出卓越的性能。

效率验证: 消融研究证实,Chain-of-LoRA 方法在提供最佳性能的同时,还具有很高的内存效率,明显优于朴素 CoT 或在单个模型上的标准多任务训练,并且与更重的分布式模型设置的性能相匹配。

图 11:用于研究具有不同角色集成的测试时间策略的关键消融,包括基础模型、使用文本 CoT 的版本以及集成多个角色的三种实现。Mem. 表示 GPU 内存使用情况。值得注意的是,Chain-ofLoRA 以最小的内存成本实现了最佳性能。

这些结果表明,VideoMind 的代理工作流程和 Chain-of-LoRA 策略对于解决视频中时间推理的细微差别非常有效,尤其是在以前的模型难以处理的长时间内。

技术细节时间戳解码器

输入: 采用  token (hr) 的 1 x D 维隐藏状态和帧 token (hv,在 1D 池化到 T x DL 之后) 的 T x D 维隐藏状态。

投影: 线性层 Er 和 Ev 将这些投影到维度 D。

集成 Transformer: 在将可学习的模态嵌入 (mr, mv) 和正弦位置编码 (ep) 添加到帧嵌入后,将投影的查询嵌入 (er) 和帧嵌入 (ev) 连接起来。此组合序列 [ev + mv + ep; er + mr] 通过标准 Transformer 编码器馈送。

时间特征金字塔: 输出帧嵌入 (e’v) 通过并行 Conv1D-LayerNorm-SiLU 块传递。每个级别应用步幅为 2 的卷积,有效地将时间分辨率下采样 2。使用 4 个级别创建以 T、T/2、T/4 和 T/8 分辨率捕获动态的特征。

连接和预测: 来自所有金字塔级别的特征沿时间维度连接成长度为 L = T + T/2 + T/4 + T/8 的单个序列 p。此组合特征图被馈送到分类 (CLS) 和回归 (REG) 头。

CLS 头: 两个 Conv1D 层 + Sigmoid,输出帧级别置信度 ĉi。损失:二元焦点损失。

REG 头: 两个 Conv1D 层 + 指数激活,输出每帧的开始/结束边界偏移量 [bi_s, bi_e]。损失:L1 损失。

对比损失: 计算上下文查询嵌入 (e’r) 和所有上下文帧嵌入 (e’v) 之间的余弦相似度。使用 InfoNCE 损失将正帧特征(在真实值内)拉近到查询特征,而不是负帧特征。L = Lcls + Lreg + Lcon。

图 12:时间戳解码器的详细架构。此模块接受帧 token 和  token 的隐藏状态,将它们解码为开始和结束时间戳。

验证器的评分

验证器使用以下公式计算置信度分数:Score = Sigmoid(Ly — Ln)。此分数衡量了模型对该特定候选时刻的“是”的置信度比“否”高多少。

Chain-of-LoRA 实现

该机制涉及为 Planner、Grounder 和 Verifier 角色的基础 Qwen2-VL 模型的层训练单独的 LoRA 权重(适配器矩阵)。

def videomind_inference(video V, query Q):  # 1. Planning (using Planner LoRA)  plan = Planner.generate_plan(V, Q) # e.g., ["grounder", "verifier", "answerer"]  rephrased_query = plan.get_rephrased_query_if_any(Q) # Optional  grounded_moment = None  verified_segment = V # Default to whole video  # 2. Grounding (if needed)  if "grounder" in plan:    # Activate Grounder LoRA    candidate_moments = Grounder.localize_moments(V, rephrased_query or Q) # List of [ts, te]    # Deactivate Grounder LoRA    # 3. Verification (if needed)    if "verifier" in plan:      # Activate Verifier LoRA      best_moment_index = -1      best_score = -1      scores = []      zoomed_segments = []      for i, moment in enumerate(candidate_moments):         # Apply Recap-by-ZoomIn         zoomed_segment_i = Verifier.zoom_in(V, moment)         zoomed_segments.append(zoomed_segment_i)         # Get Yes/No likelihoods and calculate score         score_i = Verifier.calculate_confidence(zoomed_segment_i, Q, moment)         scores.append(score_i)         if score_i > best_score:           best_score = score_i           best_moment_index = i      grounded_moment = candidate_moments[best_moment_index]      verified_segment = zoomed_segments[best_moment_index]      # Deactivate Verifier LoRA  # 4. Answering (if needed)  final_answer = "Grounding complete." # Default if no answerer  if "answerer" in plan:     # Use BASE MLLM (no specific LoRA)     final_answer = Answerer.generate_answer(verified_segment, Q)  return final_answer, grounded_moment

总结

VideoMind 通过结合受人类启发的代理工作流程与 Chain-of-LoRA 技术,使 AI 模型具备了计划、定位、验证和解释基于特定视频时刻的事件所需的专业技能。

VideoMind 推动了多模态 AI 的发展,为构建更复杂、高效和上下文感知的系统提供了蓝图。

https://avoid.overfit.cn/post/8155100cbbd041e28439d64974789287

0 阅读:0
deephub

deephub

提供专业的人工智能知识,包括CV NLP 数据挖掘等