2026/3/15 17:52:51
网站建设
项目流程
cpanel 子网站,搜索关键词排名,深圳市住建局工程交易服务网,建设银行网站首页下载Datawhale干货 作者#xff1a;厦门大学MAC团队在多模态大模型#xff08;MLLM#xff09;的研究浪潮中#xff0c;我们似乎习惯了一种固定的“暴力美学”#xff1a;想要模型掌握新技能#xff0c;就必须投入昂贵的算力进行全量微调#xff08;SFT#xff09;或强化学…Datawhale干货作者厦门大学MAC团队在多模态大模型MLLM的研究浪潮中我们似乎习惯了一种固定的“暴力美学”想要模型掌握新技能就必须投入昂贵的算力进行全量微调SFT或强化学习RL。然而来自厦门大学多媒体可信感知与高效计算重点实验室的研究团队在其最新工作中提出了一个反直觉的命题也许我们根本不需要训练模型只需要让模型的推理过程“进化”起来。这篇题为《Evolving, Not Training》的研究提出了一种名为EVOL-SAM3的零样本框架。它并未遵循传统的参数更新路线而是通过扩展推理时计算Inference-time Computation在不更新任何参数的情况下仅凭 7B 模型就在多个基准测试中超越了经过全量微调的 13B 模型甚至逆袭了 72B 参数量的基线模型。一、告别“死记硬背”拥抱动态搜索长期以来指代分割Reasoning Segmentation任务面临着两难困境。SFT 方法虽然有效但本质上是强行让模型“记住”特定的图文对齐关系这不仅成本高昂还容易导致模型丧失通用的常识推理能力灾难性遗忘。而现有的免训练 Agent如 SAM3 Agent虽然保留了通用能力却受限于线性的“单向推理”模式——一旦初始理解出现偏差模型缺乏回溯或自我修正的机制往往只能输出错误结果。EVOL-SAM3 选择了一条截然不同的道路。研究团队认为对于复杂的视觉语义最优的提示词Prompt往往不是一次生成的而是可以通过在潜在空间中进行搜索和优化得到的。受生物进化论的启发该框架将静态的推理过程重构为一个动态的“生成-评估-进化”闭环。图 1EVOL-SAM3 框架概览。包含初始化、进化推理循环及最终仲裁三个阶段。二、像生物进化一样思考EVOL-SAM3 的核心机制模拟了自然界的“优胜劣汰”。面对一个模糊的用户查询例如“找出那个滑雪的人”系统不再草率地给出一个定论而是首先进行语义元规划。模型利用 MLLM 作为元生成器结合图像内容从颜色、纹理、空间位置等多个维度发散思维生成一个多样化的初始提示词种群Population。随后的进化推理循环是整个框架的精髓所在。在没有标准答案Ground Truth的推理阶段如何判断生成的分割掩膜好不好研究团队利用了 MLLM “判别能力强于生成能力”的特性构建了一个视觉竞技场Visual Arena。在这个竞技场中不同的提示词生成的掩膜进行两两 PKMLLM 化身裁判根据原始查询判断哪一个结果更精准。胜出的“精英”提示词会获得生存权并接受语义突变Semantic Mutation。这并非简单的随机字符扰动而是逻辑上的升级——例如模型可能会将“右边的人”自动进化为“最右边穿绿衣服的男性”从而引导搜索方向一步步逼近真相。为了防止纯文本推理可能产生的语义幻觉框架还引入了异构最终仲裁机制。系统将进化出的“文本推理掩码”与大模型直觉生成的“几何检测框”进行最终对决。通过一种巧妙的双盲切换判定机制系统能够有效消除模型的位置偏见确保最终输出既具备语义深度又拥有几何上的鲁棒性。三、小参数的大逆袭7B vs 72B实验数据有力地证明了这种新范式的有效性。在极具挑战性的ReasonSeg基准测试中EVOL-SAM3 (7B)取得了70.7 gIoU的成绩。这个数字的含金量在于它在零样本、无训练的前提下直接超越了经过全量监督微调的经典模型LISA-13B (65.0 gIoU)。这表明挖掘冻结模型的推理潜力是一条比昂贵的微调更具性价比的路径。实验数据最有趣的部分在于 EVOL-SAM3 与其直接基线SAM 3 Agent的对比。这是一个极具说服力的“控制变量”实验两者使用完全相同的冻结底座Qwen2.5-VL和完全相同的执行器SAM 3唯一的区别在于推理机制——是线性的“试错”还是进化的“搜索”1. 相同体量下的碾压级优势7B vs 7B当我们将参数量限制在 7B 时SAM 3 Agent 仅能获得 63.0 gIoU 的测试集成绩。而仅仅是引入了进化搜索机制的 EVOL-SAM3在不增加任何模型参数的情况下将这一分数直接拉升至72.5 gIoU。高达9.5 个点的性能跃升充分证明了线性推理在处理复杂语义时的局限性以及进化算法在挖掘模型潜在能力上的巨大效率。2. 小模型逆袭超大模型7B vs 72B更令人深思的是一场“大卫与歌利亚”的战役。通常认为大模型的参数量是性能的护城河。然而EVOL-SAM3 打破了这一定律仅有7B参数的它竟然在 ReasonSeg 测试集上击败了拥有十倍参数量的 **SAM 3 Agent (72B)**72.5 vs 70.8 gIoU。这种反超在长难句Test Long场景下尤为剧烈。SAM 3 Agent 72B 在面对复杂长文本时得分为 71.0而 EVOL-SAM3 7B 则达到了74.3。这揭示了一个深刻的结论在复杂的视觉推理任务中盲目堆砌参数并非唯一出路通过推理时计算来提升思维的广度与深度往往能以更小的代价实现更优的智能涌现。下表展示了 EVOL-SAM3 与现有 SOTA 方法在 ReasonSeg 基准上的详细对比表 1ReasonSeg 基准测试结果。EVOL-SAM3 刷新了同模型大小下的 Training-Free 方法的最佳记录。更令人印象深刻的是与同类 Agent 的对比。基线模型SAM3 Agent即使动用了72B的超大参数版本在测试集上也仅获得 70.8 gIoU。而 EVOL-SAM3 仅凭7B参数就达到了72.5 gIoU实现了对“参数堆砌”路线的反超。特别是在处理长难句查询时Test LongEVOL-SAM3 的优势更加明显达到了74.3 gIoU显著优于 GPT-4o 驱动的 RSVP 模型。定性分析也佐证了这一优势。在面对如“找出划船需要的物体”这类功能性描述时基线模型容易被显眼的“船”带偏而 EVOL-SAM3 通过进化循环成功修正了注意力精准分割出了细小的“船桨”。四、结语EVOL-SAM3 的成功本质上是Scaling Inference-time Computation扩展推理时计算理念的一次胜利。它告诉我们在算力资源有限、标注数据昂贵的现实下与其盲目追求更大的参数量不如赋予模型在推理阶段“多想一步、自我修正”的能力。这种无需训练、即插即用的进化范式或许正是通往更通用、更灵活的视觉智能体的关键钥匙。一起“点赞”三连↓