2026/1/19 4:54:07
网站建设
项目流程
上海电商网站建设公司,个人建网站的步骤,asp 网站开发 软件,三亚网上商城概述
本文是一项研究#xff0c;旨在强调中期训练#xff08;mid-training#xff09;在使 Llama 等一般基础模型通过强化学习#xff08;RL#xff09;获得高级推理能力方面的有效性。我们特别关注了基于 Qwen 的模型和基于 Llama 的模型在 RL 扩展行为上的差异#xff…概述本文是一项研究旨在强调中期训练mid-training在使 Llama 等一般基础模型通过强化学习RL获得高级推理能力方面的有效性。我们特别关注了基于 Qwen 的模型和基于 Llama 的模型在 RL 扩展行为上的差异探讨了造成这种差异的原因并提出了提高 Llama 模型 RL 性能的学习策略。研究的重点是一种名为 稳定-然后衰退 的两阶段中期训练策略。第一阶段通过稳定学习培养稳健的推理能力而第二阶段则使用不同类型的数据短思维过程、长思维过程及其混合物生成多分支分支模型。因此这套名为 OctoThinker 的新模型的性能可与 Qwen2.5 等 RL 友好型模型相媲美并表明 RL 扩展甚至对 Llama 系列也是可行的。我们还建立并发布了一个大型数学推理语料库–MegaMath-Web-Pro-Max为今后的研究奠定了基础。建议的方法我们提出了一种两阶段的中期训练策略–“稳定-衰减”Stable-then-Decay用于将不适合 RL 的模型如 Llama转化为 RL 可扩展的基础模型。在第一阶段即 稳定 阶段使用 200B 个高质量数学数据如 MegaMath-Web-Pro-Max以恒定的学习率进行稳定的预训练。这一阶段是模型基本推理能力和数学知识的基础。第二阶段为 衰减 阶段学习速度逐渐减慢并输入不同性质的数据如短思维链、长思维链以及两者的混合从而使模型的性质发生变化并培养出多种推理风格。这一过程被命名为 “章鱼思维”因为它像章鱼的多臂一样向多个方向展开。此外在这一过程中还对质量保证格式数据和指令跟踪数据的比例和组合进行了精细控制并详细评估了每种数据的影响。此外还设计了反应时长控制调度程序和提示模板以稳定 RL 训练。实验实验以 Llama 和 Qwen 作为比较对象以确定学习行为和 RL 性能的差异。初步观察结果表明Qwen 模型在逐渐增加答案长度的过程中表现出稳定的性能提升而 Llama 模型则表现出异常的学习行为例如在过程中一直迭代到答案达到最大长度4096 个字节。为了解决这个问题作者对 Llama 采用了上述两阶段的中期训练。在第一阶段在高质量数据主要是 MegaMath-Web-Pro-Max上进行了 200B 标记的稳定训练然后在三种数据配置上进行了分支训练短 CoT、长 CoT 和混合。然后在相同条件下对每个模型进行 RL 训练并在 14 个数学推理基准测试中进行性能评估包括 MATH500、GSM8K、OlympiadBench 和 AMC23。结果表明OctoThinker 的每个分支模型的性能都比原始 Llama 高出 10-20%尤其是在 长 分支中其性能可与 Qwen2.5 相媲美。通过这种方式量化了中期训练策略对 RL 性能的影响并证明了在 Llama 系列中可以实现高性能的 RL 适应。