2026/2/19 10:52:45
网站建设
项目流程
常见的分类信息网站有哪些,银川网站建设,抚州做网站的公司,微信商城小程序怎么做创新点#xff1a;• 首次把“最优奖励函数”显式定义为使策略遗憾最小的函数#xff0c;并将其形式化为一个双层优化问题#xff1a;下层做常规策略优化#xff0c;上层用近似元梯度迭代更新奖励函数#xff0c;实现奖励-策略协同进化。• 在稀疏奖励、高维连续控制以及数…创新点• 首次把“最优奖励函数”显式定义为使策略遗憾最小的函数并将其形式化为一个双层优化问题下层做常规策略优化上层用近似元梯度迭代更新奖励函数实现奖励-策略协同进化。• 在稀疏奖励、高维连续控制以及数据中心能耗调度、无人机自主飞行等真实任务上统一框架下学到的奖励函数均优于人工设计奖励与 LIRBO、Tomax、SASR 等最新基线首次展示“零先验奖励”的具身智能体可直接部署于现实系统。方法本文提出一种双层-元学习框架把“最优奖励函数”显式定义为使策略遗憾最小化的函数并在线求解下层让具身智能体在由上层给出的奖励信号驱动下进行常规强化学习将交互轨迹存入缓存上层随机采样小批量轨迹利用策略分布和优势函数近似奖励的元梯度沿遗憾最小方向更新奖励函数参数如此交替迭代直至收敛。该方法无需专家演示或人类偏好标注仅依赖智能体自身与环境的交互回放即可同步优化奖励与策略并在稀疏奖励、高维连续控制及真实数据中心节能、无人机飞行等任务上验证其有效性与跨域泛化能力。从自然智能到具身智能创造力与学习效率的殊途同归本图用上下两条并行的彩色箭头把“自然智能”与“具身智能”在核心目标与实现途径上做了一次直观对照自然生物以“最大化创造力”为终极驱动通过感知、模仿与适应环境来不断提升生存与演化效率而具身人工智能则以“最大化学习效率”为宗旨借助通用化策略与持续学习在真实世界中快速迁移与成长。两条箭头最终交汇到同一终点——“Generalization”暗示不论是碳基生命还是硅基智能体其本质都是把经验提炼成可泛化的能力以应对未知场景。双层元梯度框架从人工试错到奖励函数自我进化本图完整呈现了论文“奖励函数自主发现”思路的演进与实现闭环左侧先指出传统人工设计奖励在任务复杂化时迅速失效而依赖专家演示或人类偏好标注又代价高昂由此引出“让智能体自己发现奖励”的需求中间给出双层优化框架——下层是常规的强化学习策略优化上层把轨迹缓存、小批量采样、策略分布与优势函数估计串联起来用近似元梯度不断修正奖励函数使奖励信号与策略同步进化右侧通过对比“人为设计好坏参半”与“随机初始化后自动收敛”的奖励曲面展示该方法最终能精准地把高奖励赋予真正有助于任务的最优动作从而摆脱人工调参与奖励黑客困扰。从稀疏到稠密自动塑形奖励让学习曲线一飞冲天本图可视化直击“奖励稀疏”这一强化学习顽疾在 CartPole、Acrobot、FourRoom、LunarLander 四个经典稀疏任务上论文把“原始环境只给终端稀疏信号”与“同一状态下双层框架自动发现的稠密奖励”并排展示——左侧学习曲线显示稀疏奖励几乎全程平坦智能体得不到有效反馈而迟迟不进步右侧则因奖励函数被实时塑形回报曲线迅速抬升并更早收敛。更关键的是图 e–h 的 Acrobot 奖励曲面对同一对关节角论文方法为三个离散动作分别生成精细的奖励地形高值恰好落在能利用重力加速摆起的转矩区低值对应“无为”或“反方向”动作说明框架无需人类经验就自动把动力学“常识”编码进奖励从而把稀疏任务转化为可高效爬坡的稠密问题。高维状态奖励热力图机器自主发现的“隐形专家”与人工设计殊途同归本图把 MuJoCo 四套高维连续控制任务的状态空间经 t-SNE 压到二维用颜色深浅展示奖励大小上一排是人工精心设计的“专家奖励”下一排是同一状态下双层框架自动发现的奖励。直观可见两者在“碰撞、摔倒、超时”等关键区均呈现相似的极低值暗斑在“平衡、前进、目标接近”区域则同时出现高亮宽带差别在于机器生成的奖励分布更连续、过渡更平滑没有出现人为设计常见的离散跳变或异常高值孤岛。这说明框架无需领域知识就能让奖励曲面“对齐”专家意图却比人工调参更细腻、更稳定从而直接提升高维关节控制的学习速度与收敛可靠性。题目: Discovery of the reward function for embodied reinforcement learning agents论文地址https://doi.org/10.1038/s41467-025-66009-y代码地址https://github.com/RenzhiLu/Discovery-of-Reward-Function