楼主: CDA网校
1722 14

强化学习也能预训练?效果可提升 20 倍,华人新作引爆 RL 新范式 [推广有奖]

管理员

已卖:189份资源

泰斗

3%

还不是VIP/贵宾

-

威望
3
论坛币
118687 个
通用积分
10381.1419
学术水平
278 点
热心指数
286 点
信用等级
253 点
经验
228235 点
帖子
6932
精华
19
在线时间
4378 小时
注册时间
2019-9-13
最后登录
2026-1-8

初级热心勋章

楼主
CDA网校 学生认证  发表于 2025-7-1 09:07:17 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

强化学习也能预训练?效果可提升 20 倍,华人新作引爆 RL 新范式

【新智元导读】大模型的预训练-微调范式,正在悄然改写强化学习!伯克利团队提出新方法 InFOM,不依赖奖励信号,也能在多个任务中实现超强迁移,还能做到「读心术」级别的推理。这到底怎么做到的? 大规模预训练已经从根本上改变了机器学习研究的方式:基础模型只需训练一次。

之后即便缺乏数据或算力,基础模型也能在具体任务上直接适配与微调。

从计算机视觉到自然语言处理等多个领域,这种「预训练-微调」的模式已经取得了巨大成功。

但在「强化学习」(Reinforcement Learning,RL)中,这种模式的效果仍未被完全验证。

本质上,强化学习更难,是因为这涉及对时间与意图的推理——

(1)必须能够推断当前动作在长期内的影响;

(2)必须识别出多个用户在执行不同任务时收集的观察数据。

目前,能处理「时间信息」的主流 RL 算法有两类:

一类基于「世界模型」(world models),另一类基于「占据模型」(occupancy models)。

由于误差累积的问题,世界模型在长时间推理方面的能力仍然有限。

在预测未来事件方面,占据模型表现优异,但通常难以训练,且忽略了用户意图。

近年,「生成式 AI」(GenAI)让复杂分布建模变得可行。

它还能处理多种输入类型,如「流匹配」(flow matching)。

这为构建依赖于意图的占据模型提供了新工具:

流匹配(flow matching)+ 占据模型(Occupancy Models)= 意向条件流占用模型(Intention-Conditioned Flow Occupancy Models,InFOM)

传统方法只预测「下一步观测」。而 InFOM 不仅可预测多个未来步骤,还能适应用户不同的「意图」。

具体而言,研究人员构建的模型将「意图」编码为潜在变量,并通过「流匹配」(flow matching)来预测未来状态的访问概率。

图 1:InFOM 是用于强化学习预训练与微调的潜变量模型。(左)数据集由执行不同任务的用户采集而来。(中)通过最大化数据似然的证据下界(ELBO)对意图进行编码,(右)进而实现基于流匹配的意图感知未来状态预测。

模型最大化数据似然进行训练,能高效适应特定任务。

论文地址:https://arxiv.org/abs/2506.08902

博客地址:https://chongyi-zheng.github.io/infom/

由于普通流匹配方法无法拼接多个状态转换,研究者引入基于 SARSA 的时序差分流匹配损失进行改进。

论文链接:https://arxiv.org/abs/2503.09817

借助 InFOM,可以在下游任务中估算出多个带有意图条件的 Q 函数,然后通过隐式广义策略改进(implicit GPI)方法提取最终策略。

在强化学习中的预训练与微调任务中,InFOM 表现出色。

面对奖励稀疏或半稀疏的复杂任务时,传统方法难以学到有效策略,而 InFOM 能通过构建具备表达能力的生成模型,配合 implicit GPI,更有效地利用高奖励状态。

与无监督技能发现或后继特征学习等方式相比,InFOM 提供了一种更简单、更高效的意图推理方式,性能更优。

值得一提的是,排名第一的华人作者 Chongyi Zheng 和排名第 4 的作者 Benjamin Eysenbach,是一对师徒。

此外,强化学习大牛、加州大学伯克利分校 EECS 系 Sergey Levine 也参与了这项研究。

方法介绍 针对无奖励预训练数据集 D 中的连续状态-动作对(s,a,s′,a′),通过编码器 pe(z∣s′,a′)推断潜在意图 z∈Z,并利用占据度量模型 qd(sf∣s,a,z)预测未来状态 sf 的占据分布。

基于流匹配(flow matching)方法,通过最大化数据似然的证据下界(ELBO)来联合优化编码器与解码器:

其中先验分布 p(z)=N(0,I)为标准高斯分布。

为实现轨迹级未来状态预测(动态规划),采用 SARSA 变体的时序差分流损失来学习流占据模型的向量场 vd:[0,1]×S×S×A×Z→S:

InFOM 允许估计一组基于意图的 Q 函数用于下游任务。

然后,利用隐式广义策略改进(implicit GPI)过程来提取一个策略。

具体预训练和微调算法如下:

结果介绍 为了测试 InFOM,能否从无标签数据集中捕获基于用户意图的可操作信息,能否在微调后训练出高效的策略来解决下游任务,在 36 个基于状态的任务和 4 个基于图像的任务中,比较了 InFOM 和八个基线方法的性能。

研究者在 ExORL 和 OGBench 基准测试中评估了该方法,详见图 3 所示结果。

实验结果表明,InFOM 在八个领域中的六个领域表现与基线方法相当或更好。

在 ExORL 基准测试中,在两个较容易的领域(猎豹和四足机器人)上,所有方法表现相似。

但在 jaco 任务上,InFOM 获得了 20 倍的改进。

在 OGBench 中更具挑战性的基于状态的操作任务上,基线方法与 InFOM 的表现有显著差异;新算法在最佳基线方法上取得了 36%更高的成功率。

此外,InFOM 还能够在直接使用 RGB 图像作为输入时,超越最强基线 31%。

这是由于任务中存在半稀疏奖励函数,传统基线方法往往难以应对具有挑战性的任务。

InFOM 通过更强的生成模型和隐式策略优化,更高效地利用高奖励状态。

图 3:在 ExORL 和 OGBench 任务上的评估结果。

与基于无监督技能发现(unsupervised skill discovery) 或继任特征学习(successor feature learning)的意图编码机制相比,InFOM 提供了一种简单且高效的方式来推断用户的意图。

图 4 的结果表明,在 4 项任务中的 3 项上,InFOM 能以更简单的方法超越先前的意图编码方法。

HILP 和 FB 均基于演员-评论家框架,通过完全无监督的强化学习目标来捕获意图;相比之下,新方法仅需在相邻状态转移上训练基于隐变量模型的意图编码器,无需依赖复杂的离线强化学习流程。

图 4:与现有意图编码机制的对比

下面视频展示了一些具体的例子。

来自 ExORL 基准测试的四个领域:猎豹(cheetah)、步态(walker)、四足机器人(quadruped)、Jaco,包括 16 个基于状态的任务。

来自 OGBench 基准测试的四个领域:单个立方体(cube single)、双立方体(cube double)、场景(scene)、谜题 4x4(puzzle 4x4),包括 20 个基于状态的任务和 4 个基于图像的任务,用于评估我们的算法。

作者介绍

Chongyi Zheng 是普林斯顿大学计算机科学系的博士生。

他的研究兴趣是通过概率推理方法,开发具备长时序推理能力的强化学习(RL)算法。

此前,他在卡耐基梅隆大学攻读硕士学位。

2020 年,他本科毕业于西南大学;之后,在清华大学工作过。

参考资料: https://x.com/chongyiz1/status/1933183954062069865 https://chongyi-zheng.github.io/infom/ https://seohong.me/blog/q-learning-is-not-yet-scalable/

学习入口:https://edu.cda.cn/goods/show/3814?targetId=6587&preview=0

推荐学习书籍 《CDA 一级教材》适合 CDA 一级考生备考,也适合业务及数据分析岗位的从业者提升自我。完整电子版已上线 CDA 网校,累计已有 10 万+在读~ 免费加入阅读:https://edu.cda.cn/goods/show/3151?targetId=5147&preview=0

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Conditioned Discovery Intention condition matching

已有 1 人评分经验 收起 理由
kychan + 60 精彩帖子

总评分: 经验 + 60   查看全部评分

沙发
CDA网校 学生认证  发表于 2025-7-1 09:07:51
针对无奖励预训练数据集 D 中的连续状态-动作对(s,a,s′,a′),通过编码器 pe(z∣s′,a′)推断潜在意图 z∈Z,并利用占据度量模型 qd(sf∣s,a,z)预测未来状态 sf 的占据分布。

藤椅
CDA网校 学生认证  发表于 2025-7-1 09:08:08
与基于无监督技能发现(unsupervised skill discovery) 或继任特征学习(successor feature learning)的意图编码机制相比,InFOM 提供了一种简单且高效的方式来推断用户的意图。

板凳
CDA网校 学生认证  发表于 2025-7-1 09:08:20
来自 OGBench 基准测试的四个领域:单个立方体(cube single)、双立方体(cube double)、场景(scene)、谜题 4x4(puzzle 4x4),包括 20 个基于状态的任务和 4 个基于图像的任务,用于评估我们的算法。

报纸
HappyAndy_Lo 发表于 2025-7-1 09:54:42

地板
albertwishedu 发表于 2025-7-1 09:54:57

7
tianwk 发表于 2025-7-1 15:35:53
thanks for sharing

8
yiyijiayuan 在职认证  发表于 2025-7-1 15:39:11
友情回复。

9
babylaugh 发表于 2025-7-1 16:58:30
点赞分享

10
中国人民学生 发表于 2025-7-1 21:40:53

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2026-1-8 13:27