性能大涨20%!中科大「状态序列频域预测」方法:表征学习样本效率max|NeurIPS 2023 Spotlight

2024-01-20 14:48 177 阅读 ID:1815
新智元
新智元

强化学习算法(Reinforcement Learning, RL)的训练过程往往需要大量与环境交互的样本数据作为支撑。然而,现实世界中收集大量的交互样本通常成本高昂或者难以保证样本采集过程的安全性,例如无人机空战训练和自动驾驶训练。

为了提升强化学习算法在训练过程中的样本效率,一些研究者们借助于表征学习(representation learning),设计了预测未来状态信号的辅助任务,使得表征能从原始的环境状态中编码出与未来决策相关的特征。

基于这个思路,该工作设计了一种预测未来多步的状态序列频域分布的辅助任务,以捕获更长远的未来决策特征,进而提升算法的样本效率。

该工作标题为State Sequences Prediction via Fourier Transform for Representation Learning,发表于NeurIPS 2023,并被接收为Spotlight。

作者列表:叶鸣轩,匡宇飞,王杰*,杨睿,周文罡,李厚强,吴枫

论文链接:https://openreview.net/forum?id=MvoMDD6emT

代码链接:https://github.com/MIRALab-USTC/RL-SPF/

研究背景与动机

深度强化学习算法在机器人控制[1]、游戏智能[2]、组合优化[3]等领域取得了巨大的成功。但是,当前的强化学习算法仍存在「样本效率低下」的问题,即机器人需要大量与环境交互的数据才能训得性能优异的策略。

为了提升样本效率,研究者们将目光投向于表征学习,希望训得的表征能从环境的原始状态中提取出充足且有价值的特征信息,从而提升机器人对状态空间的探索效率。

                                                             基于表征学习的强化学习算法框架

在序列决策任务中,「长期的序列信号」相对于单步信号包含更多有利于长期决策的未来信息。启发于这一观点,一些研究者提出通过预测未来多步的状态序列信号来辅助表征学习[4,5]。然而,直接预测状态序列来辅助表征学习是非常困难的。

现有的两类方法中,一类方法通过学习单步概率转移模型来逐步地产生单个时刻的未来状态,以间接预测多步的状态序列[6,7]。但是,这类方法对所训得的概率转移模型的精度要求很高,因为每步的预测误差会随预测序列长度的增加而积累。

另一类方法通过直接预测未来多步的状态序列来辅助表征学习[8],但这类方法需要存储多步的真实状态序列作为预测任务的标签,所耗存储量大。因此,如何有效从环境的状态序列中提取有利于长期决策的未来信息,进而提升连续控制机器人训练时的样本效率是需要解决的问题。

为了解决上述问题,我们提出了一种基于状态序列频域预测的表征学习方法(State SequencesPrediction viaFourier Transform,SPF),其思想是利用「状态序列的频域分布」来显式提取状态序列数据中的趋势性和规律性信息,从而辅助表征高效地提取到长期未来信息。

状态序列中的结构性信息分析

我们从理论上证明了状态序列存在「两种结构性信息」,一是与策略性能相关的趋势性信息,二是与状态周期性相关的规律性信息。

马尔科夫决策过程

在具体分析两种结构性信息之前,我们先介绍产生状态序列的马尔科夫决策过程(Markov Decision Processes,MDP)的相关定义。

趋势性信息

下面我们介绍状态序列的「第一种结构性特征」,其涉及状态序列和对应奖励序列之间的依赖关系,能显示出当前策略的性能趋势

在强化学习任务中,未来的状态序列很大程度上决定了智能体未来采取的动作序列,并进一步决定了相应的奖励序列。因此,未来的状态序列不仅包含环境固有的概率转移函数的信息,也能辅助表征捕获反映当前策略的走向趋势。

启发于上述结构,我们证明了以下定理,进一步论证了这一结构性依赖关系的存在:

上述定理表明,两个策略的性能差异越大,其对应的两个状态序列的分布差异也越大。这意味着好策略和坏策略会产生出两个差异较大的状态序列,这进一步说明状态序列所包含的长期结构性信息能潜在影响搜索性能优异的策略的效率。

另一方面,在一定条件下,状态序列的频域分布差异也能为对应的策略性能差异提供上界,具体如以下定理所示:

这一定理表明状态序列的频域分布仍包含与当前策略性能相关的特征。

规律性信息

下面我们介绍状态序列中存在的「第二种结构性特征」,其涉及到状态信号之间的时间依赖性,即一段较长时期内状态序列所表现出的规律性模式

在许多的真实场景任务中,智能体也会表现出周期性行为,因为其环境的状态转移函数本身就是具有周期性的。以工业装配机器人为例,该机器人的训练目标是将零件组装在一起以创造最终产品,当策略训练达到稳定时,它就会执行一个周期性的动作序列,使其能够有效地将零件组装在一起。

启发于上面的例子,我们提供了一些理论分析,证明了有限状态空间中,当转移概率矩阵满足某些假设,对应的状态序列在智能体达到稳定策略时可能表现出「渐近周期性」,具体定理如下:

在MuJoCo任务中,策略训练达到稳定时,智能体也会表现出周期性的运动。下图中给出了MuJoCo任务中HalfCheetah智能体在一段时间内的状态序列示例,可以观察到明显的周期性。(更多MuJoCo任务中带周期性的状态序列示例可参考本论文附录第E节)

                                 MuJoCo任务中HalfCheetah智能体在一段时间内状态所表现出的周期性

时间序列在时域中呈现的信息相对分散,但在频域中,序列中的规律性信息以更加集中的形式呈现。通过分析频域中的频率分量,我们能显式地捕获到状态序列中存在的周期性特征。

方法介绍

上一部分中,我们从理论上证明状态序列的频域分布能反映策略性能的好坏,并且通过在频域上分析频率分量我们能显式捕获到状态序列中的周期性特征。

启发于上述分析,我们设计了「预测无穷步未来状态序列傅里叶变换」的辅助任务来鼓励表征提取状态序列中的结构性信息。

SPF方法损失函数

此外,我们所设计的损失函数只依赖于当前时刻与下一时刻的状态,所以无需存储未来多步的状态数据作为预测标签,具有「实施简单且存储量低」的优点。

SPF方法算法框架

下面我们介绍本论文方法(SPF)的算法框架。

                                       基于状态序列频域预测的表征学习方法(SPF)的算法框架图

我们将当前时刻和下一时刻的状态-动作数据分别输入到在线(online)和目标(target)表征编码器(encoder)中,得到状态-动作表征数据,然后将该表征数据输入到傅里叶函数预测器(predictor)得到当前时刻和下一时刻下的两组状态序列傅里叶函数预测值。通过代入这两组傅里叶函数预测值,我们能计算出损失函数值。

我们将原始状态和动作输入到表征编码器中,将得到的特征作为强化学习算法中actor网络和critic网络的输入,并用经典强化学习算法优化actor网络和critic网络。

实验结果

(注:本节仅选取部分实验结果,更详细的结果请参考论文原文第6节及附录。)

算法性能比较

我们将 SPF 方法在 MuJoCo 仿真机器人控制环境上测试,对如下 6 种方法进行对比:

  • SAC:基于Q值学习的soft actor-critic算法[10],一种传统的RL算法;
  • PPO:基于策略优化的proximal policy optimization算法[11],一种传统RL算法;
  • SAC-OFE:利用预测单步未来状态的辅助任务进行表征学习,以优化SAC算法;
  • PPO-OFE:利用预测单步未来状态的辅助任务进行表征学习,以优化PPO算法;
  • SAC-SPF:利用预测无穷步状态序列的频域函数的辅助任务进行表征学习(我们的方法),以优化SAC算法;
  • PPO-SPF:利用预测无穷步状态序列的频域函数的辅助任务进行表征学习(我们的方法),以优化PPO算法;
                                                           基于6种MuJoCo任务的对比实验结果

上图显示了在 6 种 MuJoCo 任务中,我们所提出的SPF方法(红线及橙线)与其他对比方法的性能曲线。结果显示,我们所提出的方法相比于其他方法能获得19.5%的性能提升。

消融实验

我们对 SPF 方法的各个模块进行了消融实验,将本方法与不使用投影器模块(noproj)、不使用目标网络模块(notarg)、改变预测损失(nofreqloss)、改变特征编码器网络结构(mlp,mlp_cat)时的性能表现做比较。

                                SPF方法应用于SAC算法的消融实验结果图,测试于HalfCheetah任务

可视化实验

我们使用 SPF 方法所训练好的预测器输出状态序列的傅里叶函数,并通过逆傅里叶变换恢复出的200步状态序列,与真实的200步状态序列进行对比。

基于傅里叶函数预测值恢复出的状态序列示意图,测试于Walker2d任务。其中,蓝线为真实的状态序列示意图,5条红线为恢复出的状态序列示意图,越下方的、颜色越浅的红线表示利用越久远的历史状态所恢复出的状态序列。

结果显示,即使用更久远的状态作为输入,恢复出的状态序列也和真实的状态序列非常相似,这说明 SPF 方法所学习出的表征能有效编码出状态序列中包含的结构性信息。

参考资料:

[1] Tim de Bruin, Jens Kober, Karl Tuyls, and Robert Babuska. Integrating state representation learning into deep reinforcement learning. IEEE Robotics Autom. Lett., 3(2):1394–1401, 2018.

[2] Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Andrei A. Rusu, Joel Veness, Marc G. Bellemare, Alex Graves, Martin A. Riedmiller, Andreas Fidjeland, Georg Ostrovski, et al. Human-level control through deep reinforcement learning. nature, 518(7540):529–533, 2015.

[3] Thomas D. Barrett, William R. Clements, Jakob N. Foerster, and A. I. Lvovsky. Exploratory combinatorial optimization with reinforcement learning. AAAI 2020.

[4] Rui Yang, Jie Wang, Zijie Geng, Mingxuan Ye, Shuiwang Ji, Bin Li, and Feng Wu. Learning task- relevant representations for generalization via characteristic functions of reward sequence distributions. SIGKDD 2022.

[5] Jie Wang, Rui Yang, Zijie Geng, Zhihao Shi, Mingxuan Ye, Qi Zhou, Shuiwang Ji, Bin Li, Yongdong Zhang, and Feng Wu. Generalization in visual reinforcement learning with the reward sequence distribution. 2023. doi: 10.48550/arXiv.2302.09601.

[6] Schwarzer, M., Anand, A., Goel, R., Hjelm, R. D., Courville, A., & Bachman, P. (2020). Data-efficient reinforcement learning with self-predictive representations. ICLR 2021.

[7] Hafner, D., Lillicrap, T., Fischer, I., Villegas, R., Ha, D., Lee, H., & Davidson, J. (2019, May). Learning latent dynamics for planning from pixels. ICML 2019.

[8] Mishra, N., Abbeel, P., & Mordatch, I. (2017, July). Prediction and control with temporal segment models. ICML 2017.

[9] Sutton R S, Barto A G. Reinforcement learning: An introduction[M]. MIT press, 2018.

[10] Tuomas Haarnoja, Aurick Zhou, Pieter Abbeel, and Sergey Levine. Soft actor-critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actor. ICML 2018.

[11] John Schulman, Filip Wolski, Prafulla Dhariwal, Alec Radford, and Oleg Klimov. Proximal policy optimization algorithms. CoRR, 2017.

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn