ADP在线自适应动态规划之持续激励条件

您所在的位置:网站首页 hdr算法触发条件是什么 ADP在线自适应动态规划之持续激励条件

ADP在线自适应动态规划之持续激励条件

2024-07-14 03:04| 来源: 网络整理| 查看: 265

在线自适应动态规划之持续激励条件

在在线自适应动态规划算法中,需要通过满足持续激励条件(Persistent Excitation Condition)保证critic网络权值的收敛性,一般的做法都是在算法初期在输入端引入探测噪声(Probing Noises)来保证数据的丰富性,但是由于在输入端引入噪声会给系统带来一些不好的影响,甚至可能破坏系统的稳定性。

自适应动态规划这个方向涵盖得十分广,不同的团队研究的内容差异比较大。

在一些关于ADP的论文,算法明明是在线迭代的,但是并没有去讨论PE条件,不知道是不是我在哪些方面理解错了。

因此,出现了一些其他的方法来避免引入探测噪声,主要有两种:

Concurrent Learning(CL)Experience Replay (ER)

下面大致谈一下这两种方法,Concurrent Learning来源于自适应控制中自适应律的设计,其实自适应动态规划的思想主要也是一种自适应控制,首先构建理想的具有未知权值的Critic,Actor网络,然后通过自适应律来计算出真实的权值。Sutton在《Reinforcement 》也指出强化学习是一种直接的自适应控制。

首先介绍一下自适应控制中的CL

1、Concurrent Learning1 2

主要思想: 除了通过当前时刻轨迹下的误差,还预先选取一些特征点,来加入到自适应律的迭代中。

不足:因为要预先记录一些特征点,所以需要模型已知,故不能扩展到无模型的自适应动态规划中。

主要思想: 记录当前时刻和过去一段时间内的贝尔曼误差用于权值更新。 首先,考虑一个如下简单的参数估计问题。

其中, Φ ( x ( t ) ) \Phi(x(t)) Φ(x(t)) 是已知的系统结构, y ( t ) y(t) y(t) 表示观测值, W ∗ T W^{*T} W∗T 表示理想的权值,但是未知的,因此需要通过自适应算法估计出真实值。 另 W ( t ) W(t) W(t)表示实时的估计值。则估计模型为: v ( t ) = W T ( t ) Φ ( x ( t ) ) v(t) = W^T(t) \Phi(x(t)) v(t)=WT(t)Φ(x(t)) 则实时的估计误差为: ϵ ( t ) = v ( t ) − y ( t ) = W ~ T ( t ) Φ ( x ( t ) ) = ( W T ( t ) − W ∗ T ( t ) ) Φ ( x ( t ) ) \epsilon(t) = v(t) - y(t) = \tilde{W}^T(t)\Phi(x(t)) = (W^T(t)-W^{*T}(t))\Phi(x(t)) ϵ(t)=v(t)−y(t)=W~T(t)Φ(x(t))=(WT(t)−W∗T(t))Φ(x(t)) 其中 W ~ T ( t ) = W T ( t ) − W ∗ T ( t ) \tilde{W}^T(t) = W^T(t)-W^{*T}(t) W~T(t)=WT(t)−W∗T(t) 因此,我们可以构建误差的平方 V = 0.5 ϵ ( t ) T ϵ ( t ) V=0.5 \epsilon(t)^T \epsilon(t) V=0.5ϵ(t)Tϵ(t),通过设计自适应律来减小V即可使得 W ~ → 0 \tilde{W} \rightarrow 0 W~→0, as ϵ ( t ) → 0 \epsilon(t) \rightarrow 0 ϵ(t)→0。

一般的自适应律如下所示: 在这里插入图片描述 可以看到,要想 W W W收敛,必须保证在 W W W在收敛的过程中 Φ ( x ( t ) ) \Phi(x(t)) Φ(x(t))持续非零。这也成为持续激励条件(PE)。详细的持续激励条件定义可以参考自适应控制的教材,这里不展开讨论。

为了满足持续激励,提出了CL的自适应律 在这里插入图片描述 可以看到,与一般自适应律不同的是增加了后面一项。 其中, x j x_j xj​表示在 x j x_j xj​这个位置的状态, ϵ j \epsilon_j ϵj​表示在当前估计模型下 x j x_j xj​这个点的误差。 p p p表示我们选取了p个这样的特征点和误差。

直观来看,在自适应律的迭代中,除了应用到当前时刻当前轨迹的误差,还用到其他轨迹的误差来更新自适应律,相当于应用了更多了信息来更新自适应律,这样会更加有利于自适应律的收敛。

因此,CL的思想其实很简单,同时也十分容易应用到自适应动态规划的在线计算中。但是需要注意的是,CL是预先选取一些特征轨迹点,这样就需要模型是已知的,不然无法得到通过模型计算的"观测值"。这个模型可以是数学模型,也可以是数据模型,如神经网络模型。

CL在自适应动态规划中的应用 2、Experience Replay 3 4 5

【参考文献】

Chowdhary, Girish, and Eric Johnson. “Concurrent learning for convergence in adaptive control without persistency of excitation.” 49th IEEE Conference on Decision and Control (CDC). IEEE, 2010. ↩︎

Kamalapurkar, Rushikesh, Patrick Walters, and Warren E. Dixon. “Model-based reinforcement learning for approximate optimal regulation.” Control of Complex Systems. Butterworth-Heinemann, 2016. 247-273. ↩︎

Modares, Hamidreza, Frank L. Lewis, and Mohammad-Bagher Naghibi-Sistani. “Integral reinforcement learning and experience replay for adaptive optimal control of partially-unknown constrained-input continuous-time systems.” Automatica 50.1 (2014): 193-202. ↩︎

Yang, Yongliang, et al. “Online barrier-actor-critic learning for H∞ control with full-state constraints and input saturation.” Journal of the Franklin Institute 357.6 (2020): 3316-3344. ↩︎

Malla, Naresh, and Zhen Ni. “A new history experience replay design for model-free adaptive dynamic programming.” Neurocomputing 266 (2017): 141-149. ↩︎



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3