基于强化学习的路径规划技术综述

您所在的位置:网站首页 模糊性规划有哪些特点 基于强化学习的路径规划技术综述

基于强化学习的路径规划技术综述

2024-07-09 16:51| 来源: 网络整理| 查看: 265

开放科学(资源服务)标志码(OSID):

0 概述

随着计算机技术、人工智能技术及自动化控制技术的发展,移动机器人的智能化程度不断提高,路径规划作为实现机器人自主导航的核心技术受到广泛关注[1-2]。路径规划就是使目标对象在最小的时间或距离代价下,在规定区域范围内找到一条从起点到终点的安全无碰撞路径。目前,路径规划的核心方法[3-4]按其特点及关键技术可分为常规方法与强化学习(Reinforcement Learning,RL)方法两类。常规方法可分为传统方法、图形学方法及智能仿生学方法。近年来,又由强化学习方法衍生出深度强化学习方法,深入研究强化学习方法及其衍生方法对路径规划技术的发展有重要的意义。本文简述基于常规方法的路径规划技术,重点分析基于强化学习的路径规划技术并将其分为基于值和基于策略两类,再由强化学习引出基于深度强化学习的路径规划技术,同时对强化学习代表方法的原理、特点、优缺点、适用场合及改进策略进行深入探讨。

1 基于常规方法的路径规划技术

常规方法分为传统方法、图形学方法、智能仿生学方法等3类:

1)传统方法主要包括模拟退火法[5]、人工势场法[6]和模糊逻辑法[7]。这类方法最早应用于路径规划技术,具有描述简单、易于实现的特点,但不能充分利用先验知识和全局信息,求解时容易陷入局部最优解或遇到目标不可达的问题。

2)图形学方法主要包括A*算法[8]、栅格法[9]等。这类方法可提供建模方法,解决了传统方法建模难的问题,但由于搜索效率低下,导致其难以应用在实际系统中。

3)智能仿生学方法主要包括遗传算法[10]、人工神经网络算法[11]、蚁群算法[12]、粒子群优化(Particle Swarm Optimization,PSO)算法[13]等。这类方法的原理与自然生物的性质或生态机制非常接近,如模仿生物遗传进化、人体神经网络系统、蚂蚁觅食等行为,故统称为智能仿生学方法。由于仿生特点,这类方法更加智能、效率更高,但在路径规划应用中存在容易陷入局部最优解、收敛速度慢等问题。

为更加清晰直观地对比各类各种常规方法,表 1给出了各种常规方法的优劣势对比结果。

表 1 (Table 1) 表 1 应用于路径规划技术的常规方法优劣势对比 Table 1 Comparison of advantages and disadvantages of conventional approaches applied to path planning techniques 常规方法 代表方法 优势 劣势 传统方法 模拟退火法人工势场法模糊逻辑法 描述简单且易于实现 易陷入局部最优解或目标不可达 图形学方法 A*算法栅格法 可提供建模方法 搜索效率低下 智能仿生学方法 遗传算法人工神经网络算法蚁群算法粒子群优化算法 具有仿生学特点且更加智能高效 易陷入局部最优解且收敛速度慢 下载CSV 表 1 应用于路径规划技术的常规方法优劣势对比 Table 1 Comparison of advantages and disadvantages of conventional approaches applied to path planning techniques 2 基于强化学习的路径规划技术 2.1 强化学习基本原理与研究历程

强化学习[14-15]的基本原理为智能体在环境反馈奖励或惩罚的刺激下持续学习,根据反馈不断调整策略,最终达成奖励最大化或实现特定目标。强化学习方法主要包括状态、策略、行动、奖励等4个要素。智能体在状态st下,根据策略π选择动作at,并从状态st转移到新的状态st+1,同时获得环境反馈的奖励r,根据获得的奖励r获得最优策略π*。

$ {\pi }^{\rm{*}}=\underset{\pi }{\rm{a}\rm{r}\rm{g}\rm{m}\rm{a}\rm{x}}\;{E}_{\pi }\left[\sum\limits _{t=0}^{\rm{\infty }}{\gamma }^{t}r({S}_{t},{a}_{t})|{S}_{0}=S\right] $ (1)

其中:γ∈(0, 1)为折扣率。

强化学习思想最早可追溯到行为心理学研究。1911年THORNDIKE提出效果律(Law of Effect):一定情景下让动物感到舒服的行为,就会与此情景增强联系(强化),当此情景再现时,动物的这种行为也更易再现;反之则相反。20世纪50年代中期,最优控制理论被提出,基本原理为从控制方案中寻找最佳方案。1956年BELLMAN[16]提出动态规划方法,1977年WERBOS[17]提出自适应动态规划方法。直到20世纪80年代末90年代初,人工智能、机器学习等技术开始得到广泛应用,强化学习开始受到关注。1988年SUTTON等[14]提出时序差分(Temporal Difference,TD)算法,1992年WATKINS等[18]提出Q-Learning算法,1994年RUMMERY等[19]提出SARAS算法,1995年BERSEKAS等[20]提出解决随机过程中优化控制的神经动态规划方法,2006年KOCSIS等[21]提出置信上限树算法,2009年LEWIS等[22]提出反馈控制自适应动态规划算法,2014年SILVER等[23]提出确定性策略梯度(Deterministic Policy Gradient,DPG)算法,2016年Google DeepMind[24]提出A3C方法。

2.2 强化学习方法分类

求解强化学习问题的方法分为基于值、基于策略以及基于值与基于策略相结合的方法。基于值的方法定义了值函数,根据值函数的大小选择动作;基于策略的方法将策略进行参数化,通过优化参数使策略的累计回报最大。

当移动机器人在复杂未知环境下进行路径规划时,由于初期探索策略存在盲目性,导致强化学习存在收敛速度慢的问题,在机器人训练过程中需要花费大量时间。此外,随着环境复杂度和系统状态维度的增加,需要训练的参数呈指数级增长,因此会消耗大量训练时间和存储空间,最终导致维数灾难[25]。此外,强化学习的可移植性和通用性差,训练过的机器人无法直接在新的环境中按照期望规划移动。

2.2.1 基于值的强化学习方法

基于值的方法主要适用于离散动作空间,目标是通过最大化每个状态的值函数来得到最优策略。值函数用来衡量当前状态下机器人选择策略的优劣程度。根据自变量的不同,值函数可以分为状态值函数V(s)和状态-动作对值函数Q(s, a),如式(2)和式(3)所示:

$ {V}^{\pi }\left(s\right)={E}_{\pi }\left[\sum\limits _{t=0}^{\rm{\infty }}{\gamma }^{t}r({S}_{t},{a}_{t})|{S}_{0}=S\right] $ (2) $ {Q}^{\pi }({s}_{t},{a}_{t})=r({s}_{t},{a}_{t})+\gamma {V}^{\pi }\left({s}_{t+1}\right) $ (3)

从式(2)和式(3)可知:状态值函数是某状态下的奖励反馈值,状态-动作对值函数是状态-动作对下的奖励反馈值,因此只需最大化值函数就可达成最终奖励最大化。基于值的方法主要包括TD[14]、Q-Learning[18]、SARSA[19]、Dyna[26]等方法。

1)TD算法

TD算法是一类无模型的强化学习算法,从环境中取样并学习当前值函数的估计过程,原理为通过借助时间的差分误差来更新值函数,误差计算公式和值函数更新公式分别如式(4)和式(5)所示:

$ {\delta }_{t}={r}_{t+1}+\gamma V\left({s}_{t+1}\right)-V\left({s}_{t}\right) $ (4) $ V\left({s}_{t}\right)\leftarrow V\left({s}_{t}\right)+\alpha {\delta }_{t} $ (5)

其中:α为学习率。

TD算法基于蒙特卡罗思想和动态规划思想,可直接学习初始体验,无需环境动态模型,同时基于学习更新,需等待最终学习结果。NAIR等[27]提出一种针对静态障碍物路径规划和避障的修正时序差分算法,降低了TD算法的计算复杂度。MARTIN等[28]将时序差分算法的更新过程简化为高斯回归过程,提高了机器人在海洋环境的路径规划中的数据处理效率。

2)Q-Learning算法

在TD算法的基础上,WATKINS等[18]提出Q-Learning算法。Q-Learning算法是强化学习发展的里程碑,是基于值的强化学习算法中应用最广泛的算法,也是目前应用于移动机器人路径规划最有效的算法之一。Q-Learning算法属于在线强化学习算法,基本思想为定义一个状态-动作对值函数Q(s, a),将某时刻的数据代入式(6)和式(7)中更新值函数Q(s, a)。

$ Q({s}_{t},{a}_{t})={Q}_{t}({s}_{t},{a}_{t})+{\alpha }_{t}{\delta }_{t} $ (6) $ {\delta }_{t}={r}_{t+1}+\gamma\; {\rm{m}\rm{a}\rm{x}}_{a\text{'}}{Q}_{t}({s}_{t+1},a\text{'})-Q({s}_{t},{a}_{t}) $ (7)

其中:at为学习率;δt为误差;a'为状态st+1执行的动作。

Q-Learning算法采用离线策略(off-policy)来产生动作,根据该动作与环境的交互得到的下一个状态及奖励来学习得到另一个最优的Q(s, a)。目前,关于Q-Learning算法的改进是学者们研究的重点方向,主要包括以下4个方面:

(1)引入启发式思想。启发式思想通常是对某一训练环节进行趋势性启发以提高学习效率。启发式搜索策略具有较强的搜索能力,LI等[29]在改进的Q-Learning算法中引入了启发式搜索策略来加快学习过程,通过限制方向角的变化范围,缩小搜索空间。刘智斌等[30]利用shaping函数参与Q表的更新,对Q-Learning的趋势性进行启发,大幅提高收敛效率。JIANG等[31]提出一种基于经验重放和启发式知识的深度Q-Learning算法来实现智能机器人的路径规划。一方面,启发式知识可以指导机器人的动作选择,减少智能机器人系统中的随机性;另一方面,启发式知识提高了神经网络的训练效率,使其可以更快地收敛到最优的行动策略。

(2)引入分层思想。分层强化学习[32]致力于将一个大规模问题分解为若干个子问题,以分而治之的思想逐个解决,分层思想可以很好地解决传统强化学习中的维数灾难问题。刘智斌等[30]提出的基于BP神经网络的双层启发式强化学习算法,引入了双层强化学习模型:第一层为定量层,通过Q-Learning算法训练得到精确结果;第二层为定性层,具有较好的泛化能力,提供大方向上的预见。BUITRAGO-MARTINEZ等[33]提出一种基于选择的双层Q-Learning学习方法:第一层用来训练机器人的基本行为且每一种行为在训练阶段相互独立;第二层通过训练机器人并协调这些基本行为来解决路径规划问题。刘志荣等[34]建立双层网络结构,使用Q-target神经网络来计算目标Q值,减少了目标状态对当前状态的依赖,大幅提高了收敛效率。

(3)引入模糊逻辑思想[35]。在生活中的许多概念都具有模糊性,如远和近、快和慢等,模糊逻辑用隶属度取代布尔数值来标识程度,在人工智能领域起到了重要的作用。LUVIANO等[36]将模糊逻辑应用于连续时间的多智能机器人路径规划中进行以下改进:①模糊量化状态空间;②将模糊逻辑与WoLF-PHC[37]算法结合,使Q函数通过模糊状态空间进行分离;③将模糊Q-Iteration模型用于智能体的次优策略,解决了传统Q-Learning算法的维数灾难问题。WEN等[38]在优化的Q-Learning算法基础上提出模糊Q-Learning(Fuzzy Q-Learning,FQL)算法并将其应用于路径规划的避障问题,进一步提高了训练的收敛速度。葛媛等[39]提出一种基于模糊RBF网络的Q-Learning算法,使模糊神经系统具有自适应性,对未知动态环境中移动机器人的自主路径规划具有一定的应用价值。

(4)多算法结合思想。一个单独的路径规划算法在实际应用中或多或少都存在一定的缺陷,设计新的算法难度大,因此可通过多种算法的结合来解决问题。除上述三大类的改进思路外,学者们还将Q-Learning与其他类型的算法相结合进行优化。朴松昊等[40]用遗传算法初步规划出全局最优路径,并结合Q-Learning算法实现机器人的避障行为,两种算法取长补短,满足了路径规划的高实时性要求。MEERZA等[41]提出一种基于Q-Learning和粒子群优化的路径规划算法,利用PSO改进Q表的迭代,在速度和精度上相比单独使用这两种算法性能更优。SHI等[42]将Q-Learning算法与蚁群算法中的信息素机制进行融合,机器人之间通过信息素进行信息交换,解决了多智能体路径规划中的信息共享问题,并且在Q值的作用下,机器人做出状态更新和决策选择。YAO等[43]在Q-Learning算法的基础上,结合人工势场法,以黑洞势场为环境,使机器人在没有先验知识的情况下可跳出局部最优解。LIU等[44]将RRT与Q-Learning算法进行结合,提出一种基于Q-Learning的分区启发式RRT算法,利用Q-Learning改进奖励函数,获得全局最优路径,此算法可以获得更平滑的结果,并且提高了搜索和避障的能力。为解决Q-Learning奖励函数定义宽泛导致学习效率低下的问题,王子强等[45]提出一种基于详细回报分类的Q-Learning算法,根据移动机器人与障碍物间的距离,对每个时刻机器人获得的奖励值分配安全等级,使机器人学习过程的安全等级更高,选择的路径更合理。

3)SARSA算法

SARSA算法与Q-Learning算法相似,也是一种在线强化学习算法。区别在于SARSA算法采用在线策略(on-policy),迭代的是Q(s, a)的实际值,误差计算公式如下:

$ {\delta }_{t}={r}_{t+1}+\gamma {Q}_{t}({s}_{t+1},{a}_{t+1})-Q({s}_{t},{a}_{t}) $ (8)

由式(8)可知:SARSA值函数Q(s, a)的更新涉及到(s, a, r, st+1, at+1)这5个部分,它们构成了该算法的名字SARSA。

在机器学习中,若智能体在线学习且注重学习期间所获奖励,则SARSA算法的适用性会更强。SARSA算法是单步更新算法,即SARSA(0)。在获得奖励后,仅更新上一步状态和动作对应的Q值,但每一步得到的奖励都会影响最终得到的奖励,因此将此算法优化为多步更新的SARSA算法,即SARSA(λ)。ZOU等[46]针对复杂动态环境提出一种基于SARSA(λ)优化的RRT路径规划算法,通过该优化可增加扩展点时的选择并减少无效节点数,从而提高算法性能。XU等[47]通过SOM神经网络获得位置信息并产生R值,再使用SARSA(λ)并基于产生的R值来更新Q值,从而使路径规划更加精准高效。FATHINEZHAD等[48]提出监督模糊SARSA学习算法,将监督学习和强化学习的优点相结合,训练找出每个模糊规则的最佳动作,通过模糊SARSA学习在线微调模糊控制结论部分的参数,减少了学习时间和训练失败次数。

SARSA算法与Q-Learning算法有相同点但又有所区别,这两种算法的相同点包括:(1)在TD算法的基础上改进;(2)使用ε-greedy选择新的动作;(3)均为在线强化学习算法。这两种算法的区别包括:(1)Q-Learning算法使用off-policy,迭代内容为Q(s, a)的最大值;(2)SARSA算法使用on-policy,迭代内容为Q(s, a)的实际值。

4)Dyna算法

Dyna算法并不是一个具体的强化学习算法,而是一类算法框架的总称。将基于模型的强化学习和与模型无关的强化学习相结合,既从模型中学习,也从与环境交互的经验中学习,从而进行函数更新。DABOONI等[49]利用直接启发式动态规划(Heuristic Dynamic Programming,HDP)改进Dyna算法,采用HDP策略学习构造Dyna-agent,并提出一种新的在线规划学习算法Dyna-HDP,可以更快得到近似最优路径,并具有一定的稳定性。VIET等[50]将移动机器人的学习过程分为两阶段:第一阶段通过Dyna-Q算法加速获取最优策略,并训练机器人躲避障碍物;第二阶段训练机器人获得平滑的路径。该方法能够有效解决障碍物密集的未知环境下移动机器人的路径规划问题。HWANG等[51]将一种基于树的自适应模型学习方法与Dyna-Q算法相结合,利用模型训练产生的经验加速迭代,训练效率得到明显提升。

2.2.2 基于策略的强化学习方法

基于策略的方法通过直接优化策略得到最优策略。基于策略的方法主要包括策略梯度(Policy Gradient,PG)[52]、模仿学习(Imitation Learning,IL)[53]等方法。

1)策略梯度法

策略梯度法是基于策略的算法中最基础的一种算法[52],基本思路为通过逼近策略来得到最优策略。策略梯度法分为确定性策略梯度法和随机性策略梯度法(Stochastic Policy Gradient,SPG)。在确定性策略梯度法中,动作被执行的概率为1,而在随机性策略梯度法中,动作以某概率被执行。与随机性策略梯度法相比,确定性策略梯度法在连续动作空间求解问题中性能更好。假设需要逼近的策略是π(s, a; θ),策略π对参数θ可导,定义目标函数和值函数如式(9)和式(10)所示。从初始状态s0开始,依据策略πθ选取动作的分布状态如式(11)所示。根据式(9)~式(11)得到的策略梯度公式如式(12)所示。

$ J\left({\pi }_{\theta }\right)=E\left[\sum\limits _{t=1}^{\rm{\infty }}{\gamma }^{t-1}{r}_{t}|{s}_{0},{\pi }_{\theta }\right] $ (9) $ {Q}^{{\pi }_{\theta }}(s,a)=E\left[\sum\limits _{k=1}^{\rm{\infty }}{\gamma }^{k-1}{r}_{t+k}|{s}_{t}=s,{a}_{t}=a,{\pi }_{\theta }\right] $ (10) $ {d}^{{\pi }_{\theta }}\left(s\right)=\sum\limits _{t=1}^{\rm{\infty }}{\gamma }^{t}P({s}_{t}=s|{s}_{0},{\pi }_{\theta }) $ (11) $ {\nabla }_{\theta }J\left({\pi }_{\theta }\right)=\sum\limits _{s}{d}^{{\pi }_{\theta }}\left(s\right)\sum\limits _{a}{\nabla }_{\theta }{\pi }_{\theta }(s,a){Q}^{{\pi }_{\theta }}(s,a) $ (12)

LIU等[54]以学习曲线理论为基础,构造经验池容量变化函数,在传统深度确定性策略梯度法(Deep Deterministic Policy Gradient,DDPG)中加入学习曲线,从而实时调整回放缓冲容量,改进后的算法奖励值更高,学习能力更强。PAUL等[55]将DDPG算法应用于机械臂的路径规划中,即应用于连续动作空间,使用该方法进行训练,简化了学习步骤并提高了成功率。ZHENG等[56]提出一种改进的多智能体深度确定性策略梯度法(Improved Multi-Agent Deep Deterministic Policy Gradient,IMADDPG),通过增加平均场网络(Mean Field Network,MFN)最大化智能体的返回值,使所有的智能体在训练时能最大限度地提高协作性,最终可求解全局最优路径。

2)模仿学习法

与策略梯度法相同,模仿学习也是一种直接策略搜索方法。模仿学习的基本原理是从示范者提供的范例中进行学习,示范者一般提供人类专家的决策数据,通过模仿专家行为得到与专家近似的策略。

在线性假设下,反馈信号可由一组确定基函数φ1, φ2, …, φk线性组合而成,因此策略的价值可表示如下:

$ \begin{array}{l}{E}_{{s}_{0}\sim D}\left[{V}^{\pi }\right({s}_{0}\left)\right]=E\left[\sum\limits _{\rm{t}=0}^{\rm{\infty }}{\gamma }^{t}\varphi \left({s}_{t}\right)|\pi \right]=\\ E\left[\sum\limits _{t=0}^{\rm{\infty }}{\gamma }^{t}\omega \varphi \left({s}_{t}\right)|\pi \right]=\omega E\left[\sum\limits _{t=0}^{\rm{\infty }}{\gamma }^{t}\varphi \left({s}_{t}\right)|\pi \right]\end{array} $ (13)

若有策略π的特征期望满足${\left[ {\mu \left( \pi \right) - {\omega ^t}{\mu _E}} \right]_2} \le \varepsilon $时式(14)成立,则该策略π是模仿学习法的一个解。

$ \begin{array}{l}\left|E\left[\sum\limits _{t=0}^{\rm{\infty }}{\gamma }^{t}R\left({s}_{t}\right)|{\pi }_{E}\right]-E\left[\sum\limits _{t=0}^{\rm{\infty }}{\gamma }^{t}R\left({s}_{t}\right)|\pi \right]\right|=\\ \left|{\omega }^{t}\mu \right(\pi )-{\omega }^{t}{\mu }_{E}|\le \left|\omega {|}_{2}\right|\mu \left(\pi \right)-{\mu }_{E}|\le \varepsilon \end{array} $ (14)

以上求解过程与通过计算积累奖励值获得最优策略的直接学习方法有本质区别。在多步决策中,基于积累奖励值的学习方法存在搜索空间过大、计算成本过高的问题,模仿学习法能够很好地解决多步决策中的这些问题。PFEIFFER等[57]将模仿学习与强化学习结合起来进行模型训练,通过模仿学习的目标驱动演示,可以显著提高强化学习过程中的探索能力,同时在避障方面也显现出较好的性能。HUSSEIN等[58]提出一种深度模仿学习方法来学习三维环境中的路径规划任务,利用主动学习对监督策略进行改进,以便将其推广到未知的动态环境中。传统的模仿学习不支持一个模型学习多个任务,XU等[59]提出共享多头模仿学习(Shared Multi-headed Imitation Learning,SMIL),使移动机器人在不同模型切换的情况中,使用一个模型学习多个任务。该方法将每个任务建模为子策略,并设计一个多头策略激活所有的子策略,以学习相关任务的共享信息。

2.2.3 基于值和策略相结合的强化学习方法

Actor-Critic算法[60]将基于值的算法和基于策略的算法的优点相融合,相比传统策略梯度法效率更高,是一种性能较好的强化学习算法。Actor-Critic算法分为Actor和Critic两个部分,其中,Actor由策略梯度法衍生而来,Critic由基于值的算法衍生而来。该算法的原理为:Actor根据概率选择行动,Critic为选择的行动反馈奖励,Actor再根据Critic的反馈修改选择行动的概率。Actor策略函数的参数更新公式如下:

$ \theta =\theta +\alpha {\nabla }_{\theta }{\rm{l}\rm{o}\rm{g}}_{a}{\pi }_{\theta }({s}_{t},{a}_{t})Q(s,a,\omega ) $ (15)

使用均方差损失函数来更新Critic的网络参数ω:

$ \omega =\sum (r+\gamma V(s\text{'})-V{(s,\omega ))}^{2} $ (16)

MUSE等[61]将Actor-Critic框架用于与平台无关的移动机器人路径规划任务中,使不同机器人平台的功能具有一定的可移植性,并用于新型机器人平台的快速原型设计。LACHEKHAB等[62]提出一种模糊Actor-Critic学习算法(Fuzzy Actor-Critic Learning Algorithm,FACL),使用基于模糊逻辑的控制器控制机器人从起点到终点的路径规划,并在模糊规则中基于概率选择机器人的下一行动,因此可在已知环境下较好地完成路径规划任务。SHAO等[63]提出一种基于广义优势估计(Generalized Advantage Estimator,GAE)的Actor-Critic算法,使智能体可以从多个过程中进行学习以节约训练时间,并利用GAE估计优势函数减少方差,从而提高了策略梯度的估计精度。

2.3 强化学习方法的局限性

虽然基于值的强化学习方法收敛速度快、学习效率高,但存在以下局限性:

1)当动作空间是连续动作空间时,如果采用基于值的方法,需要对动作空间离散化,进而会导致连续空间到离散空间指数级的映射,从而产生维数灾难问题。

2)由基于值的方法最终得到的是一个确定性的策略,而最优策略可能是随机的,此时值函数法不适用。

3)值函数的一个微小的变动通常会导致一个原本被选择的动作反而不能被选择,这种变化会影响算法的收敛性。

与基于值的方法不同,基于策略的方法适用于高维或连续动作空间,并具有更好的收敛性,但也存在以下局限性:

1)需要完全序列样本才可以做算法迭代,训练慢、方差高,在多数情况下没有基于值的方法有效。

2)优化的梯度方向可能不是策略梯度的最优方向,因此易收敛到局部最优解,而非最优策略。

3)移动机器人的路径规划通常应用在离散动作空间中,基于策略的算法优势并不能显现出来,因此目前基于策略的算法在移动机器人路径规划上的应用较少。

表 2给出了强化学习方法的代表方法、特点和优劣势对比结果。

表 2 (Table 2) 表 2 强化学习方法的代表方法、特点和优劣势对比 Table 2 Comparison of representative methods, characteristics and advantages and disadvantages of reinforcement learning methods 强化学习方法 代表方法 特点 优势 劣势 基于值的方法 TD 属于无模型的强化学习方法 1.结合动态规划和蒙特卡罗思想; 2.为后续算法的基础算法 应用效果一般 Q-Learning 1.采用贪心策略; 2.采用off-policy,使用目标策略选取动作; 3.属于在线强化学习方法 1.所需参数少; 2.探索性强,注重获得最优结果时更适用; 3.采用贪心策略,可保证收敛性 1.收敛速度慢; 2.可能会导致维数灾难 SARSA 1.采用贪心策略; 2.采用on-policy,使用行为策略选取动作; 3.属于在线强化学习方法 1.利用性强,注重获得的奖励时更适用; 2.采用贪心策略,可保证收敛性 收敛速度慢 Dyna 1.为一类算法框架的总称; 2.结合基于模型和无模型的强化学习 建立环境模型代替真实环境,迭代虚拟样本函数值,实现实时学习规划 收敛速度慢 基于策略的方法 策略梯度法 对收益期望求梯度,沿梯度方向优化策略 适用于三维动作空间 1.需要全部的序列样本才能迭代参数; 2.易陷入局部最优解 模仿学习法 从专家决策中学习得到最终最优决策 在多步决策中应用效果更好 1.误差积累; 2.分布不匹配 基于值与策略相结合的方法 Actor-Critic算法 1.Actor衍生于策略梯度法,Critic衍生于基于值的强化学习算法; 2.可以进行单步更新 相比传统的策略梯度法效率更高 容易产生局部最优解 下载CSV 表 2 强化学习方法的代表方法、特点和优劣势对比 Table 2 Comparison of representative methods, characteristics and advantages and disadvantages of reinforcement learning methods 3 基于深度强化学习的路径规划技术 3.1 深度强化学习与路径规划

强化学习的最终目的是通过最大化奖励值来获得最优策略,具有较强的决策能力。在越来越复杂的现实场景应用中,需要利用深度学习从原始大规模数据中提取高级特征,深度学习具有较强的感知能力,但缺乏一定的决策能力。深度强化学习[64](Deep Reinforcement Learning,DRL)将强化学习的决策能力与深度学习的感知能力相结合,可以直接根据输入的信息进行控制,是一种更加接近人类思维的人工智能方法。

2013年,谷歌的人工智能研究团队DeepMind[65]将Q-Learning算法与卷积神经网络相结合,创新性地提出深度Q网络(Deep Q-Network,DQN)。DQN基础模型为一个卷积神经网络,并使用Q-Learning的变体进行训练。DQN对Q-Learning主要做了以下改进:

1)用卷积神经网络替代状态-动作对值函数Q(s, a)。具体地,使用参数为θi的值函数Q(s, a; θi),迭代i次后的损失函数表示如下:

$ {L}_{i}\left({\theta }_{i}\right)={E}_{s,a,r,s\text{'}}\left[\right({Y}_{i}-Q(s,a;{\theta }_{i}{\left)\right)}^{2}] $ (17)

其中:Yi近似表示值函数的优化目标。Yi的计算公式如下:

$ {Y}_{i}=r+\gamma \;{\rm{m}\rm{a}\rm{x}}_{a\text{'}}Q(s\text{'},a;{\theta }^{-}) $ (18)

在学习过程中通过θi更新θ-,具体学习过程为对θi求偏导得到梯度:

$ \begin{array}{l}{\nabla }_{{\theta }_{i}}{L}_{i}\left({\theta }_{i}\right)={E}_{s,a,r,s\text{'}}\left[\right(r+\gamma \;{\rm{m}\rm{a}\rm{x}}_{a\text{'}}Q(s\text{'},a;{\theta }^{-})-\\ Q(s,a;{\theta }_{i})\left){\nabla }_{{\theta }_{i}}Q\right(s,a;{\theta }_{i}\left)\right]\end{array} $ (19)

2)使用经验回放技术。在每个时间步t时,存储智能体的经验样本et=(st,at,rt,st+1)到回放记忆单元D={e1,e2,…,et}中,通过重复采样历史数据增加样本使用率,可有效避免学习时参数震荡。

3)随机小批量从记忆单元D中取样。由于样本之间相关性高,因此直接从连续样本中学习是低效的,随机小批量取样降低了样本间的关联性,从而提升了算法的稳定性。

为更有效地将深度强化学习方法应用于路径规划,学者们尝试了许多改进思路。TAI等[66]针对没有障碍物地图和距离信息稀疏的情况,提出一个基于学习的无地图运动规划器,以稀疏的10维测距结果和目标相对于移动机器人坐标系的位置作为输入,连续转向命令作为输出,通过异步深度强化学习方法训练规划器,使训练和样本收集可以并行执行。该方法在极端复杂的环境中具有更好的稳定性。王珂等[67]基于深度强化学习提出一种基于最小深度信息选择的训练模式,通过运动学方程约束,优化状态空间的搜索与采集,提高了训练速率。李辉等[68]将深度卷积神经网络的特征提取能力与强化学习的决策能力相结合,提出一种基于深度强化学习的改进算法,该算法用近似值函数代替Q-Learning中的动作值函数,设计包含4层结构的深度卷积神经网络,以网络的输出代替传统的Q值表,解决了Q-Learning在状态空间较大时产生的维数灾难问题。

3.2 深度强化学习方法的局限性

目前,深度强化学习方法存在以下3个方面的局限性:

1)深度强化学习理论支撑不够。谷歌的DeepMind团队于2015年在《自然》杂志上发表的文章[69]虽然取得了较好的应用效果,但没有证明DQN的收敛性,并且到目前为止在DQN或其他深度强化学习方法的基础上的改进工作也没有很好地解决该问题。

2)样本采样率低。样本采样率低使得深度强化学习方法有时在实际应用中效果不佳。导致该问题的主要原因有两个:一是完成任务需要收集大量数据;二是训练过程中利用当前数据的有用信息效率低。

3)在连续动作空间中应用有限。目前主流的深度强化学习方法大多适用于离散动作空间,对于机器人的机械臂路径规划等连续动作空间[70]的任务还处于初步研究阶段,理论支撑不够,因此应用十分有限。

3.3 强化学习与深度强化学习的异同

强化学习通常使用马尔可夫决策过程进行描述,具体而言:机器处在一个环境中,每个状态为机器对当前环境的感知;机器只能通过动作来影响环境,在机器执行一个动作后,会使当前环境按某种概率转移到另一个状态;当前环境会根据潜在的奖赏函数反馈给机器一个奖赏。

深度强化学习是深度学习与强化学习的结合,具体而言是结合了深度学习的结构和强化学习的思想,但它的侧重点更多在强化学习上,解决的仍是决策问题,只是借助神经网络强大的表征能力拟合Q表或直接拟合策略以解决状态-动作空间过大或连续状态-动作空间问题。

4 基于强化学习的路径规划技术展望

虽然移动机器人路径规划技术已取得了大量的科研成果,并广泛地应用于实际场景中,但随着移动机器人应用领域的扩大和应用场景的复杂化,从目前的发展现状和未来的发展需求来看,基于强化学习方法的路径规划技术的下一步研究方向主要包括以下4个方面:

1)设计有效的奖励函数。强化学习通过最大化奖励值来获得最优策略,那么策略是否最优取决于奖励函数。现阶段奖励函数由专家学者凭借专业知识设计,面对路径规划领域日益复杂多变的应用环境,不合理的奖励函数也会使得到的最优策略不合理。有学者提出元学习(Meta Learning,ML)等方式,让智能体尝试在面对环境或任务变换的情况下,从合理的策略中不断完善奖励函数。因此,设计有效的奖励函数是未来发展的热点之一。

2)解决强化学习的探索-利用困境。一方面,探索的目的是通过不断探索新的环境信息来获得更高的奖励值,以此避免陷入局部最优解。另一方面,利用探索是指用已学习到的信息来选择奖励值最高的动作。探索-利用的困境即使得探索信息与利用信息两者之间得到平衡,目前常用的解决方法为ε-greedy算法[69]。该算法的基本原理是使智能体以ε为概率随机探索信息,并以1-ε为概率利用信息,通过不断的学习,ε会不断衰减以保证后期的学习效率。ε-greedy算法简单易实现,但随机探索效率低,因此如何解决强化学习的探索-利用困境有待进一步研究。

3)研究强化学习方法与常规方法的结合方法。每种强化学习方法在路径规划应用中都存在自身局限性,为了弥补单一方法的不足,通过不同方法之间相互结合的优势互补可以得到一些性能更好的方法,如传统路径规划算法、图形学算法、智能仿生学算法以及强化学习算法之间的有效结合,相互取长补短后均具有一定的发展前景。

4)将强化学习算法应用于多智能体协作的路径规划研究。多智能体协作路径规划技术具有高灵活性、易部署、高协调性等优点,被广泛应用于机器人双臂协作路径规划、机器人足球赛、多无人机竞速赛等实际场景中。目前,对于单机器人路径规划研究的成果较多,而多机器人协作路径规划的成果相对较少,对应用中出现的碰撞、路径死锁、协调配合、花费代价大等一系列问题有待进一步解决。

5 结束语

本文阐述基于常规方法、强化学习方法及深度强化学习方法的路径规划技术,分类并对比强化学习方法的特点、优劣性及适用场合。针对强化学习方法应用于路径规划技术时存在的局限性,重点研究了将启发式思想、分层思想、模糊逻辑思想及多算法结合思想融入强化学习算法的改进思路。面对未来更加复杂的应用环境,下一步将从设计有效的奖励函数、解决强化学习的探索-利用困境等方面入手,对强化学习在路径规划技术中的应用进行更深入的研究。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3