基于分层深度强化学习模型的机器人行为决策方法及设备与流程

文档序号:32387324发布日期:2022-11-30 06:46阅读:293来源:国知局
基于分层深度强化学习模型的机器人行为决策方法及设备与流程

1.本技术涉及计算机领域,尤其涉及一种基于分层深度强化学习模型的 机器人行为决策方法及设备。


背景技术:

2.现有技术中,随着科技的发展,移动机器人在人类的生产和生活中得 到了越来越广泛的应用,如工业,农业,军事,医疗,家政服务,金融, 太空探索,教育领域等。移动机器人要满足这些不同的任务要求,必须具 备良好的行为决策性能。
3.在不同的机器人行为决策方法中,强化学习由于自学习和动态随机优 化等优点而得到了广泛的应用,如自主车辆的自动驾驶,以及自动驾驶过 程的超车决策,军事物流智能体的学习行为建模,机器人导航与避障,机 器人的声音-视觉注视控制,多机器人路径规划,多机器人系统的任务分配, 机器人装配任务等;有关研究指出,情景记忆中显著事件的提取能比普通 事件有效缩短行为决策过程中的思考时间,表明存储在海马区的显著事件 可以优先传播奖励信息,允许决策者更快地学习动作策略。
4.随着深度学习算法的发展,深度强化学习算法应运而生,并在移动机 器人行为决策中获得越来越多的应用,如自主运动车辆的驾驶规划和车辆 跟随,攻防对抗任务中多自主水下车辆的协同行为决策,小型无人机的避 障,自主车辆的在线轨迹规划,多协作智能体的协调行为,自主水面车辆 的路径跟随和避障,多智能体任务分配,自主水面水下车辆的目标跟踪, 无人空中车辆群的多目标跟踪,双足机器人的鲁棒运动控制等。
5.随着机器人要处理的任务越来越复杂,分层强化学习思想在移动机器 人自主行为决策领域逐步得到应用,如自主车辆的路线和调度决策,用于 疾病诊断的知识注入式上下文驱动的对话智能体的行为决策,智能体连续 导航过程中子目标的确定,智能体的遗忘经历回放,智能车辆的自主决策 与运动规划,自主车辆的轨迹与行为规划等。
6.这些强化学习算法虽然在各自的研究对象上取得了一定的成功,但对 移动机器人行为决策的研究仍然欠缺,已有的行为决策方法相对比较简 单。若机器人在环境交互过程中没有得到奖励,样本对强化学习的贡献会 非常小。直接使用稀疏奖励样本用于机器人学习将导致迭代过程变慢甚至 导致强化学习算法难以收敛。
7.因此,研究如何解决稀疏奖励带来的负面影响,如学习率低,环境学 习性能差等,对提高强化学习的学习速度和策略有重要作用。


技术实现要素:

8.本技术的一个目的是提供一种基于分层深度强化学习模型的机器人行 为决策方法及设备,以解决现有技术中移动机器人环境交互过程中存在的 稀疏奖励带来的学习率低,环境学习性能差等问题。
9.根据本技术的一个方面,提供了一种基于分层深度强化学习模型的机 器人行为决策方法,包括:
10.获取当前状态信息和目标任务;
11.构建分层深度强化学习模型,所述分层深度强化学习模型包括顶层模块 和底层模块,顶层模块包括决策管理网络和目标导向管理机制;底层模块包 括降维网络、奖励处理机制和深度q网络;
12.基于目标任务将所述当前状态信息输入至所述底层模块中得到行为决策 并执行;
13.获取所述下一时刻状态信息,并将所述当前状态信息以及下一时刻状态 信息输入所述降维网络中后并与所述当前状态信息对应的行为决策拼接得到 当前状态转移序列,所述顶层模块基于所述当前状态转移序列得到奖励预测 值;
14.重复上述步骤直至机器人发生撞击,获取本回合得分以及完成本回合的 目标任务之前的所有回合得分,将所有回合得分输入管理目标导向机制得到 奖励增益值,利用所有所述奖励预测值和奖励增益值不断训练所述分层深度 强化学习模型,得到优化学习后的所述分层深度强化学习模型。
15.进一步地,上述基于分层深度强化学习模型的机器人行为决策方法中, 所述构建分层深度强化学习模型包括构建降维网络,所述降维网络包括三个 子网,所述每个子网包括一个卷积层、一个激活函数和一个池化层;
16.所述三个子网顺序串联接入全连接神经网络中并引入tanh激活函数。
17.进一步地,上述基于分层深度强化学习模型的机器人行为决策方法中, 所述获取所述下一时刻状态信息,并将所述当前状态信息以及下一时刻状态 信息输入所述降维网络中后并与所述当前状态信息对应的行为决策拼接得到 当前状态转移序列,包括:
18.将所述当前状态信息输入所述降维网络中得到当前低维特征信息;
19.将所述下一时刻状态信息输入所述降维网络中得到下一时刻低维特征信 息;
20.将所述当前状态信息对应的行为决策与当前低维特征信息和下一时刻低 维特征信息拼接输出当前状态转移序列。
21.进一步地,上述基于分层深度强化学习模型的机器人行为决策方法中, 所述重复上述步骤直至机器人发生撞击,获取本回合得分以及完成本回合的 目标任务之前的所有回合得分,将所有回合得分输入管理目标导向机制得到 奖励增益值,利用所有所述奖励预测值和奖励增益值不断训练所述分层深度 强化学习模型,得到优化学习后的所述分层深度强化学习模型,包括:
22.将所述当前状态转移序列输入所述决策管理网络得到奖励预测值;
23.执行所述行为决策后获取环境奖励信号;
24.重复上述步骤直至机器人发生撞击,获取本回合得分以及完成本回合的 目标任务之前的所有回合得分,将所有回合得分输入管理目标导向机制得到 奖励增益值;
25.将得到的所有状态转移序列、奖励预测值、奖励增益值、环境奖励信号 放入经验池中储存并更新;
26.利用经验池中的数据不断训练所述分层深度强化学习模型,得到优化学 习后的所述分层深度强化学习模型。
27.进一步地,上述基于分层深度强化学习模型的机器人行为决策方法中, 利用经验池中的数据不断训练所述分层深度强化学习模型,得到优化学习后 的所述分层深度强化
学习模型,包括:
28.利用所述经验池中的所有所述状态转移序列、奖励预测值以及环境奖励 信号共同做损失函数,通过反向传播优化所述决策管理网络的参数;
29.从所述经验池中利用状态转移序列得到的奖励预测值、奖励增益值训练 优化深度q网络得到优化学习后的所述分层深度强化学习模型。
30.根据本技术的另一方面,还提供了一种计算机可读介质,其上存储有 计算机可读指令,所述计算机可读指令可被处理器执行时,使所述处理器实 现如上述任一项所述的方法。
31.根据本技术的另一方面,还提供了一种基于分层深度强化学习模型的 机器人行为决策设备,该设备包括:
32.一个或多个处理器;
33.计算机可读介质,用于存储一个或多个计算机可读指令,
34.当所述一个或多个计算机可读指令被所述一个或多个处理器执行,使得 所述一个或多个处理器实现如上述中任一项所述的方法。
35.与现有技术相比,本技术首先,获取当前状态信息和目标任务;然后, 构建分层深度强化学习模型,所述分层深度强化学习模型包括顶层模块和 底层模块,顶层模块包括决策管理网络和目标导向管理机制;底层模块包 括降维网络、奖励处理机制和深度q网络;接着,基于目标任务将所述当 前状态信息输入至所述底层模块中得到行为决策并执行。然后,获取所述 下一时刻状态信息,并将所述当前状态信息对应的行为决策、所述当前状 态信息以及下一时刻状态信息输入所述降维网络中得到当前状态转移序 列,所述顶层模块基于所述当前状态转移序列得到奖励预测值;最后,重 复上述步骤直至机器人发生撞击,获取本回合得分以及完成本回合的目标 任务之前的所有回合得分,将所有回合得分输入管理目标导向机制得到奖 励增益值,利用所有所述奖励预测值和奖励增益值不断训练所述分层深度 强化学习模型,得到优化学习后的所述分层深度强化学习模型。即通过模 拟人脑的分层组织机理,提出了一个解决机器人稀疏奖励问题的深度分层强 化学习模型,该模型包括顶层模块和底层模块两部分。在机器人环境认知的 过程中,当其处于稀疏奖励的环境中时,上层模块根据智能体与环境的交互 情况,为底层模块设定子目标,同时,上层模块可以感知环境并预测智能体 的状态转移。此外,预测奖励和奖励增益被添加到该深度分层强化学习模型 中来加速底层模块的学习速度,在底层模块中,设计了一个降维网络来编码 和映射状态信息,因此,该深度分层强化学习模型可以有效解决智能体的稀 疏奖励问题。
附图说明
36.通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申 请的其它特征、目的和优点将会变得更明显:
37.图1示出根据本技术一个方面的一种基于分层深度强化学习模型的机 器人行为决策方法流程示意图;
38.图2示出根据本技术一个方面的一种基于分层深度强化学习模型的结 构示意图;
39.图3示出根据本技术一个方面的一种基于分层深度强化学习模型中降 维网络结
构示意图;
40.图4示出根据本技术一个方面的一种基于分层深度强化学习模型的机器人行为决策方法的一应用场景的累计分数图;
41.图5示出根据本技术一个方面的一种基于分层深度强化学习模型的机器人行为决策方法的一应用场景的dqn平均网络训练误差变化图。
42.附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
43.下面结合附图对本技术作进一步详细描述。
44.在本技术一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(例如中央处理器(centralprocessingunit,cpu)、输入/输出接口、网络接口和内存。
45.内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(randomaccessmemory,ram)和/或非易失性内存等形式,如只读存储器(readonlymemory,rom)或闪存(flashram)。内存是计算机可读介质的示例。
46.计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(phase-changeram,pram)、静态随机存取存储器(staticrandomaccessmemory,sram)、动态随机存取存储器(dynamicrandomaccessmemory,dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(electricallyerasableprogrammableread-onlymemory,eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(compactdiscread-onlymemory,cd-rom)、数字多功能光盘(digitalversatiledisk,dvd)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitorymedia),如调制的数据信号和载波。
47.图1示出根据本技术一个方面的一种基于分层深度强化学习模型的机器人行为决策方法流程示意图,该方法适用于移动机器人的各种运动场景,该方法包括步骤s11、步骤s12、步骤s13、步骤s14以及步骤s15,其中具体包括:
48.步骤s11,获取当前状态信息和目标任务;
49.步骤s12,构建分层深度强化学习模型,所述分层深度强化学习模型包括顶层模块和底层模块,顶层模块包括决策管理网络(decision-managingnetwork,dmn)和目标导向管理机制(goal-directedmanagingmechanism,gdmm);底层模块包括降维网络(reductionnetwork,rn)、奖励处理机制和深度q网络(deepqnetwork,dqn);
50.步骤s13,基于目标任务将所述当前状态信息输入至所述底层模块中得到行为决策并执行。
51.步骤s14,获取所述下一时刻状态信息,并将所述当前状态信息以及下一时刻状态信息输入所述降维网络中后并与所述当前状态信息对应的行为决策拼接得到当前状态转移序列,所述顶层模块基于所述当前状态转移序列得到奖励预测值;
52.步骤s15,重复上述步骤直至机器人发生撞击,获取本回合得分以及 完成本回合的目标任务之前的所有回合得分,将所有回合得分输入管理目 标导向机制得到奖励增益值,利用所有所述奖励预测值和奖励增益值不断 训练所述分层深度强化学习模型,得到优化学习后的所述分层深度强化学 习模型。
53.上述步骤s11至步骤s15,首先,获取当前状态信息和目标任务;然后, 构建分层深度强化学习模型,所述分层深度强化学习模型包括顶层模块和 底层模块,顶层模块包括决策管理网络和目标导向管理机制;底层模块包 括降维网络、奖励处理机制和深度q网络,如图2所示;接着,基于目标 任务将所述当前状态信息输入至所述底层模块中得到行为决策并执行。然 后,获取所述下一时刻状态信息,并将所述当前状态信息对应的行为决策、 所述当前状态信息以及下一时刻状态信息输入所述降维网络中得到当前 状态转移序列,所述顶层模块基于所述当前状态转移序列得到奖励预测 值;最后,重复上述步骤直至机器人发生撞击,获取本回合得分以及完成 本回合的目标任务之前的所有回合得分,将所有回合得分输入管理目标导 向机制得到奖励增益值,利用所有所述奖励预测值和奖励增益值不断训练 所述分层深度强化学习模型,得到优化学习后的所述分层深度强化学习模 型。即通过模拟人脑的分层组织机理,提出了一个解决机器人稀疏奖励问题 的深度分层强化学习模型,该模型包括顶层模块和底层模块两部分。在机器 人环境认知的过程中,当其处于稀疏奖励的环境中时,上层模块根据智能体 与环境的交互情况,为底层模块设定子目标,同时,上层模块可以感知环境 并预测智能体的状态转移。此外,预测奖励和奖励增益被添加到该深度分层 强化学习模型中来加速底层模块的学习速度,在底层模块中,设计了一个降 维网络来编码和映射状态信息,因此,该深度分层强化学习模型可以有效解 决智能体的稀疏奖励问题。
54.例如,本发明的一应用场景,atari里面的skiing游戏。skiing游戏的场 景属于典型的稀疏奖励环境。这个游戏需要玩家控制虚拟人物(即机器人) 滑雪躲避树丛、石块等障碍物。得分由虚拟人物的滑雪时间决定,滑雪时间 越长,说明虚拟人物避开障碍物的次数越多,此回合的得分就越高。首先, 获取当前状态信息s
t
和目标任务v;
55.然后,构建分层深度强化学习模型m,该发明通过模拟人脑的分层组 织机理,提出了一个解决机器人稀疏奖励问题的深度分层强化学习模型,该 模型包括顶层模块和底层模块两部分。在机器人环境认知的过程中,当其处 于稀疏奖励的环境中时,上层模块根据智能体与环境的交互情况,为底层模 块设定子目标,同时,上层模块可以感知环境并预测智能体的状态转移。所 述分层深度强化学习模型m包括顶层模块和底层模块,顶层模块包括决 策管理网络和目标导向管理机制;底层模块包括降维网络、奖励处理机制 和深度q网络,在此,在底层模块中设计了一个降维网络来编码和映射状态 信息使得深度分层强化学习模型可以有效解决智能体的稀疏奖励问题。如图 2所示,dmn是一个具有记忆功能的模型,输入的是经过降维网络处 理后的当前状态信息采取的动作a
t
和经过降维网络处理后的下 一状态即状态转移序列输出的是顶层模块预测的 奖励r
t*
,这个值代表了顶层模块对底层模块状态转移的响应信号,也代表 了顶层模块对底层模块当前时刻的状态转移的评价。顶层模块的另一个部 分是gdmm,它受到人脑分层架构工作原理的启发,用来处理为底层模 块制定子目标、评价底层模块子目标执行的情
况等工作。gdmm的工作 是收集、分析历次回合结束时的得分sc,当底层模块在当前回合结束的得 分sc比之前的任何记录都高,顶层模块就给底层模块的rpm发出奖励增 益r
epbuff
,作用于训练过程和下一回合,从而间接地向底层模块的dqn参 数更新提供目标导向。
56.接着,基于目标任务将所述当前状态信息输入至所述底层模块中得到 行为决策a
t
并执行。然后,底层模块获取所述下一时刻状态信息s
t+1
,并 将所述当前状态信息对应的行为决策a
t
、所述当前状态信息s
t
以及下一时 刻状态信息s
t+1
输入所述降维网络中得到当前状态转移序列前状态转移序列所述顶层模块基于所述当前状态转移序列得到奖 励预测值r
t*
;最后,重复上述步骤直至机器人发生撞击,获取本回合得分 以及完成本回合的目标任务之前的所有回合得分sc1,sc2,...,ssc
ep
,将所有回合 得分输入管理目标导向机制得到奖励增益值r
epbuff
,利用所有所述奖励预测 值{r
t*
}(t=1,2,3t)和奖励增益值r
epbuff
不断训练所述分层深度强化学习 模型,得到优化学习后的所述分层深度强化学习模型。即预测奖励和奖励 增益被添加到该深度分层强化学习模型中来加速底层模块的学习速度。
57.进一步地,所述步骤s12构建分层深度强化学习模型中包括构建降维 网络,所述降维网络包括三个子网,所述每个子网包括一个卷积层、一个 激活函数和一个池化层;
58.所述三个子网顺序串联接入全连接神经网络中并引入tanh激活函数。
59.例如,如图3所示,所述降维网络包括三个子网,所述每个子网包括 一个卷积层、一个激活函数和一个池化层;卷积核的大小是20
×
20;激活 函数选择relu激活函数;池化层选择最大值池化。三个子网顺序串联后 接入全连接网络中。全连接神经网络的数量是2,随后使用tanh激活函数。 状态信息s
t
经过rn输出一维210个元素的向量φ(st)。降维网络里面所有 的权值参数都是由均值为0、方差为0.5的正态分布采样得到,每层网络 独立采样。即使用一系列神经网络构造降维网络(reduction network,rn), 实现高维信息到低维信息的编码映射,从而使得深度分层强化学习模型可 以有效解决智能体的稀疏奖励问题。
60.接着上述实施例,所述步骤s14中获取所述下一时刻状态信息,并将所 述当前状态信息以及下一时刻状态信息输入所述降维网络中后并与所述当前 状态信息对应的行为决策拼接得到当前状态转移序列,包括:
61.将所述当前状态信息输入所述降维网络中得到当前低维特征信息
62.将所述下一时刻状态信息输入所述降维网络中得到下一时刻低维特征信 息
63.将所述当前状态信息对应的行为决策a
t
与当前低维特征信息和下一 时刻低维特征信息拼接输出当前状态转移序列实现高 维信息到低维信息的编码映射,有利于接下来的模型训练过程。
64.接着上述实施例,所述步骤s15中重复上述步骤直至机器人发生撞击, 获取本回合得分以及完成本回合的目标任务之前的所有回合得分,将所有回 合得分输入管理目标导向机制得到奖励增益值,利用所有所述奖励预测值和 奖励增益值不断训练所述分层深度强化学习模型,得到优化学习后的所述分 层深度强化学习模型,包括:
65.将所述当前状态转移序列输入所述决策管理网络得到奖励预测值;
66.执行所述行为决策后获取环境奖励信号;在此,环境反馈的环境奖励信 号不是最终的系统总奖励r。系统总奖励r是由来自环境的奖励信号r
t
、顶 层模块dmn的预测奖励r
t*
和gdmm的奖励增益r
epbuff
共同组成,且系统总 奖励在rpm中合成。在当前时刻下系统总奖励rt公式所示。最终的系统总 奖励rt参与深度q网络的参数更新。
[0067][0068]
重复上述步骤直至机器人发生撞击,获取本回合得分以及完成本回合的 目标任务之前的所有回合得分,将所有回合得分输入管理目标导向机制得到 奖励增益值;在此,在gdmm中,初始化增益为0;超参数bufftime设定 为0.2;
[0069][0070]
将得到的所有状态转移序列、奖励预测值、奖励增益值、环境奖励信号 放入经验池中储存并更新;
[0071]
利用经验池中的数据不断训练所述分层深度强化学习模型,得到优化学 习后的所述分层深度强化学习模型。
[0072]
接着上述实施例,利用经验池中的数据不断训练所述分层深度强化学习 模型,得到优化学习后的所述分层深度强化学习模型,包括:
[0073]
利用所述经验池中的所有所述状态转移序列、奖励预测值以及环境奖励 信号共同做损失函数,通过反向传播优化所述决策管理网络的参数;在此, dmn网络包含具有两层循环神经网络(recurrent neural network,rnn)的 lstm模型和全连接神经网络。全连接神经网络后连接relu激活函数。训 练时,选择使用均方根计算损失函数;选择adam算法做参数优化器,学习 率设为0.01。
[0074]st+1
=env(s
t
,a
t
)
[0075][0076][0077]
θ1=θ1+optimizer(l(θ1))
[0078]
对于分层架构的人脑而言,更多地是先制定明确的目标,再通过不断地 试错积累经验,逐步实现目标并得出最佳步骤。目标导向的试错过程,相比 于非目标导向试错过程,在任务进行时,在保证随机性不改变的情况下,模 型对环境的探索更具有主观能动性。
[0079]
从所述经验池中利用状态转移序列得到的奖励预测值、奖励增益值训练 优化深度q网络得到优化学习后的所述分层深度强化学习模型。
[0080]
在此,底层模块的深度q网络与其他深度强化学习类似,都是对当前状 态采取动作进行值评估。本模型的深度q网络也存在经验回放过程和目标网 络两个特征。网络被分成两个子网,一部分是评估网络(q evaluate network, qen),另一部分是目标网络(q target network,qtn),两个网络采用相 同的结构,且记评估网络的模型参数为θ2。在本模型中,动作输出a
t
由如下 公式表示,使用ε-greedy算法解决“探索-利用”平衡问题。
[0081]
[0082]
其中:probability—产生的随机数;
[0083]
ε—在ε-greedy算法中的参数,具体范围在0.7~0.9之间。s
t
表示智能体在 t时刻的状态,π表示智能体所用的动作策略。q
eval
表示所评估的q值。
[0084]
深度q网络训练时的损失函数表示如下,其中lossfunc表示损失函数的 类型,loss表示在训练时产生的误差值。
[0085][0086]
loss=lossfunc(q
target-q
eval
)
[0087]
其中q
target
表示目标q值,r表示奖励值,γ为折扣因子。
[0088]
在深度q网络中,qen和qtn使用完全相同的全连接神经网络结构, 中间层的神经元数量设为40。每层独立采用标准差为0.1的正态分布初始化 权值。用于处理“探索-利用”平衡问题的ε设为0.7。经验池的大小设为2000; 训练时从经验池随机抽取32条数据进行训练。qtn参数每隔100次从qen 中更新一次。折扣因子γ设为0.9。训练时,选择使用均方根计算损失函数, 选择adam算法做参数优化器,学习率设为0.01。
[0089]
另外,在训练时产生的误差值loss具有如下关系。
[0090][0091]
其中n
batch
表示在一次训练中抽取的一批(batch)状态转移序列的条数, i表示这一批(batch)的第i条状态转移序列。
[0092]
从如上公式不难看出,当环境处于稀疏环境中,智能体在回合中没有达 到gdmm所设定的目标(最坏情况)时,由于r
t*
仍然存在,因此还有“能 力”去训练网络,从不等式中还可以看出,利用状态转移序列得到的两种增 广奖励信号和网络最大值一步更新策略,可以适当提高网络训练误差值,提 高稀疏环境下智能体的学习能力。rmp接受环境反馈奖励信号r
t
、预测奖励 r
t*
和奖励增益r
epbuff
,输出系统总奖励rt,并将状态转移序列和奖励r
t
送至经验池中存储并更新原有内容。在本回合结束后,经验池抽样 信息被送至深度q网络和dmn进行参数训练。训练结束后,本回合结束, gdmm收集本回合的得分sc并进行下一回合奖励增益计算。当回合数达到 阈值时,本轮任务结束。
[0093]
本发明的一实施例中,skiing游戏的场景属于典型的稀疏奖励环境。这 个游戏需要玩家控制虚拟人物(即智能体)滑雪躲避树丛、石块等障碍物。 得分由虚拟人物的滑雪时间决定,滑雪时间越长,说明虚拟人物避开障碍物 的次数越多,此回合的得分就越高。按照等时间间隔从游戏中抽取帧,将帧 带入计算模型,并输出动作操纵虚拟人物。因此滑雪时间可以转化成控制虚 拟人物滑雪动作的次数。滑雪时间越长,动作执行次数越多而没发生碰撞, 游戏的得分就越高。在一轮多回合中,当玩家控制的虚拟人物发生碰撞时, 游戏终
止,此回合结束,虚拟人物保持模型参数回到起点并开始新的回合。
[0094]
这个环境中,动作集的元素个数是3,即虚拟人物具有向左、向右和前 进三个动作。状态空间就是这个游戏场景,状态st表示t时刻的游戏帧,每 帧画面都是宽160像素、高210像素的rgb图片。当游戏帧输入到计算模型 中,它是一个210*160*3的矩阵。
[0095]
参数设置如下:
[0096]
在降维网络里,一个卷积层、一个激活函数和一个池化层构成了一个子 网。卷积核的大小是20*20;激活函数选择relu型函数;池化层选择最大 值池化。三个子网顺序串联后接入2个全连接网络中。全连接神经网络的数 量是2,2个全连接神经网络串联,每个全连接神经网路后面使用tanh激活函 数。状态信息st经过降维网络rn输出一维210个元素的向量φ(st)。降维网 络里面所有的权值参数都是由均值为0、方差为0.5的正态分布采样得到。每 层网络独立采样。
[0097]
dmn网络包含具有两层循环神经网络(rnn)的lstm和1层全连接 神经网络。全连接神经网络后使用relu型激活函数。训练时,使用均方根 计算损失函数;选择adam算法做参数优化器,学习率设为0.01。
[0098]
在gdmm中,初始化增益为0;超参数bufftime设定为0.2;
[0099]
在深度q网络中,qen和qtn使用完全相同的全连接神经网络结构, 中间层的神经元数量设为40。每层独立采用标准差为0.1的正态分布初始化 权值。用于处理“探索-利用”平衡问题的ε设为0.7。经验池的大小设为2000; 训练时从经验池中随机抽取32条数据进行训练。qtn参数每隔100次从qen 中更新一次。折扣因子γ设为0.9。训练时,使用均方根计算损失函数,选择 adam算法做参数优化器,学习率设为0.01。
[0100]
每个实验以50回合为1轮,共执行10轮。模型运行时,使用的cpu是 intel core i5,使用的gpu是nvidia geforce rtx 2080 ti,使用python语 言实现。
[0101]
将本技术的模型与原始dqn、double dqn(ddqn)、actor-critic(ac) 和noisynet(nn)算法进行比较,在skiing环境中运行10轮,每轮50回 合,同样记录动作执行数量n
epr
和dqn网络训练误差值e
epr
。ac算法训 练actor时,选择使用均方根计算损失函数;选择adam算法做参数优化 器,学习率取0.01。noisynet采用为网络的每一层增加高斯噪声网络的方 法。
[0102]
图4展示了在10轮每轮50回合的游戏中actor-critic(ac)、doubledqn(ddqn)、dqn和noisynet(nn)四种算法的累计分数图。四 种算法的snep变化趋势分别用snep-ac,snep-ddqn,snep-dqn和 snep-nn表示在图4中,阴影表示每个回合累计成绩的分布,分布的上边 界是各个模型的maxnep变化趋势,而下边界则是minnep变化趋势。为 了增强对比性,我们将申请提出的模型的验证试验的snep变化趋势也绘 制在图中。从图4可以看出,四种算法在任务进行时snep,,maxnep和 minnep都在逐步提升,且四种算法的增长趋势相似,其maxnep和minnep 曲线都比较接近即数值差距不大。但是与本技术提出的算法相比,这四种 算法的增长速度均较慢,即达到累计分数超过10的5次方的数值条件下, 四种算法所需要的回合数都比本文提出的算法多。
[0103]
图5表示任务执行中四种算法和本文提出的算法的底层模块 dqn网络训练误差对比图。图中黑色虚线表示本技术提出算法的 se
ep
变化趋势图,其数值都与验证试验一致;而其余线条分别表示 四种算法se
ep
变化趋势图(分别用seep-ac,seep-ddqn,seep-dqn 和
seep-nn表示)。
[0104]
从图5可以看出,seep-nn和seep-dqn在50回合内保持相对平稳, 但是有若干次网络误差训练值较大(具体是noisynet:8次而dqn:6次), 这说明对这两算法而言网络误差在连续50回合内没有波动下降。对于 double dqn算法,其seep-ddqn从第41回合开始有逐步加大的趋势, 说明在这样的任务下,该算法难以达到性能要求。对于ac算法而言,其 seep-ac从第30回合开始呈现震荡式下降状态,说明该算法在任务进行 中有能力将误差下降但是需要更多的回合。这四种算法跟黑色虚线代表的 本发明提出算法相比,其网络训练能力均低于本发明提出的算法。
[0105]
对于dqn模型,在稀疏环境下正值奖励数量少、分布稀疏,智能体 获得正值奖励比较困难,导致状态价值和动作价值更新缓慢,因此智能体 难以学习。即使ddqn改变了更新策略减少了dqn对动作值的高估,但 是其性能仍然因为稀疏环境的特点而获得较差的表现。noisynet主要是通 过对深度q网络增加噪声网络增加对环境探索的程度。但是稀疏环境正值 奖励数量本身较少,且skiing游戏具有任务终止时状态不唯一的特点,因 此增加noisynet后获得的有助于智能体学习的状态转移序列部分无较大 变化,因此对智能体的学习影响增进不大。actor-critic在对比的四个模型 内部具有最好的表现,但是这个模型的实验结果仍低于本文提出的模型。 这是因为actor-critic模型中,actor以critic为参照而学习,而critic以 智能体在环境中的累计期望奖励为参照而学习。稀疏环境影响了累计期望 奖励,从而影响了critic,进而影响了以它为参照的actor的学习。因此 稀疏环境的特点造成了actor和critic的性能表现都较差。
[0106]
上述数据和分析均表明,在skiing游戏这类稀疏奖励环境中,本专利 提出的算法的执行性能优于其他四种算法。
[0107]
根据本技术的另一个方面,还提供了一种计算机可读介质,其上存储有 计算机可读指令,所述计算机可读指令可被处理器执行时,使所述处理器实 现如上述控制用户对垒方法。
[0108]
根据本技术的另一个方面,还提供了一种机器人行为决策设备,其特征 在于,该设备包括:
[0109]
一个或多个处理器;
[0110]
计算机可读介质,用于存储一个或多个计算机可读指令,
[0111]
当所述一个或多个计算机可读指令被所述一个或多个处理器执行,使得 所述一个或多个处理器实现如上述在设备上控制用户对垒方法。
[0112]
在此,所述设备的各实施例的详细内容,具体可参见上述设备端的控制 用户对垒方法实施例的对应部分,在此,不再赘述。
[0113]
综上所述,通过模拟人脑的分层组织机理,提出了一个解决机器人稀疏 奖励问题的深度分层强化学习模型,该模型包括顶层模块和底层模块两部分。 在机器人环境认知的过程中,当其处于稀疏奖励的环境中时,上层模块根据 智能体与环境的交互情况,为底层模块设定子目标,同时,上层模块可以感 知环境并预测智能体的状态转移。此外,预测奖励和奖励增益被添加到该深 度分层强化学习模型中来加速底层模块的学习速度,在底层模块中,设计了 一个降维网络来编码和映射状态信息,因此,该深度分层强化学习模型可以 有效解决智能体的稀疏奖励问题。
[0114]
需要注意的是,本技术可在软件和/或软件与硬件的组合体中被实施,例 如,可采用专用集成电路(asic)、通用目的计算机或任何其他类似硬件设 备来实现。在一个实施例中,本技术的软件程序可以通过处理器执行以实现 上文所述步骤或功能。同样地,本技术的软件程序(包括相关的数据结构) 可以被存储到计算机可读记录介质中,例如,ram存储器,磁或光驱动器或 软磁盘及类似设备。另外,本技术的一些步骤或功能可采用硬件来实现,例 如,作为与处理器配合从而执行各个步骤或功能的电路。
[0115]
另外,本技术的一部分可被应用为计算机程序产品,例如计算机程序 指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据 本技术的方法和/或技术方案。而调用本技术的方法的程序指令,可能被存 储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中 的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的 工作存储器中。在此,根据本技术的一个实施例包括一个装置,该装置包 括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其 中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根 据本技术的多个实施例的方法和/或技术方案。
[0116]
对于本领域技术人员而言,显然本技术不限于上述示范性实施例的细 节,而且在不背离本技术的精神或基本特征的情况下,能够以其他的具体 形式实现本技术。因此,无论从哪一点来看,均应将实施例看作是示范性 的,而且是非限制性的,本技术的范围由所附权利要求而不是上述说明限 定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括 在本技术内。不应将权利要求中的任何附图标记视为限制所涉及的权利要 求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装 置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件 或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定 的顺序。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1