一种集装箱区垂直布置的双自动化场桥动态调度方法与流程

文档序号:24132031发布日期:2021-03-02 18:34阅读:376来源:国知局
一种集装箱区垂直布置的双自动化场桥动态调度方法与流程

[0001]
本发明涉及一种场桥调度方法,具体涉及一种集装箱区垂直布置的双自动化场桥动态调度方法。


背景技术:

[0002]
随着国际经济一体化进程的不断推进,各国之间的贸易往来变得愈来愈频繁,港口货物吞吐量也与日俱增。与此同时,为满足更大的货物承运需求,集装箱船舶不断向大型化方向发展,近年来已经有多艘2万标准箱以上的集装箱船舶投入使用。在海运货物吞吐量与日俱增以及船舶大型化的双重趋势下,提升港口码头的作业效率和服务水平以匹配各方需求已经成为了亟需解决的重要问题。堆场作为码头作业的核心区域,是提升码头整体作业效率重要的瓶颈环节。实现码头堆场作业设备的优化调度,对加速车船周转、降低运营成本、提升码头整体运营能力具有十分重要的作用。
[0003]
自动化集装箱码头堆场可采用垂直岸线或平行岸线布置两种形式,其中垂直岸线布置形式具有水平运输车辆搬运箱距离短,容易实现自动化与非自动化作业区分离等优点,近年来被广泛采用。垂直布置的集装箱堆场箱区的海、陆两端分别设置海、陆侧集装箱交接点,堆场自身以物理隔离的形式将两侧的车辆分流。每个箱区内通常布置两台不可穿越的自动化龙门起重机,分别负责海陆两侧各自的作业任务。两台场桥需保证一定的安全作业距离。场桥作业过程中存在多种动态不确定性因素,比如车辆到达的动态不确定性等。如何适应场桥作业的动态不确定环境,对场桥进行动态优化调度,以提升堆场作业效率,是该领域的技术难点问题。
[0004]
深度强化学习算法是一种新型的智能算法,解决了传统强化学习算法受状态动作维度限制而难以应对复杂环境的问题。它利用深度学习网络强大的非线性拟合能力逼近状态-动作价值函数,通过强化学习思想与动态环境的不断交互学习以实现优化决策,是解决大规模的动态决策问题的有效方式,目前已经在梯控管理、流水车间调度、微电网储能调度等诸多领域得到了成功应用。目前解决集装箱码头堆场箱区垂直岸线布置的自动化场桥调度问题主要通过以下三种方式:
[0005]
(1)基于运筹学和智能算法的离线调度。该类方法通常假定作业任务的信息已知且通常是静态的,依据堆场实际作业过程的约束条件建立数学模型,并通过遗传算法、模拟退火算法、蚁群算法等进行数学模型的求解,得到固定任务序列的优化排序;该类方法针对静态问题的求解精度相对较高,但计算时间通常较长。该类方法属于离线调度范畴。
[0006]
(2)基于启发式规则的在线调度。该类方法通常设定启发式规则进行动态的场桥调度,在场桥完成上一任务后,依据设定的启发式策略进行后续的任务选择。常见的调度策略有:最近策略、先到先服务策略、最短时间策略、最小翻箱量策略以及组合策略等。通过设定的启发式规则动态地确定场桥下一作业任务。该类方法属于在线调度范畴。
[0007]
(3)基于贪婪算法和近似改进算法的滚动调度。该类方法通过拆分决策过程或引入滚动时间窗来缩小调度任务的搜索空间,借助贪婪性搜索算法或改进遗传算法等进行求
解。该类方法能够在可接受的时间内获得调度解,并随着时间的推移,滚动更新后续时间窗内的作业调度解。该类方法可以依据动态环境变化进行多次重调度,能够在一定程度上适应场桥调度的动态不确定因素变化。
[0008]
对于基于运筹学和诸多智能算法的离线调度方法,通常假设任务序列已知并在此基础上求解最优解或近似最优解,求解精度通常较高。但是,该类方法的求解是基于确定的任务序列等静态条件假设,而实际堆场作业中经常需要面对任务延误、车辆阻塞、外集卡随机抵达等不确定因素的干扰,具有显著的动态性,该类方法难于适应堆场调度的动态响应需求,实际应用受到很大限制。对于基于启发式规则的在线调度,通常计算量较小,调度系统可以针对实时信息,依据预先设定的规则选择动作,响应实时动态任务需求和环境变化。但是,该类方法需要基于先验的调度知识经验进行启发式规则和策略的设计,调度效果很大程度上取决于先验知识经验,人为因素影响大;并且由于堆场双场桥协同调度问题涉及任务次序、场桥协同作业等多种复杂因素,启发式规则设计难度大,该类方法调度精度通常较低。对于基于贪婪算法和近似改进算法的滚动调度,引入滚动调度的思想,可响应堆场双场桥作业的动态不确定调度环境,但是该方法属于局部近似最优调度,并且该方法每次滚动都需要舍弃上一滚动求解的非执行窗口部分方案,影响实际优化调度效果;此外,滚动周期也需要考虑计算消耗,不能过于频繁,不利于动态因素响应。


技术实现要素:

[0009]
为解决动态环境下垂直岸线式布局的码头堆场双自动化场桥的动态调度问题,本申请通过双自动化场桥动态调度的自适应学习方法实现智能调度,提高堆场自动化场桥的作业效率,减少作业任务等待时间。
[0010]
为实现上述目的,本申请的技术方案为:一种集装箱区垂直布置的双自动化场桥动态调度方法,在训练学习阶段包括场桥调度agent的深度置信神经网络dbn无监督学习步骤、场桥调度agent的深度置信神经网络dbn有监督学习步骤;在自适应调度应用阶段包括场桥调度agent的动作选择与自适应学习步骤。
[0011]
所述场桥调度agent的深度置信神经网络dbn无监督学习步骤,包括:
[0012]
基于集装箱码头实际作业记录数据,获得无监督训练样本集j1,所述样本集j1由场桥调度agent的环境状态向量<s>组成;
[0013]
构建场桥调度agent的深度置信神经网络dbn;
[0014]
利用样本集j1无监督训练dbn的第1层受限玻尔兹曼机rbm网络参数θ1;
[0015]
利用训练后的rbm网络生成下一层rbm网络训练样本集j
i+1
,并对下一层rbm网络参数进行无监督训练,直至dbn所有隐含层rbm网络无监督训练完毕。
[0016]
所述场桥调度agent的深度置信神经网络dbn有监督学习步骤,包括:
[0017]
将无监督训练后的dbn复制两份,分别称为动作dbn和目标dbn,其网络参数向量分别表示为θ和θ';动作dbn用于训练场桥调度agent动作的选择,其网络参数θ根据小批量训练样本进行学习更新;目标dbn用于存储之前的学习参数并生成动作dbn训练样本标签值,其网络参数θ'根据动作dbn的参数θ进行柔性更新;
[0018]
dbn有监督学习初始时,其经验回放样本池为空,场桥调度agent依据动作探索利用策略选择当前场桥作业环境状态s下的动作a
+

[0019]
依据场桥执行动作a
+
后环境返回的立即回报r和下一环境状态s'计算获得样本标签值q
a
,并构造有监督学习样本<s,a
+
,q
a
>;
[0020]
若有监督经验回放样本池中的样本量小于容量上限,则将学习样本<s,a
+
,q
a
>加入样本池;否则,用学习样本<s,a
+
,q
a
>随机替换样本池中的一个旧样本;重复进行有监督学习,直至满足动作dbn更新条件;
[0021]
从经验回放样本池中随机选取小批量学习样本<s,a
+
,q
a
>,依据损失函数计算小批量样本集的误差损失值,并利用梯度下降法反向更新动作dbn的网络参数θ;
[0022]
用动作dbn的网络参数θ更新目标dbn网络参数θ';重复进行上述dbn有监督学习,直至满足迭代次数要求。
[0023]
所述场桥调度agent动作选择与自适应学习步骤,包括:
[0024]
经过训练的场桥调度agent接收到环境发来的场桥动作指令请求,场桥调度agent依据最优动作选择策略和当前场桥的环境状态s选择最优的场桥动作a
*

[0025]
依据执行场桥动作a
*
后环境返回的立即回报r和场桥的下一环境状态s'计算获取q
a
,并构造场桥调度agent有监督学习样本<s,a
*
,q
a
>;
[0026]
根据损失函数获取当前样本的误差损失值,并利用梯度下降算法反向更新场桥调度agent的动作dbn的网络参数θ;
[0027]
场桥调度agent的动作dbn网络参数θ每更新一定次数后,利用所述动作dbn网络参数θ更新一次目标dbn网络参数θ'。
[0028]
进一步的,环境状态特征变量包括:堆取箱任务相关和场桥相关的两类特征量;所述堆取箱任务相关的状态特征量包括:任务类型特征量x1,任务到达时刻特征量x2,堆取箱目标位置特征量x3,关联翻箱特征量x4;场桥相关的状态特征量包括:场桥当前位置特征量y1,对侧场桥当前位置特征量y2,对侧场桥目标位置特征量y3;所述环境状态特征变量具体描述如下:
[0029]
任务类型特征量x1,表示任务类型,取箱时为0,堆箱时为1;
[0030]
任务到达时刻特征量x2,表示待装卸任务车辆到达堆场交接区,等待装卸的开始时刻特征;其取值公式为:
[0031]
其中i-和i
+
为度量参数,取5~10倍的场桥完成单作业任务的平均消耗时间;
[0032]
堆取箱目标位置特征量x3,表示场桥堆取目标箱所在的位置(贝位),陆侧场桥agent的特征量x3的取值为目标箱所在贝位与陆侧交接区之间的贝位数比上箱区总的贝位数;海侧场桥agent的特征量x3的取值为目标箱所在贝位与海侧交接区之间的贝位数比上箱区总的贝位数;其取值范围为0~1。
[0033]
关联翻箱特征量x4,表示堆取箱任务执行所关联的翻箱量特征,指提取任务目标箱时所需要翻倒的阻碍箱的箱量,取值集合为{0,1/4,1/2,3/4,1},其值依次表示:不需要翻箱、需要1个翻箱、2个翻箱、3个翻箱、4个及以上翻箱;
[0034]
场桥当前位置特征量y1,表示当前场桥自身所在位置(贝位),陆侧场桥agent的特
征量y1的取值为陆侧场桥所在贝位与陆侧交接区之间的贝位数比上箱区总的贝位数;海侧场桥agent的特征量y1的取值为海侧场桥所在贝位与海侧交接区之间的贝位数比上箱区总的贝位数;其取值范围为0~1。
[0035]
对侧场桥当前位置特征量y2,表示对侧场桥当前所在位置(贝位),其中海侧场桥与陆侧场桥互为对侧场桥;特征量y2与y1的计算方法相同;其取值范围为0~1。
[0036]
对侧场桥目标位置特征量y3,表示对侧场桥当前执行任务的目标位置(贝位),特征量y3与y1的计算方法相同;其取值范围为0~1。此外,当对侧场桥为空闲状态时,特征量y3取值也为0。
[0037]
进一步的,所述场桥调度agent的环境状态向量由4n
t
+3个特征变量组成,其中n
t
指所考虑任务的总数,即:(考虑y1,y2,y3);n
t
的取值为5~15。场桥调度agent的环境状态向量的可能状态用s表示,所有可能状态s组成状态集合s。
[0038]
进一步的,所述立即回报r为:
[0039][0040]
φ
c
为等待场桥作业的车辆任务集合,其中不包括场桥正在执行的任务;φ'
c
为场桥执行当前动作堆取集装箱任务期间新到达的待作业车辆任务集合;t
a
为场桥执行当前动作堆取集装箱任务所消耗的总时间,包括场桥移动、箱区内堆取箱和交接区装卸车辆时间,单位为分钟;t
i
为到场桥执行完当前动作时为止,任务i的等待时间,单位为分钟;t
m
为超长等待时间阈值,可根据码头的服务水平选定,单位为分钟;α为任务超长等待时间的附加惩罚权重值,根据码头的服务水平选定;max(
·
,
·
)为两者中取较大的值。
[0041]
进一步的,所述深度置信神经网络dbn,包括输入层、隐含层和输出层,输入层有4n
t
+3个节点,分别对应n
t
个任务的4n
t
个状态特征量和3个场桥状态特征量,其中n
t
为所考虑任务的总数;输出层为正数节点,共7个,分别对应7个备选动作评价代表值输出。
[0042]
更进一步的,网络参数θ'根据动作dbn的参数θ进行柔性更新,公式为:
[0043]
θ'=β
×
θ+(1-β)
×
θ'
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0044]
其中:β为柔性更新参数,取值为0.7~0.9。
[0045]
更进一步的,损失函数为:
[0046]
l(θ)=e[(q
a-q(s,a;θ))2]
ꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0047]
其中:q(s,a;θ)为网络参数θ条件下输入状态s对应动作a的输出值;q
a
为状态s对应动作a的样本标签值(备选动作a的评价代表值)。
[0048]
更进一步的,所述备选动作包括:
[0049]
a1:待派场桥从备选任务中选择最早到达的任务执行;
[0050]
a2:待派场桥从备选任务中选择场桥行驶(空载+负载)距离最短的任务执行;若有多个,则从中选择到达最早的任务执行;
[0051]
a3:待派场桥从备选任务中选择场桥空驶距离最短的任务执行;若有多个,则从中选择到达最早的任务执行;
[0052]
a4:待派场桥从备选任务中选择目标位置距离本场桥交接区最远的任务执行;若有多个,则从中选择到达最早的任务执行;
[0053]
a5:待派场桥从备选任务中选择不跨越对侧场桥当前作业目标位置的任务执行;若有多个,则从中选择到达最早的任务执行;
[0054]
a6:待派场桥从备选任务中选择任务完成时间最短的任务执行,其中任务完成时间=场桥行驶时间+堆取箱作业时间+关联翻箱时间;若有多个,则从中选择到达最早的任务执行;
[0055]
a7:待派场桥从备选任务中选择关联翻箱量最大的任务执行;若有多个,则从中选择到达最早的任务执行;
[0056]
备选动作集合a由上述7个动作策略组成,即集合a={a1,a2,a3,a4,a5,a6,a7}。
[0057]
作为更进一步的,获取q
a
具体方式为:
[0058][0059]
其中,r和s'分别为状态s下所选动作a执行之后的立即回报值和下一状态;θ'为目标dbn网络的参数;q(s',a';θ')为目标dbn网络参数θ'下输入状态s'对应动作a'的输出值;γ为折扣因子,优选取值为0.5~0.8。
[0060]
作为更进一步的,所述动作探索利用策略在环境状态s下,选取动作a
+
的公式为:
[0061][0062]
其中,rand(a|s)表示当前状态s下的可行动作集合中随机选择的一个动作;a
*
表示当前状态s下最优动作;k为0至1之间的随机数;ε为动作探索率;
[0063]
状态s下最优动作a
*
的公式为:
[0064][0065]
其中,q(s,α;θ)为当前动作dbn网络参数θ下输入状态s对应动作a的输出值;
[0066]
动作探索率的计算公式为:
[0067][0068]
其中,参数ε0优选取0.5~1.0;参数n
ε
优选取50~200;n
ε
(s)为在训练学习过程中状态s所属的状态类出现的次数,状态类根据状态变量y1,y2和y3进行划分,其中每个状态变量以0.5为界分为两类。
[0069]
本发明与已有的方法,在以下方面存在优势:将箱区垂直岸线布置的堆场双自动化场桥的作业调度问题转化为可执行新任务的场桥(空闲)的任务指派(选择)问题,分别针对海、陆侧场桥构建基于深度强化学习的场桥调度智能体(agent)。场桥调度agent的基本思路是:将强化学习与深度学习结合,利用深度学习的深度置信网络(简称dbn)代替强化学习的状态-动作的价值评估表,通过强化学习进行dbn网络的训练学习,将训练后的dbn用于场桥任务的指派(调度动作的选择)。场桥调度agent可以预先借助堆场作业(物理或模拟)环境进行交互试错的强化学习,训练后的agent可根据场桥作业的动态环境状态信息实时生成场桥的任务指派指令,实现动态环境下的堆场自动化场桥的实时调度。
[0070]
根据集装箱堆场双场桥动态调度的特点,量化了已到达作业任务和即将到达作业
任务的状态特征,还量化了本场桥和对侧场桥的作业状态特征,有助于agent对双场桥协同调度策略的学习,并且提高调度精度减少任务等待。
[0071]
根据集装箱堆场双场桥协同作业和调度规则特点,设计了7个组合启发式动作策略,组成备选动作集合,基于场桥执行当前动作造成的未执行任务等待时间和超长等待惩罚构造了动作执行的立即回报函数,反映了最小化作业任务等待的优化目标。
[0072]
针对场桥调度agent的环境特征向量和备选动作策略集,设计了深度置信网络dbn和双dbn的柔性更新学习机制,改进了dbn参数更新的稳定性。基于分类状态探索的agent学习的动作探索利用策略和经验回放小批量学习策略,有效平衡了状态变量空间的探索,改进了dbn的探索学习效率。
[0073]
通过目标dbn柔性更新参数、折扣因子、探索策略参数等,优化场桥调度agent的训练学习效率和调度精度。
附图说明
[0074]
图1为集装箱码头堆场平面布置示意图;
[0075]
图2为双场桥调度作业示意图;
[0076]
图3为深度置信网络结构示意图;
[0077]
图4为agent训练阶段的学习流程图;
[0078]
图中序号说明:1.集装箱船舶;2.集装箱岸桥;3.码头内部集装箱车辆;4.码头堆场;5.场桥;6.码头外部集装箱车辆。
具体实施方式
[0079]
下面结合附图和具体实施例对本发明作进一步详细的描述:以此为例对本申请做进一步的描述说明。
[0080]
堆场箱区垂直岸线布置是目前自动化集装箱码头最常采用的一种基本布局形式,如图1所示。其基本特点是:集装箱岸桥一侧为集装箱船舶,另一侧为堆场箱区,所述堆场箱区垂直于码头岸线布局,在每个箱区两端分别设置海侧和陆侧交接箱区,海侧交接箱区内有码头内部集装箱车辆,陆侧交接箱区内有码头外部集装箱车辆;箱区内配置双自动化场桥,分别负责海侧和陆侧的堆取作业任务,两台场桥不能相互穿越且需要保持一定的安全作业距离。双自动化场桥调度就是在满足安全作业要求的条件下,安排双场桥完成海、陆两侧堆取集装箱的作业任务,减少任务等待,加速装卸船和车辆在港周转。本申请将双自动化场桥实时动态调度问题转化为可执行任务(空闲)的场桥的任务指派(选择)问题,即:当两台场桥中的任一场桥完成上一指派任务,变成可执行新任务的场桥时,依据场桥当前作业状态,优化分配新任务给场桥(也就是确定场桥的下一动作)。
[0081]
本实施例所公开的一种集装箱区垂直布置的双自动化场桥动态调度方法的优化目标为:最小化海、陆两侧车辆(堆取箱任务)的等待时间,提高堆场作业效率。将双自动化场桥实时动态调度问题转化为可执行新任务的场桥(空闲)的任务指派问题,场桥任务的实时指派所依据的动态信息包括:1)已经到达和即将到达堆场交接区的车辆(任务)的信息,包括车辆到达时间、执行该车辆的堆取箱任务类型(堆箱或取箱),堆取箱任务在箱区的位置(取箱任务位置可根据提取箱的箱号查找确定,堆箱任务位置可根据码头箱位分配规则
或算法提前确定)、执行该车辆任务所需的翻箱量(简称关联翻箱量);2)两台场桥的信息,包括场桥状态(空闲或作业)、场桥当前所在位置和作业目标位置等。
[0082]
如图2所示,针对海、陆侧场桥分别构建深度强化学习的智能体(简称场桥调度agent),进行训练学习和场桥动作选择(调度),本申请所述场桥调度agent的基本思路是:将强化学习与深度学习结合,利用深度学习的深度置信网络(简称dbn)代替强化学习的状态-动作的价值评估表,借助强化学习进行dbn网络的训练学习,将训练后的dbn用于场桥调度(动作选择)。所述场桥调度agent关键技术包括:agent环境状态特征的量化及其可能的状态集合s、备选动作a及其组成的动作集合a、立即回报函数r()、深度置信网络模型、学习样本集构建与学习策略、更新与动作探索策略。在训练学习阶段,场桥调度agent通过与实际(或模拟)场桥作业环境的交互试错(try-and-error)进行强化学习,根据交互的立即回报不断更新状态-动作价值评估的dbn网络参数,直至达到要求。在(自适应)调度应用阶段,场桥调度agent根据动态环境状态选择状态-动作价值评估最小(最优)的动作作为场桥的执行动作(任务),并根据执行动作后的立即回报动态更新状态-动作价值评估的dbn网络参数,实现自适应性调度,具体实现方法如下:
[0083]
一种集装箱区垂直布置的双自动化场桥动态调度方法,在训练学习阶段包括场桥调度agent的深度置信神经网络dbn无监督学习步骤、场桥调度agent的深度置信神经网络dbn有监督学习步骤;在自适应调度应用阶段包括场桥调度agent的动作选择与自适应学习步骤。
[0084]
所述场桥调度agent的深度置信神经网络dbn无监督学习步骤,包括:
[0085]
步骤1.基于集装箱码头实际或模拟仿真作业记录数据,获得无监督训练样本集j1,所述样本集j1由场桥调度agent的环境状态向量<s>组成;
[0086]
具体的,环境状态特征变量包括:堆取箱任务相关和场桥相关的两类特征量;所述堆取箱任务相关的状态特征量包括:任务类型特征量x1,任务到达时刻特征量x2,堆取箱目标位置特征量x3,关联翻箱特征量x4;除考虑已到达的作业任务,还考虑即将到达的作业任务特征信息。场桥相关的状态特征量包括:场桥当前位置特征量y1,对侧场桥当前位置特征量y2,对侧场桥目标位置特征量y3;所述环境状态特征变量具体描述如下:
[0087]
任务类型特征量x1,表示任务类型,取箱时为0,堆箱时为1;
[0088]
任务到达时刻特征量x2,表示待装卸任务车辆到达堆场交接区,等待装卸的开始时刻特征;其取值公式为:
[0089]
其中i-和i
+
为度量参数,取5~10倍的场桥完成单作业任务的平均消耗时间;
[0090]
堆取箱目标位置特征量x3,表示场桥堆取目标箱所在的位置(贝位),陆侧场桥agent的特征量x3的取值为目标箱所在贝位与陆侧交接区之间的贝位数比上箱区总的贝位数;海侧场桥agent的特征量x3的取值为目标箱所在贝位与海侧交接区之间的贝位数比上箱区总的贝位数;其取值范围为0~1。
[0091]
关联翻箱特征量x4,表示堆取箱任务执行所关联的翻箱量特征,指提取任务目标
箱时所需要翻倒的阻碍箱的箱量,取值集合为{0,1/4,1/2,3/4,1},其值依次表示:不需要翻箱、需要1个翻箱、2个翻箱、3个翻箱、4个及以上翻箱;
[0092]
场桥当前位置特征量y1,表示当前场桥自身所在位置(贝位),陆侧场桥agent的特征量y1的取值为陆侧场桥所在贝位与陆侧交接区之间的贝位数比上箱区总的贝位数;海侧场桥agent的特征量y1的取值为海侧场桥所在贝位与海侧交接区之间的贝位数比上箱区总的贝位数;其取值范围为0~1。
[0093]
对侧场桥当前位置特征量y2,表示对侧场桥当前所在位置(贝位),其中海侧场桥与陆侧场桥互为对侧场桥;特征量y2与y1的计算方法相同;其取值范围为0~1。
[0094]
对侧场桥目标位置特征量y3,表示对侧场桥当前执行任务的目标位置(贝位),特征量y3与y1的计算方法相同;其取值范围为0~1。此外,当对侧场桥为空闲状态时,特征量y3取值也为0。
[0095]
场桥调度agent的环境状态向量由4n
t
+3个特征变量组成,其中n
t
指所考虑任务的总数,即:(考虑y1,y2,y3);n
t
的取值为5~15。场桥调度agent的环境状态向量的可能状态用s表示,所有可能状态s组成状态集合s。
[0096]
步骤2.构建场桥调度agent的深度置信神经网络dbn;
[0097]
具体的,场桥调度agent的dbn网络的输入为4n
t
+3维的环境状态向量,dbn网络有7个输出,为场桥调度agent的备选动作评价代表值;
[0098]
所述深度置信神经网络dbn,包括输入层、隐含层和输出层,其中输入层与隐含层、以及隐含层之间是受限玻尔兹曼机(rbm)网络,隐含层与输出层是全连接网络,如图3所示;输入层有4n
t
+3个节点,分别对应n
t
个任务的4n
t
个状态特征量和3个场桥状态特征量,其中n
t
为所考虑任务的总数;隐含层为0~1实数节点,优选3~10层,各层节点数优选逐层递减,例如:4隐含层的网络节点70
×
40
×
20
×
12。输入层和隐含层节点的激活函数为sigmoid函数。输出层为正数节点,共7个,分别对应7个备选动作评价代表值输出,用q
i
表示第i个备选动作的评价代表值,节点激活函数为relu函数。dbn包括无监督和有监督两个学习阶段,先利用rbm对隐含层网络进行逐层无监督学习;再利用随机梯度下降法对网络进行反向有监督学习。
[0099]
所述备选动作可表示为7个组合启发式动作策略,即:
[0100]
a1:待派场桥从备选任务中选择最早到达的任务执行;
[0101]
a2:待派场桥从备选任务中选择场桥行驶(空载+负载)距离最短的任务执行;若有多个,则从中选择到达最早的任务执行;
[0102]
a3:待派场桥从备选任务中选择场桥空驶距离最短的任务执行;若有多个,则从中选择到达最早的任务执行;
[0103]
a4:待派场桥从备选任务中选择目标位置距离本场桥交接区最远的任务执行;若有多个,则从中选择到达最早的任务执行;
[0104]
a5:待派场桥从备选任务中选择不跨越对侧场桥当前作业目标位置的任务执行;若有多个,则从中选择到达最早的任务执行;
[0105]
a6:待派场桥从备选任务中选择任务完成时间最短的任务执行,其中任务完成时间=场桥行驶时间+堆取箱作业时间+关联翻箱时间;若有多个,则从中选择到达最早的任
务执行;
[0106]
a7:待派场桥从备选任务中选择关联翻箱量最大的任务执行;若有多个,则从中选择到达最早的任务执行;
[0107]
备选动作集合a由上述7个动作策略组成,即集合a={a1,a2,a3,a4,a5,a6,a7}。
[0108]
步骤3.利用样本集j1无监督训练dbn的第1层受限玻尔兹曼机rbm网络参数θ1(网络连接权重和偏置量),无监督训练采用对比散度算法;
[0109]
步骤4.利用训练后的rbm网络生成下一层rbm网络训练样本集j
i+1
,并对下一层rbm网络参数进行无监督训练,直至dbn所有隐含层无监督训练完毕。
[0110]
所述场桥调度agent的深度置信神经网络dbn有监督学习步骤,包括:
[0111]
步骤5.将无监督训练后的dbn复制两份,分别称为动作dbn和目标dbn,其网络参数向量分别表示为θ和θ';动作dbn用于训练场桥调度agent动作的选择,其网络参数θ根据小批量训练样本进行学习更新;目标dbn用于存储之前的学习参数并生成动作dbn训练样本标签值,其网络参数θ'根据动作dbn的参数θ进行柔性更新,参数更新公式为:
[0112]
θ'=β
×
θ+(1-β)
×
θ'
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0113]
其中:β为柔性更新参数,优选取值为0.7~0.9。
[0114]
步骤6.dbn有监督学习初始时,其经验回放样本池为空,场桥调度agent依据动作探索利用策略选择当前场桥作业环境状态s下的动作a
+
,具体为:
[0115][0116]
其中,rand(a|s)表示当前状态s下的可行动作集合中随机选择的一个动作;a
*
表示当前状态s下最优动作;k为0至1之间的随机数;ε为动作探索率;
[0117]
状态s下最优动作a
*
的公式为:
[0118][0119]
其中,q(s,a;θ)为当前动作dbn网络参数θ下输入状态s对应动作a的输出值;
[0120]
动作探索率的计算公式为:
[0121][0122]
其中,参数ε0优选取0.5~1.0;参数n
ε
优选取50~200;n
ε
(s)为在训练学习过程中状态s所属的状态类出现的次数,状态类根据状态变量y1,y2和y3进行划分,其中每个状态变量以0.5为界分为两类。
[0123]
步骤7.依据场桥执行动作a
+
后环境返回的立即回报r和下一环境状态s'计算获得q
a
,并构造有监督学习样本<s,a
+
,q
a
>;所述立即回报函数r为:
[0124][0125]
φ
c
为等待场桥作业的车辆任务集合,其中不包括场桥正在执行的任务;φ'
c
为场桥执行当前动作堆取集装箱任务期间新到达的待作业车辆任务集合;t
a
为场桥执行当前动作堆取集装箱任务所消耗的总时间,包括场桥移动、箱区内堆取箱和交接区装卸车辆时间,单位为分钟;t
i
为到场桥执行完当前动作时为止,任务i的等待时间,单位为分钟;t
m
为超长
等待时间阈值,可根据码头的服务水平选定,单位为分钟;α为任务超长等待时间的附加惩罚权重值,根据码头的服务水平选定;max(
·
,
·
)为两者中取较大的值。
[0126]
深度置信网络dbn的学习样本可表示为三元组<s,a,q
a
>,其中,s为执行动作a之前的(4n
t
+3)维环境状态特征向量;a为当前环境状态s下所选的动作;q
a
为状态s对应动作a的样本标签值,可根据状态s下所选动作a执行之后实际(或模拟)环境反馈的立即回报r和下一状态s'进行计算:
[0127][0128]
其中,r和s'分别为状态s下所选动作a执行之后的立即回报值和下一状态;θ'为目标dbn网络的参数;q(s',a';θ')为目标dbn网络参数θ'下输入状态s'对应动作a'的输出值;γ为折扣因子,优选取值为0.5~0.8。
[0129]
步骤8.若有监督经验回放样本池中的样本量小于容量上限,则将学习样本<s,a
+
,q
a
>加入样本池;否则,用学习样本<s,a
+
,q
a
>随机替换样本池中的一个旧样本;重复步骤6~8,直至满足动作dbn更新条件;
[0130]
具体的,设置样本池容量上限为n
s
,当样本池内的样本数达到上限后,新增加的样本将随机替换样本池中的旧样本,保持样本池总容量大小。动作dbn每次有监督学习时,从样本池中随机选取n
c
(小于50)个样本进行小批量学习,优选n
c
取10~20。
[0131]
步骤9.从经验回放样本池中随机选取小批量学习样本<s,a
+
,q
a
>,依据损失函数计算小批量样本集的误差损失值,并利用梯度下降法反向更新动作dbn的网络参数θ;损失函数为:
[0132]
l(θ)=e[(q
a-q(s,a;θ))2]
ꢀꢀꢀꢀꢀꢀꢀ
(3)
[0133]
其中:q(s,a;θ)为网络参数θ条件下输入状态s对应动作a的输出值;q
a
为状态s对应动作a的样本标签值(备选动作a的评价代表值)。
[0134]
步骤10.用动作dbn的网络参数θ更新目标dbn网络参数θ',此处更新方式采用公式(2);重复步骤6~10,直至满足迭代次数要求。
[0135]
所述场桥调度agent的动作选择与自适应学习步骤,包括:
[0136]
步骤1.经过训练的场桥调度agent接收到环境发来的场桥动作指令请求,场桥调度agent依据最优动作选择策略和当前场桥的环境状态s选择最优的场桥动作a
*
;所述最优动作选择策略采用公式(6);
[0137]
步骤2.依据执行场桥动作a
*
后环境返回的立即回报r和场桥的下一环境状态s'计算获取q
a
,并构造场桥调度agent有监督学习样本<s,a
*
,q
a
>;所述获取q
a
方式采用公式(4);
[0138]
步骤3.根据损失函数获取当前样本的误差损失值,并利用梯度下降算法反向更新场桥调度agent的动作dbn的网络参数θ;所述损失函数计算方式采用公式(3);
[0139]
步骤4.场桥调度agent的动作dbn网络参数θ每更新一定次数后,利用所述动作dbn网络参数θ更新一次目标dbn网络参数θ',此处更新方式采用公式(2)。
[0140]
本申请所公开的集装箱堆场双场桥动态调度方法的实施分为训练学习阶段和调度应用阶段。在训练学习阶段,场桥调度agent根据交互试错过程中作业环境反馈的立即回报不断更新状态-动作价值评估的dbn网络参数,进行自主训练学习。在调度应用阶段,经过训练学习的调度agent根据场桥作业实时环境状态选择最优动作作为场桥的执行动作(任
务),并根据执行动作后的立即回报动态更新状态-动作价值评估的dbn网络参数,实现自适应性学习和调度应用。
[0141]
以北方某集装箱码头的堆场资料为背景数据设计了本专利的实验方案。车辆(任务)到达的时间间隔服从负指数分布,海陆两侧作业任务比例为1:1,实验主要参数如表1所示。任务集参数n
t
取10,状态向量为43维,深度置信网络dbn结构为43
×
70
×
40
×
20
×
12
×
7(6层网络),隐含层数l=4。对比散度算法参数k取1,目标dbn的柔性更新公式参数β取0.8,样本标签值计算公式的折扣因子参数γ取0.6,动作探索率参数ε0和n
ε
分别取0.6和50,经验回放样本池容量上限n
s
和小批量学习参数n
c
分别取4000和15,动作dbn训练周期n
b
和目标dbn更新周期n
d
分别取5和10,交互训练迭代次数限值t’取105。
[0142]
表1实验参数
[0143][0144][0145]
实验表明,本专利所提出的集装箱区垂直布置的双自动化场桥动态调度方法可以根据双场桥动态作业环境信息实时生成双场桥协同作业指令(时耗小于0.1s),响应动态作业任务等变化。表2给出不同到达率下本专利方法与参考方法的车辆平均等待时间,其中参考方法为实际中经常采用的先到先服务调度方法。可以看出:本专利方法较常用的先到先服务调度方法车辆的平均等待时间减少30%,改善了自动化场桥作业效率和堆场服务水平。
[0146]
表2不同到达率下车辆的平均等待时间
[0147][0148]
本申请中涉及的术语解释如下:
[0149]
集装箱车辆:指搬运集装箱的码头内部车辆和外部车辆。常用码头内部集装箱搬运车辆如:自动导引车agv、自举式导引车l-agv、alv、跨运车等;码头外部集装箱搬运设备主要是外部集装箱卡车(简称外集卡)。
[0150]
自动化场桥:指自动化集装箱码头堆场箱区内负责堆放和提取集装箱的自动化设备,其具体形式主要采用轨道式龙门起重机。本申请所述自动化场桥采用同轨道布置,集装
箱车辆停靠在箱区两端。
[0151]
箱区:指集装箱码头堆场分区管理的基本单位,箱区内配置两个自动化场桥(简称双场桥),双场桥布置在同一轨道上,两者不可互相穿越,场桥堆取集装箱的交接箱点设置在箱区端部。
[0152]
场桥调度:指调度(指派)箱区内的场桥去执行(服务)集装箱车辆的堆箱或取箱任务,确定场桥的优先作业任务。
[0153]
关联翻箱量:指场桥执行当前任务需要进行的翻箱量,也就是从堆场提取集装箱时,目标箱上方的集装箱阻碍了提取目标箱,需要将阻碍箱翻倒到附近堆栈的数量。翻箱落位位置可根据就近规则或位置选择算法确定,不属于本专利的发明内容。
[0154]
dbn:指场桥调度agent的深度置信神经网络。
[0155]
rbm:指组成深度置信神经网络的受限玻尔兹曼机。
[0156]
以上所述,仅为本发明创造较佳的具体实施方式,但本发明创造的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明创造披露的技术范围内,根据本发明创造的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明创造的保护范围之内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1