基于帕累托优化的多目标强化学习方法和装置

文档序号:30751679发布日期:2022-07-13 09:15阅读:1403来源:国知局
基于帕累托优化的多目标强化学习方法和装置

1.本技术涉及强化学习领域,特别是涉及一种基于帕累托优化的多目标强化学习方法和装置。


背景技术:

2.强化学习(rl)是一种框架,可根据从代理环境中收到的与任务相关的未来奖励来学习代理的最佳行动策略。虽然大多数rl算法的结构是为了实现一个特定的目标,但许多现实世界的应用程序的本质特征是存在多个可能相互冲突的目标,例如经济系统、医疗、运输、管理、自然资源、任务规划和机器人控制。
3.作为标准强化学习方法的概括,多目标强化学习(morl)解决了在竞争目标之间进行权衡的需求。在morl中,奖励信号是每个代理的向量,其中每个元素代表一个最大化的目标。morl领域的大部分工作都是使用启发式技术来学习最优策略,通过构建将多目标问题转化为标准单目标问题的标量化奖励函数,找到不同目标之间的权衡。schulman通过为不同的运动任务手动设计多目标的合成奖励函数,将策略搜索方法应用于不同的连续控制基准。lizotte提出了一种多目标q学习解决方案,该解决方案线性组合了与不同治疗计划的症状和副作用相关的目标。van moffaert没有使用加权和来近似帕累托前沿集,而是提出了一种类似的多目标q学习方法,该方法使用切比雪夫标量函数作为替代。然而,这些单一的策略方法可能不适用于以下情况:(1)由于难以获得用于计算标量值的特定领域专家知识,因此很难找到一组合适的目标偏好,(2)标化函数可能是非线性的,这使得先验标化难以处理(3)当模型需要专家经验调整时,不同奖励的权重应用在不同的情况下,系统需要适应不同的模式运行。
4.大多数现有的研究提出了帕累托前沿集的近似,它通过其支持点来近似子集。类似于van moffaert,ruiz-montiel等人提出了一种多目标强化学习的时间差分方法,其方法仅限于表格q学习方法。handa将eda-rl方法引入到morl 问题中,该方法使用分布估计(eda)进化算法通过基于帕累托优势的适应度度量来搜索策略参数空间。pirotta提出了一种针对morl解决方案的基于流形的策略搜索,并通过指标函数更新了流形。parisi通过引入超体积指标函数作为评估不同帕累托前沿最优性的更合适的度量来扩展该方法。然而,这些方法的主要问题是参数的数量随着策略参数的数量呈二次增加。
5.因此,如何在深度学习中实现快速收敛、相对较好的稳定性的效果成为了一个亟待解决的技术问题。
6.上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。


技术实现要素:

7.本发明的主要目的在于提供了一种基于帕累托优化的多目标强化学习方法和装置,旨在解决现有技术无法在深度学习中实现快速收敛、相对较好的稳定性的效果。
8.为实现上述目的,本发明提供了一种基于帕累托优化的多目标强化学习方法,所述方法包括:
9.采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的 q值;
10.使用帕累托支配理论对所述子目标q值进行非支配排序以获得帕累托前沿集;
11.从所述帕累托前沿集中随机选择动作与环境进行交互;
12.生成基于帕累托前沿集的多目标dqn算法,并利用所述dqn算法对目标网络进行训练以生成策略网络;
13.根据所述策略网络对所述帕累托前沿的子目标q值的期望进行更新。
14.可选地,所述采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的q值的步骤,包括:
15.根据多目标强化学习问题定义策略π1严格支配策略π2,π1>π2,当且仅当该策略π1在每个目标上的表现不比π2策略差并且至少在其中一个目标上严格优于π2策略;
16.基于q-learning的强化学习使用并行学习每个目标的 q值。
17.可选地,所述使用帕累托支配理论对所述子目标q值进行非支配排序以获得帕累托前沿集的步骤,包括:
18.在多目标马尔可夫决策过程中,假设所有目标都最大化,定义为包含多目标马尔可夫决策过程p中的策略π集合;
19.属于的策略中的至少一个目标方面优于其他策略π',如下式所示:
[0020][0021]
其中o
p
是任务p中设置的目标,πp表示任务p的策略集,εo定义了一个最小正值,该集合是多目标马尔可夫决策过程中的帕累托前沿集合。
[0022]
可选地,所述从所述帕累托前沿集中随机选择动作与环境进行交互的步骤,包括:
[0023]
从pareto前沿集中随机选择动作以使用如下公式与环境交互:
[0024]
a=randoma{q(s,a|θ)}
patero_front

[0025]
可选地,所述生成基于帕累托前沿集的多目标dqn算法,并利用所述dqn 算法对目标网络进行训练以生成策略网络的步骤,包括:
[0026]
采用增量更新的方法在空间连续任务中学习,生成基于帕累托前沿集的多目标dqn方程,如下所示:
[0027][0028]
其中,表示目标网络的估计值q,q(s
t
,a
t
)展示行为网络的估计值q,γ是折扣因子;
[0029]
利用所述dqn方程对目标网络进行训练以生成策略网络。
[0030]
可选地,所述利用所述dqn方程对目标网络进行训练以生成策略网络的步骤,包括:
[0031]
利用所述dqn方程对目标网络进行训练,从帕累托前沿集中随机选择动作;
[0032]
根据下式对每个目标使用方程的期望进行确定:
[0033][0034]
其中,每个目标可以有不同的折现因子γ。
[0035]
可选地,在强化学习中,动作值是根据状态s中的策略π选择动作所获得的预期回报,用贝尔曼方程表示为:
[0036]qπ
(s,a)=∑
s',r
p(s',r|s,a)[r+γmax
a'qπ
(s',a')]。
[0037]
此外,为实现上述目的,本发明还提出一种基于帕累托优化的多目标强化学习装置,所述装置包括:
[0038]
计算模块,用于采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的q值;
[0039]
前沿集模块,用于使用帕累托支配理论对所述子目标q值进行非支配排序以获得帕累托前沿集;
[0040]
交互模块,用于从所述帕累托前沿集中随机选择动作与环境进行交互;
[0041]
训练模块,用于生成基于帕累托前沿集的多目标dqn算法,并利用所述 dqn算法对目标网络进行训练以生成策略网络;
[0042]
更新模块,用于根据所述策略网络对所述帕累托前沿的子目标q值的期望进行更新。
[0043]
此外,为实现上述目的,本发明还提出一种计算机设备,所述计算机设备包括:存储器,处理器以及存储在所述存储器上并可在所述处理器上运行的基于帕累托优化的多目标强化学习程序,所述基于帕累托优化的多目标强化学习程序配置为实现如上文所述的基于帕累托优化的多目标强化学习方法。
[0044]
此外,为实现上述目的,本发明还提出一种介质,所述介质上存储有基于帕累托优化的多目标强化学习程序,所述基于帕累托优化的多目标强化学习程序被处理器执行时实现如上文所述的基于帕累托优化的多目标强化学习方法的步骤。
[0045]
本发明通过采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的q值;使用帕累托支配理论对所述子目标q值进行非支配排序以获得帕累托前沿集;从所述帕累托前沿集中随机选择动作与环境进行交互;生成基于帕累托前沿集的多目标dqn算法,并利用所述dqn算法对目标网络进行训练以生成策略网络;根据所述策略网络对所述帕累托前沿的子目标q值的期望进行更新,通过将深度q网络直接推广到多目标来逼近所有帕累托最优确定性策略的集合,表现出更好的性能、快速收敛、相对较好的稳定性,并提供了更多样化的解决方案。
附图说明
[0046]
图1是本发明实施例方案涉及的硬件运行环境的基于帕累托优化的多目标强化学习设备的结构示意图;
[0047]
图2为本发明基于帕累托优化的多目标强化学习方法第一实施例的流程示意图;
[0048]
图3为本发明基于帕累托优化的多目标强化学习方法第一实施例的16个状态的grid world环境图;
[0049]
图4为本发明基于帕累托优化的多目标强化学习方法第一实施例的代理在考虑单个目标时计算的动作价值函数;
[0050]
图5为本发明基于帕累托优化的多目标强化学习方法第一实施例的使用 pmdrl采取的行动的结果。
具体实施方式
[0051]
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
[0052]
参照图1,图1为本发明实施例方案涉及的硬件运行环境的基于帕累托优化的多目标强化学习设备结构示意图。
[0053]
如图1所示,该基于帕累托优化的多目标强化学习设备可以包括:处理器 1001,例如中央处理器(central processing unit,cpu),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(display)、输入单元比如键盘(keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真 (wireless-fidelity,wi-fi)接口)。存储器1005可以是高速的随机存取存储器(random access memory,ram)存储器,也可以是稳定的非易失性存储器 (non-volatile memory,nvm),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
[0054]
本领域技术人员可以理解,图1中示出的结构并不构成对基于帕累托优化的多目标强化学习设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
[0055]
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及基于帕累托优化的多目标强化学习程序。
[0056]
在图1所示的基于帕累托优化的多目标强化学习设备中,网络接口1004主要用于与网络服务器进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明基于帕累托优化的多目标强化学习设备中的处理器1001、存储器1005 可以设置在基于帕累托优化的多目标强化学习设备中,所述基于帕累托优化的多目标强化学习设备通过处理器1001调用存储器1005中存储的基于帕累托优化的多目标强化学习程序,并执行本发明实施例提供的基于帕累托优化的多目标强化学习方法。
[0057]
本发明实施例提供了一种基于帕累托优化的多目标强化学习方法,参照图 2,图2为本发明基于帕累托优化的多目标强化学习方法第一实施例的流程示意图。
[0058]
本实施例中,所述基于帕累托优化的多目标强化学习方法包括以下步骤:
[0059]
步骤s10:采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的q值。
[0060]
需要说明的是,多目标化是为通常从单个任务开始的任务创建多个效用函数的过程。为了构造比原问题更容易解决的新问题,多目标化以具有效用函数的单目标问题p作为输入,并输出具有效用函数的多目标问题其中n>1。目
前,有两种方法可以构建源自单个目标问题的各种效用函数或目标:分解和加法。前一种方法将原始的单目标问题分解为多目标问题。以cartpole experiment为例,通过分解进行多目标化,动作的表现是通过角度和位置的目标来判断的,而不是使用生存时间。后者通过直接向现有案例添加额外目标来构建多目标化。添加额外的目标通常需要将一些启发式信息与特定于目标问题的领域知识相结合。正如网格世界实验的设置一样,除了代理的时间消耗外,到目的地的距离变化被作为补充目标。在强化学习中,行动的效用与在环境中采取行动并从中获得奖励是近似的。对于多目标化的情况,奖励是用详细信息设计的,应用分解或加法,这通常会提高强化学习的性能。
[0061]
可以理解的是,作为机器学习的一个重要分支,强化学习允许智能体通过与环境的不断交互来调整其策略,从而达到最大化累积奖励值的目标。现有的强化学习利用马尔可夫决策过程(mdp)从理论上对rl问题进行基本建模。mdp 由《s,a,r,t,γ》五元组定义,其中,s表示由有限状态集组成的环境;a代表可以采取的有限行动集;奖励函数r(s,a,s')定义了状态转换获得的即时奖励;状态传递函数 t:s
×a→
δ(s)表示将某个状态-动作对映射到可能的后续状态的概率分布,δ(s)是整个状态集的概率分布。对于状态s,s'∈s和动作a∈a,该函数t确定采取动作a后环境从状态s转移到状态s'的概率。γ是折扣因子,代表长期奖励和即时奖励之间的权衡。形式上,mdp描述了强化学习中代理和环境之间的交互过程。在学习过程中,rl代理以多个离散时间步长与环境交互。在特定的时间步t,agent从状态空间s接收状态s
t
,然后根据策略π(a
t
|s
t
)从可选的动作空间中a选择动作a
t
,使环境转移到下一个状态s
t+1
并返回一个标量奖励值r
t+1
(奖励值是为了奖励下一个时间步长,因此根据动力学(奖励函数r(s,a,s')和传递函数t=p(s
t+1
|s
t
,a
t
)),下标是 t+1)。当环境状态为终止状态或交互达到最大时间步长时,一个情节结束并开始下一个情节。返回值是带有折扣因子γ∈(0,1]的累积奖励值。代理的目标是最大化每个状态的预期累积奖励强化学习通过两种方式进行策略学习以最大化状态值的期望回报:一种是基于状态或状态-动作值函数的方法,贪婪地从动作集中选择值最大的动作,例如q-学习、dqn等;另一种方法是基于策略梯度法,直接搜索策略空间,学习给定状态下动作的概率分布,然后根据概率选择动作,如actor-critic、ppo等方法。本实施例使用的学习方法是第一种,它使用状态-动作值q来学习代理的策略。q-learning如以下式所示,根据代理与环境交互产生的奖励增量更新:
[0062][0063]
如果每个动作在每个状态下在无限运行中执行无限次,q-learning将保证收敛到最优值q
*
,基于该值可以推导出最优策略:π
*
=arg maxaq
*
(s,a)。上述q
‑ꢀ
learning可以很好地处理状态和动作空间有限的环境。然而,面对现实世界问题中的大环境状态空间,使用函数逼近方法来估计状态-动作值q。作为一个优秀的函数拟合工具,神经网络可以逼近多种函数并提高像dqn这样的q-learning 方法的性能。dqn使用经验回放和目标网络来稳定近似动作值函数,克服了训练不稳定和发散的问题。dqn定义了行为网络q和目标网络q并使用off-policy 方法对其进行训练,使用行为网络与环境交互并将交互样本存储在经验回放d 中,然后以目标网络为目标进行训练训练行为网络。
[0064]
在具体实施中,在固定步骤训练的每个间隔之后,本实施例使用下式用行为网络
参数θ更新目标网络参数θ-,意思是θ-←
θ:
[0065]
进一步地,所
[0066]
根据多目标强化学习问题定义策略π1严格支配策略π2,π1>π2,当且仅当该策略π1在每个目标上的表现不比π2策略差并且至少在其中一个目标上严格优于π2策略;
[0067]
基于q-learning的强化学习使用并行学习每个目标的 q值。
[0068]
步骤s20:使用帕累托支配理论对所述子目标q值进行非支配排序以获得帕累托前沿集。
[0069]
在具体实施中,多目标强化学习是单目标强化学习的推广。等式中的多目标强化学习。下式也使用mdp对其描述进行形式化,但与单目标mdp相比,多目标mdp中的环境奖励不是标量值,而是标量向量,其中不同的奖励代表不同的目标,即:
[0070]
《s,a,t,γ,r》,r(s,a,s')=(r1(s,a,s'),

,rm(s,a,s'))
[0071]
下式中的每个目标有自己的期望收益,以及目标i的期望收益。
[0072][0073]
在多目标环境中,所有目标都需要优化,但没有明显的排序和偏好。在这种情况下,政策有时无法进行有效比较,其中部分政策在某些目标上做得很好,但在其他目标上表现不佳。在这里,本实施例在多目标问题中使用帕累托支配对策略进行排序:定义1:策略π1严格支配策略π2,π1>π2,当且仅当该策略π1在每个目标上的表现不比π2策略差并且至少在其中一个目标上严格优于π2策略
[0074]
基于q-learning的强化学习使用下式并行学习每个目标的q值:
[0075][0076]
现有的方法大多是对这些多目标q值进行线性或加权求和,得到一个标量值 q来选择策略使用先前的经验来设置这些权重以实现特定的权衡既困难又不直观,这总是需要强大的领域专业知识。pmdrl直接使用多目标方法来处理多目标马尔可夫决策过程(momdp),而不是所有目标值q的总和。没有支配关系的策略集称为帕累托最优集或帕累托前沿。多目标强化学习的目标是找到一个帕累托前沿集。
[0077]
定义2:在momdp中,假设所有目标都最大化,定义为包含momdp
p
中的策略π集合。这些属于的策略中的至少一个目标方面优于其他策略π' ,该关系用下式表示。
[0078][0079]
其中o
p
是任务p中设置的目标,πp表示任务p的策略集,εo定义了一个最小正值。该集合是momdp中的帕累托前沿集合。
[0080]
进一步地,所述使用帕累托支配理论对所述子目标q值进行非支配排序以获得帕累托前沿集的步骤,包括:在多目标马尔可夫决策过程中,假设所有目标都最大化,定义为包含多目标马尔可夫决策过程p中的策略π集合;属于的策略中的至少一个目标方面优于其他策略π',如下式所示:
[0081][0082]
其中o
p
是任务p中设置的目标,πp表示任务p的策略集,εo定义了一个最小正值,该集合是多目标马尔可夫决策过程中的帕累托前沿集合。
[0083]
步骤s30:从所述帕累托前沿集中随机选择动作与环境进行交互。
[0084]
进一步地,所述从所述帕累托前沿集中随机选择动作与环境进行交互的步骤,包括:从pareto前沿集中随机选择动作以使用如下公式与环境交互:
[0085]
a=randoma{q(s,a|θ)}
patero_front

[0086]
步骤s40:生成基于帕累托前沿集的多目标dqn算法,并利用所述dqn 算法对目标网络进行训练以生成策略网络。
[0087]
在具体实施中,与单目标环境中的价值估计q不同,多目标任务中的每个目标可以有不同的折现因子γ。基于patero前沿集的多目标dqn算法如下所示:
[0088]
算法:基于patero-front的多目标dqn
[0089]
算法输入:行为网络θ,目标网络θ'
[0090]
将经验重放d初始化到容量n
[0091]
用随机权重初始化动作值函数θ
[0092]
用权重θ-=θ初始化目标动作值函数
[0093]
对于循环次数=1,m做:
[0094]
初始化序列s1={x1}和预处理序列φ1=φ(x1)
[0095]
对于t=1,t
[0096]
做以概率ε选择一个随机动作a
t
,否则a
t
=randoma{q(s
t
,a)}
patero_front
[0097]
在模拟器中执行动作a
t
并观察奖励r
t
和图像x
t+1
[0098]
设置s
t+1
=s
t
,a
t
,x
t+1
和预处理φ
t+1
=φ(s
t+1
)
[0099]
将(φ
t
,a
t
,r
t

t+1
)转换存储在d中
[0100]
从d中随机选择最小批次(φj,aj,rj,φ
j+1
)
[0101]
设置
[0102][0103]
对网络参数在执行梯度下降步骤
[0104]
每c步重置
[0105]
结束
[0106]
结束
[0107]
进一步地,所述生成基于帕累托前沿集的多目标dqn算法,并利用所述 dqn算法对目标网络进行训练以生成策略网络的步骤,包括:采用增量更新的方法在空间连续任务中学习,生成基于帕累托前沿集的多目标dqn方程,如下所示:
[0108][0109]
其中,表示目标网络的估计值q,q(s
t
,a
t
)展示行为网络的估计值q,γ是
折扣因子;利用所述dqn方程对目标网络进行训练以生成策略网络。
[0110]
进一步地,所述利用所述dqn方程对目标网络进行训练以生成策略网络的步骤,包括:利用所述dqn方程对目标网络进行训练,从帕累托前沿集中随机选择动作;根据下式对每个目标使用方程的期望进行确定:
[0111][0112]
其中,每个目标可以有不同的折现因子γ。
[0113]
步骤s50:根据所述策略网络对所述帕累托前沿的子目标q值的期望进行更新。
[0114]
进一步地,在强化学习中,动作值是根据状态s 中的策略π选择动作所获得的预期回报,用贝尔曼方程表示为:
[0115]qπ
(s,a)=∑
s',r
p(s',r|s,a)[r+γmaxa′qπ
(s',a')]。
[0116]
需要说明的是,大多数强化学习研究旨在针对单个目标优化代理的策略,尽管许多实际应用程序的本质特征是存在多个可能相互冲突的目标。作为标准强化学习方法的概括,多目标强化学习解决了在竞争目标之间进行权衡的需求。本实施例没有使用涉及各种启发式信息(例如奖励塑造)的单一策略技术,而是提出了一种新颖的强化学习方法,可以无偏好地学习策略。本实施例主张将帕累托最优理论与深度q网络相结合,作为避免构建合成奖励函数的有力工具。该方法用于实现非支配排序,定义为帕累托前沿集,它是同时计算的,无需假设任何其他加权函数或线性程序来选择动作。本实施例在grid world实验中为本实施例提出的方法提供了理论保证。在多目标cartpole上的实验结果表明,与传统的多目标深度q网络相比,本实施例的方法表现出更好的性能、快速收敛、相对较好的稳定性,并提供了更多样化的解决方案。
[0117]
在具体实施中,本实施例在本节中展示了本实施例提出的pmdrl方法的实验结果。本实施例针对两个不同的基准问题测量pmdrl的性能。首先,本实施例使用网格世界环境验证了该方法在有限状态空间和动作空间任务中的理论可行性。此外,在多目标cartpole环境中研究了所提出的方法和dqn的组合,进一步验证了该方法在无限状态空间任务中的有效性。
[0118]
如图3所示,grid world是一个由16个方格组成的迷宫,其中左上角为起始状态s0,右下角为结束状态s
15
,其余状态为s
1-s
14
.这个任务的目标是尽快从起始状态到达结束状态。代理只能采取4个动作{u,d,l,r},分别代表向上、向下、向左和向右移动。任何试图离开网格世界的移动都不会改变当前状态,而其他移动将移动到动作指向的状态。在grid world任务中,可以准确计算出每个状态下的动作值q(s,a),为所提方法的理论验证提供了很好的实验场景。在单目标网格世界任务中,除了达到结束状态的动作外,所有动作都奖励-1。为了验证本实施例的方法,在保持从起点移动到目标点的总体目标的同时,本实施例设定了两个目标:使用更少的总步数到达目的地;越来越接近目标点。
[0119]
对于这两个目标,本实施例定义了两个奖励函数r1和r2,并使用下式:
[0120]
[0121]
当代理移动到结束状态时,奖励为0,否则为-1。
[0122][0123]
当代理靠近结束状态时,奖励为1,否则为-1。
[0124]
实验使用动态规划算法遍历计算网格世界中的所有动作-值函数 q(s,a),s∈{s1,s2,...,s
15
},a∈{u,d,l,r}。学习率为1,折扣因子为0.5,所有动作价值函数都在初始时刻都为q(s,a)=0,图4显示了代理在考虑单个目标时计算的动作价值函数。应用本文提出的基于帕累托的多目标强化学习方法对计算结果进行处理,得到各状态下的帕累托前沿集,如图5所示。
[0125]
图5多目标网格世界任务中使用动态编程算法的动作值函数的结果。数字是在相应状态下执行的动作的q值。标记为绿色的方向是最佳操作。(a)是使用奖励函数r1的q值,(b)是使用奖励函数r2的q值。
[0126]
本实施例通过采用概括的方式处理多目标强化学习问题,为每个策略计算每个子目标的q值;使用帕累托支配理论对所述子目标q值进行非支配排序以获得帕累托前沿集;从所述帕累托前沿集中随机选择动作与环境进行交互;生成基于帕累托前沿集的多目标dqn算法,并利用所述dqn算法对目标网络进行训练以生成策略网络;根据所述策略网络对所述帕累托前沿的子目标q值的期望进行更新,通过将深度q网络直接推广到多目标来逼近所有帕累托最优确定性策略的集合,表现出更好的性能、快速收敛、相对较好的稳定性,并提供了更多样化的解决方案。
[0127]
此外,本发明实施例还提出一种介质,所述介质上存储有基于帕累托优化的多目标强化学习程序,所述基于帕累托优化的多目标强化学习程序被处理器执行时实现如上文所述的基于帕累托优化的多目标强化学习方法的步骤。
[0128]
本发明基于帕累托优化的多目标强化学习装置的实施例或具体实现方式可参照上述各方法实施例,此处不再赘述。
[0129]
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
[0130]
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0131]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器/随机存取存储器、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
[0132]
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1