一种远程操作的训练方法及系统与流程

文档序号:15690007发布日期:2018-10-16 21:53阅读:270来源:国知局
一种远程操作的训练方法及系统与流程

本发明实施例涉及机器人远程操控领域,尤其涉及一种远程操作的训练方法及系统。



背景技术:

机器人远程操作是将人的智能判断和机器人的强效执行相结合的一种手段,可极大的延伸作业的通用性、智能性和有效保护操作人员的安全,同时也有利于拥有专业知识背景的操作专家,方便的加入或者介入重要的操作任务。本方法涉及的技术领域背景即机器人的远程操作领域。

当新的操作人员使用操作器对远程对象或机器人进行操作时,首先需要系统化的培训和训练,训练的结果经过不断的评价并提示操作员改良操作手法后达到操作者训练的目的。然而,由于操作对象、操作装置以及远程操作系统均为强耦合的系统,即被操作的机器人是针对着特定任务设计,而对应的操作装置和操作系统是针对改机器人进行的设计,而且由于执行的任务差异、操作对象(远端机器人)的差异巨大,例如有些任务或机器人强调安全、有些强调精细、有些强调速度、有些强调重复性、有些强调应急响应和适应性等。

然而,远程操作与现场操作的关键区别就在于时间延迟和有限的现场信息获取能力,因此即使是相同任务也可能由于这些因素的影响使得任务的需求孑然不同,因此,需要操作员有定量的指标指导其改进操作效果。



技术实现要素:

本发明实施例提供了一种远程操作的训练方法及系统,可以实现在指导操作员改进其远程操作的操作效果。

第一方面,本发明实施例提供了一种远程操作的训练方法,包括:

获取远程操作机器人执行目标任务对应的评估信息;

根据所述评估信息调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述获取远程操作机器人执行目标任务对应的评估信息,包括:

确定远程操作机器人执行目标任务对应的评估值,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;

根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息。

在一个可能的实施方式中,所述操作数据至少包括以下之一:

操作准确度、操作规范度、操作熟练度、操作持续度、应急操作能力和远程操作对时延的容忍度。

在一个可能的实施方式中,所述方法还包括:

获取多次远程操作的步骤级的评价值,根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述方法还包括:

获取多次远程操作的点对点、障碍物和操作模式的评价值,根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述方法还包括:

获取多次远程操作在持续操作下的变化率,根据所述变化率调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述方法还包括:

获取多次远程操作的执行不可重复训练操作步骤时的评价值,根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述方法还包括:

获取多次远程操作在不同时延条件下的评价信息,根据所述评价信息调整控制远程操作所述机器人执行目标任务时的操作数据。

第二方面,本发明实施例提供了一种远程操作的训练系统,包括:

获取模块,用于获取远程操作机器人执行目标任务对应的评估信息;

调整模块,用于根据所述评估信息调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述获取模块,用于确定远程操作机器人执行目标任务对应的评估值,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;

根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息。

在一个可能的实施方式中,所述操作数据至少包括以下之一:

操作准确度、操作规范度、操作熟练度、操作持续度、应急操作能力和远程操作对时延的容忍度。

在一个可能的实施方式中,所述获取模块,还用于获取多次远程操作的步骤级的评价值,

所述调整模块,还用于根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述获取模块,还用于获取多次远程操作的点对点、障碍物和操作模式的评价值,

所述调整模块,还用于根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述获取模块,还用于获取多次远程操作在持续操作下的变化率,

所述调整模块,还用于根据所述变化率调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述获取模块,还用于获取多次远程操作的执行不可重复训练操作步骤时的评价值,

所述调整模块,还用于根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

在一个可能的实施方式中,所述获取模块,还用于获取多次远程操作在不同时延条件下的评价信息,

所述调整模块,还用于根据所述评价信息调整控制远程操作所述机器人执行目标任务时的操作数据。

本发明实施例提供的一种远程操作的训练方案,通过将任务集分解、步骤集分解,以专家示例或者操作效果优选为基础,可以修改、优化和构建标准步骤集并建立相应数据基础,针对可能出现的步骤情况给出了对应的量化评价方式,进一步从步骤结果组合的评价提升到任务结果评价,从而实现了在复杂任务、复杂时延环境下对机器人远程操作效果的科学量化评价,在不依赖于具体的机器人对象和操作对象的条件下,可有效的用于指导和训练机器人远程操作员。

附图说明

图1为本发明实施例提供了一种远程操作的训练方法的流程示意图;

图2为本发明实施例提供了一种远程操作的训练系统的结构示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

为便于对本发明实施例的理解,下面将结合附图以具体实施例做进一步的解释说明,实施例并不构成对本发明实施例的限定。

图1为本发明实施例提供的一种远程操作效果的训练方法的流程示意图,如图1所示,该方法具体包括:

101、获取远程操作机器人执行目标任务对应的评估信息。

具体包括如下子步骤:

1011、确定远程操作机器人执行目标任务对应的评估值。

在本实施例中,预先根据机器人待执行的操作任务和操作内容对执行目标任务的远程操作的类型进行划分,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;标准操作任务可以是,但不限于:全部由标准操作步骤组成的任务;非标准操作任务可以是,但不限于:包含非标准操作步骤的任务。标准操作步骤为已训练好的、可重复使用的步骤;非标准操作步骤为非训练好的步骤,标准操作步骤具有固定性、非标准操作步骤具有随机性突发性。

具体地,对于标准操作任务,可通过如下方式确定标准操作任务对应的评估值,具体包括:

获取机器人在执行标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第一公式确定所述标准操作任务对应的评估值。

其中,所述第一公式为:

jk为步骤k的评估值,在步骤k为所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为pd_i,每个采样点的操作位置的坐标为pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重,且wp+wd+wm=1。

具体地,对于非标准操作任务,可以分为可重复训练的非标准操作任务和不可重复训练的非标准操作任务,其中,可重复训练的非标准操作任务可通过训练转换为标准操作任务。

对于可重复训练的非标准操作任务,可通过如下方式确定可重复训练的所述非标准操作任务对应的评估值,具体包括:获取机器人在执行非标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合,所述非标准操作任务包括可重复训练的非标准步骤;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第二公式确定所述非标准操作任务对应的评估值。

其中,所述第二公式为:

jf_k为可重复训练的非标准操作任务的评价值,为非标准操作任务的操作所行径的路线长度,di为操作中对应采样点与障碍物或者干涉物的距离,为非标准操作任务内总的采样点数量,tf_k为非标准操作任务的总操作时间,为操作路线长度的权重,wf-d为操作中的最小安全距离的权重,wf_d_t为操作中全程安全距离的权重,wf_t为操作时长的权重,且wf_l+wf_d+wf_d_t+wf_t=1。

在本实施例中可通过调整参数wf-d、wf-d和wf_t,将可重复训练的非标准操作任务训练为标准操作任务。

对于不可重复训练的非标准操作任务,可通过如下方式确定可不重复训练的所述非标准操作任务对应的评估值,具体包括:确定所述非标准操作任务与所述标准操作任务的相似度,所述非标准操作任务包括不可重复的训练的非标准步骤;根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤;根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值;根据所述特征值采用第三公式确定所述非标准操作任务对应的评估值。

确定所述非标准操作任务与所述标准操作任务的相似度,可采用相似度算法,具体包括:

其中,表示的是标准步骤i与非标准步骤fk所对应的相似度表征计算结果。||dis||表示为第i个标准步骤的起始点与本非标准步骤的起始点的状态空间距离,||dis||则表示第i个标准步骤的终止点与本非标准步骤的终止点的状态空间距离,||dis||表示第i个标准步骤的起始点与障碍物或者干涉物的距离,||dil||表示第i个标准步骤的终止点与障碍物或者干涉物的距离,表示第i个标准步骤与本非标准步骤的操作时间差别,表示第i个标准步骤与本非标准步骤的操作距离差别,||δdis-il||表示第i个标准步骤的起始点到终止点的状态空间距离与本非标准步骤的起始点到终止点的状态空间距离差别。为起始点相似性的权重,为终止点相似性的权重,为起始安全距离的相似性权重,为终止安全距离的相似性权重,为操作时长相似性权重,wfδl为操作距离的相似性权重,为终末端距离相似度权重,且有越小越相似。

根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤,包括:根据值由小到大排列,取95%比重的标准步骤构成列表,提取的列表中含有c个标准步骤,95%比重的提取方法为:

其中,n为所有标准步骤的数量,该提取即提取排序中前c个标准步骤,且这些标准步骤贡献的相似度效果占总数的95%以上。其中对于比重值95%可根据具体情况进行设定,如85%、90%等,对此本实施例不作具体限定。

分别获取列表中标准步骤的参数:障碍物或者干涉物的平均距离障碍物或者干涉物的最小距离min||di||、操作时间长度ti、操作距离长度ti;

根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值,具体包括:

其中,所述第三公式为:

jf_c_k为不可重复训练的非标准操作任务的评价值,lf_c_k为非标准操作任务的采样点数量,||df_c_k||为对应采样点与障碍物或者干涉物的距离,tf_c_k为非标准操作任务的操作时间,lf_c_k为非标准操作任务的操作距离,为平均安全距离的评价权重,为最小安全距离的评价权重,为操作时间的评价权重,为操作距离的评价权重。

1012、根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息。

远程操作的结果,完全成功型任务和非完全成功型任务;所述完全成功型任务为所有步骤均达到预设目标结果,所述非完全成功型任务为部分步骤未达到预设目标结果且通过其它方式达到预设目标结果。

具体地,根据所述远程操作的结果,确定执行所述目标任务的执行效果信息、总效果的基础值和总效果的修正系数;根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息。

所述执行效果信息采用如下公式确定:

所述总效果的基础值采用如下公式确定:

其中,tj为目标任务的操作时间,dj为目标任务中全程与障碍物或者干涉物的平均距离,dj为操作中对应采样点与障碍物或者干涉物的距离。

所述修正系数εj采用如下公式确定:

其中,ε为修正系数,td_j为远程操作任务j的回路时延平均值,tw_j为远程操作任务j的回路时延波动范围,twf_j为远程操作任务j回路时延的波动等效频率。

所述根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息的步骤采用如下公式确定:

102、根据所述评估信息调整控制远程操作所述机器人执行目标任务时的操作数据。

所述操作数据至少包括以下之一:

操作准确度、操作规范度、操作熟练度、操作持续度、应急操作能力和远程操作对时延的容忍度。

对于操作准确度,具体包括:获取多次远程操作的步骤级的评价值,根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

对于操作规范度和/或操作熟练度,具体包括:获取多次远程操作的点对点、障碍物和操作模式的评价值,根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

具体可采用如下公式:

jk为步骤k的评估值,在步骤k为所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为pd_i,每个采样点的操作位置的坐标为pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重,且wp+wd+wm=1。

其中,在本实施例中,评价值为操作位置对应的权重、安全距离对应的权重、操作模式对应的权重前部分的值,具体包括:(min||di||-min||dd_i||)和

对于操作持续度,具体包括:获取多次远程操作在持续操作下的变化率,根据所述变化率调整控制远程操作所述机器人执行目标任务时的操作数据。

对于应急操作能力,具体包括:获取多次远程操作的执行不可重复训练操作步骤时的评价值,根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

对于远程操作对时延的容忍度,具体包括:获取多次远程操作在不同时延条件下的评价信息,根据所述评价信息调整控制远程操作所述机器人执行目标任务时的操作数据。

本发明实施例提供的一种远程操作的训练方法,通过将任务集分解、步骤集分解,以专家示例或者操作效果优选为基础,可以修改、优化和构建标准步骤集并建立相应数据基础,针对可能出现的步骤情况给出了对应的量化评价方式,进一步从步骤结果组合的评价提升到任务结果评价,从而实现了在复杂任务、复杂时延环境下对机器人远程操作效果的科学量化评价,在不依赖于具体的机器人对象和操作对象的条件下,可有效的用于指导和训练机器人远程操作员。

图2为本发明实施例提供了一种远程操作的训练系统的结构示意图,如图2所示该系统具体包括:

获取模块201,用于获取远程操作机器人执行目标任务对应的评估信息;

调整模块202,用于根据所述评估信息调整控制远程操作所述机器人执行目标任务时的操作数据。

可选地,所述获取模块201,用于确定机器人远程操作执行目标任务对应的评估值,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;

根据所述远程操作的结果,对所述评估值进行处理确定机器人远程操作效果的评估信息。

可选地,所述操作数据至少包括以下之一:

操作准确度、操作规范度、操作熟练度、操作持续度、应急操作能力和远程操作对时延的容忍度。

可选地,所述获取模块201,还用于获取多次远程操作的步骤级的评价值,

所述调整模块202,还用于根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

可选地,所述获取模块201,还用于获取多次远程操作的点对点、障碍物和操作模式的评价值,

所述调整模块202,还用于根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

可选地,所述获取模块201,还用于获取多次远程操作在持续操作下的变化率,

所述调整模块202,还用于根据所述变化率调整控制远程操作所述机器人执行目标任务时的操作数据。

可选地,所述获取模块201,还用于获取多次远程操作的执行不可重复训练操作步骤时的评价值,

所述调整模块202,还用于根据所述评价值调整控制远程操作所述机器人执行目标任务时的操作数据。

可选地,所述获取模块201,还用于获取多次远程操作在不同时延条件下的评价信息,

所述调整模块202,还用于根据所述评价信息调整控制远程操作所述机器人执行目标任务时的操作数据。

在本实施例中图2所示的系统,可作为如图1所示机器人远程操作效果的训练方法的执行主体,可执行图1所示方法中的所有步骤,进而实现如图1所示方法的技术效果,为简洁描述,在此不作赘述。

专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。

以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1