面向遥操作手眼协调的交互控制方法与流程

文档序号:18946478发布日期:2019-10-23 01:38阅读:797来源:国知局

本发明涉及一种人机交互控制方法,特别是涉及一种面向遥操作手眼协调的交互控制方法。



背景技术:

文献“遥操作机器人系统主从控制策略,江苏科技大学学报(自然科学版),2013,vol27(8),p643-647”公开了一种主从式遥操作机器人系统的控制方法。该方法采用增量式位置控制方式,以主手的增量来控制从手的运动,较有效地避免了初始回原点的繁琐。当操作操作者直接观察被操作环境信息时与操作者通过图像设备观察被操作环境信息时,主从间位置对应不同,通过调整比例控制增益矩阵,进行主手与实际环境或主手与图像设备的坐标匹配,建立主端和从端的工作空间映射有较好的视觉临场感。文献所述方法只是基于操作者直接观察环境信息与通过图像设备观察环境信息的不同,通过比例控制增益系数简单建立了主手与实际环境或主手与图像设备的工作空间映射,而没有给出当操作者观察被操作环境信息观察视角变化时,建立主从端工作空间映射的方法,没有实现主从端工作空间映射不受观察视角变化的影响,始终运动一致,适用范围不广,操作难度较大。



技术实现要素:

为了克服现有人机交互控制方法实用性差的不足,本发明提供一种面向遥操作手眼协调的交互控制方法。该方法基于坐标系的转换,操作者通过交换设备控制场景对象运动时,首先将场景对象的位姿由世界坐标系转换到相机坐标系中,然后在相机坐标系中按预期运动加上交互设备的进动量,得到新的相机坐标系位姿坐标,最后将新得到的位姿坐标由相机坐标系转换到世界坐标系中用以控制场景对象的实际运动。本发明实现了遥操作过程的手眼协调,即交互操作的过程中场景对象的运动不受操作者观察场景视角变换的影响,与交互设备的运动一致,降低遥操作难度,实用性好。

本发明解决其技术问题所采用的技术方案是:一种面向遥操作手眼协调的交互控制方法,其特点是包括以下步骤:

步骤一、交互设备数据采集,在手控器运动过程中,等时间间隔采集手控器的实时位置信息pcn;将采集到的手控器实时位置信息pcn与前一时刻位姿信息pcn-1作差得到手控器进动量δp;将进动量δp按照δp0=k*δp映射为机械臂末端的初始运动指令δp0,其中,k为操作比例系数。

△p0=k*△p(1)

步骤二、结合交互操作坐标系到相机坐标系的转换矩阵rx,对初始运动指令δp0进行转换处理,得到相机坐标系中的运动指令δp1。

△p1=△p0*rx(2)

步骤三、结合相机坐标系在世界坐标系的位姿矩阵c,对相机坐标系中的运动指令δp1进行转换处理,得到世界坐标系中的运动指令δp2。

在交互过程中,操作者观察到的视景由相机在世界坐标系中的位置姿态决定,而相机的位置姿态矩阵取决于三个要素:即相机视线方向、相机中心的位置、相机的正向朝向,这三个要素就能确定相机在世界坐标系中的位置姿态。当观察视角转换时,本质是相机在世界坐标系中的位置姿态发生了变化,相机坐标系在世界坐标系中的方向也随之发生变化。

将步骤二中得到的运动量从相机坐标系转换到世界坐标系,需要用到相机矩阵的逆矩阵c-1。此外,由于交互设备用动量矩阵为1x3矩阵,因此需要构建一个1x4的矩阵d。

d=[△p10](4)

△p2=dc-1(5)

步骤四、将世界坐标系中的运动指令δp2通过运动映射得到机械臂末端的最终运动量δp3,生成整个交互过程的遥操作指令。

将步骤三得到的世界坐标系运动指令δp2展开得到δp2为1x4矩阵,其前三列元素为场景对象末端的最终运动量,通过运动映射取δp2前三列元素生成δp3,简化表示如下:

△p3=[△x△y△z](6)

其中,δx、δy、δz分别表示场景对象末端在世界坐标系中三个坐标轴方向的运动量,至此,用以实现手眼协调的遥操作指令生成。

步骤五、利用步骤四生成的遥操作指令驱动机械臂运动,实现手眼协调。

场景对象末端的实时位置记为pjn,下一时刻的位置为pjn+1,则

通过场景对象实时末端位置驱动场景对象运动,实现遥操作过程的手眼协调。

本发明的有益效果是:该方法基于坐标系的转换,操作者通过交换设备控制场景对象运动时,首先将场景对象的位姿由世界坐标系转换到相机坐标系中,然后在相机坐标系中按预期运动加上交互设备的进动量,得到新的相机坐标系位姿坐标,最后将新得到的位姿坐标由相机坐标系转换到世界坐标系中用以控制场景对象的实际运动。本发明实现了遥操作过程的手眼协调,即交互操作的过程中场景对象的运动不受操作者观察场景视角变换的影响,与交互设备的运动一致,降低遥操作难度,实用性好。

下面结合具体实施方式对本发明作详细说明。

具体实施方式

为详细介绍本发明的内容,需要对3个常用坐标系的定义进行阐述:

(1)世界坐标系oworld:世界坐标系是整个系统的参考坐标系,用来描述场景中对象模型的实际运动,相当于基坐标系,场景对象的运动都是基于世界坐标系来进行描述。

(2)相机坐标系ocamera:相机坐标系用来描述遥操作视景,当操作者观察视角变换时,本质是相机在世界坐标系中的位置姿态发生了变化。当观察视角变换时,相机坐标系在世界坐标系中的位姿发生变化,但它相对于计算机屏幕的方向不变。

(3)交互操作坐标系(即手控器坐标系)ointeraction:交互设备坐标系用来描述遥操作过程中交互设备的运动,当观察视角变换时,交互设备在世界坐标系中的位置姿态将发生变化,但它相对于计算机屏幕的方向不变。

为验证本发明所提出的面向遥操作手眼协调的操作技术的有效性,本发明结合三维图形开发环境osg(opensencegraph)和交互工具novintfalcon手控器,基于对虚拟视景中irb120机械臂运动的控制进行仿真演示验证,具体实施方式如下:

步骤一、交互设备数据采集,以手控器向上运动为例,在手控器运动过程中等时间间隔采集得到手控器的实时位置姿态信息pcn;将采集到的手控器实时位姿信息pcn与前一时刻位姿信息pcn-1作差得到手控器进动量δp;将进动量δp按照δp0=k*δp映射为机械臂末端的初始运动指令δp0,其中k为操作比例系数,手控器末端运动量单位为米,虚拟场景中机械臂末端运动量单位为毫米,操作比例系数k=1000,当手控器末端向上运动0.1米时,初始运动指令为

△p0=k*△p=[00100](1)

步骤二、结合交互操作坐标系到相机坐标系的转换矩阵rx,对初始运动指令δp0进行转换处理,得到相机坐标系中的运动指令δp1。

通过对交互设备坐标系与相机坐标系的位置关系分析可知,当观察视角变换时,交互设备坐标系与相机坐标系在世界坐标系中的相对方向没有发生变化,由交互设备坐标系沿x轴旋转90度即可与相机坐标系方向一致。

步骤三、结合相机坐标系在世界坐标系的位姿矩阵c,对相机坐标系中的运动指令δp1进行转换处理,得到世界坐标系中的运动指令δp2。

当正视场景时,相机在世界坐标系中的位姿矩阵为c。

由于交互设备用动量矩阵为1x3矩阵,需要构建一个1x4的矩阵d。

d=[△p10]=[010000](4)

△p2=dc-1=[001000](5)

步骤四、将世界坐标系中的运动指令δp2通过运动映射得到机械臂末端的最终运动量δp3,生成整个交互过程的遥操作指令。

△p3=[△x△y△z]=[00100](6)

其中,δx、δy、δz分别表示场景对象末端在世界坐标系中三个坐标轴方向的运动量,至此,用以实现手眼协调的遥操作指令生成。

步骤五、利用步骤四生成的遥操作指令驱动机械臂运动,实现手眼协调。场景对象末端的实时位置记为pjn,下一时刻的位置为pjn+1,则

本实施例基于irb120机械臂的交互控制,要完成步骤五,首先运用3dmax等工具建立irb120机械臂三维模型,完成虚拟视景的搭建;在d-h坐标系的基础上,建立机械臂的运动学模型。

首先对其进行正向运动学分析每相邻两个坐标系可以通过四次齐次变换相互转化设变换矩阵为

其中,ai、αi、di、θi分别为连杆长度、两岸扭转角、连杆偏移量、关节角。

对于六自由度机械臂,当各个关节的关节角确定后,机械臂末端位姿也随之确定,设末端位姿为t,则

其次,运用解析法对其进行你运动学分析,根据末端位姿求取各个关节角。

由上式可求取θ1,其他关节角按解析法依次求取。

机械臂末端的初始位置正视场景时,

通过以上手眼协调交互控制方法进行运动映射后可得,当手控器向上运动时,正视虚拟视景,机械臂的运动方向沿z轴,俯视虚拟视景时,机械臂运动方向沿y轴。由此可得,当操作者的观察视角变换时,采用本文提出的手眼协调实现方法,能够实现场景对象的运动与交互设备的运动一致,从而验证了本文提出的手眼协调方法的有效性。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1