一种基于三维建模的机器人位移纠正方法及系统与流程

文档序号:16584827发布日期:2019-01-14 18:18阅读:199来源:国知局
一种基于三维建模的机器人位移纠正方法及系统与流程

本发明涉及机器人位移控制技术领域,尤其涉及一种基于三维建模的机器人位移纠正方法及系统。



背景技术:

机器人(robot)是自动执行工作的机器装置;它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动。它的任务是协助或取代人类工作的工作,例如生产业、建筑业,或是危险的工作。

然而往往可能因为其预先设置的运行程序又或者是因地面不平坦等原因,机器人在行走的时候会出现位移误差,当位移误差较大的时候,将会严重影响机器人接下去的工作。



技术实现要素:

本发明的目的在于克服现有技术的不足,本发明提供了一种基于三维建模的机器人位移纠正方法及系统,可以实现对机器人的位移偏离进行快速纠正。

为了解决上述技术问题,本发明实施例提供了一种基于三维建模的机器人位移纠正方法,所述机器人位移纠正方法包括:

检测设备接收用户终端发送的检测机器人位移的检测指令,所述检测指令由用户终端用户基于用户终端操作界面操作生成;

所述检测设备响应所述检测指令,启动所述检测设备上的双目摄像头,在多个方向上采集所述机器人的实时图像;

根据所述实时图像进行三维建模处理,获得所述机器人的三维空间模型图像;

基于所述三维空间模型图像确定所述机器人位移的实际位置;

基于位移轨迹规划算法确定所述机器人位移的理论位置;

将所述机器人位移的实际位置与所述机器人位移的理论位置进行比较,获得所述机器人位移的位置差;

根据所述机器人位移的位置差进行位移纠正。

可选的,所述检测指令由用户终端用户基于用户终端操作界面操作生成,包括:

用户在所述用户终端操作界面进行身份身认证,确认所述用户为合法用户;

在确认所述用户为合法用户之后,允许所述用户在用户终端操作界面上进行检测指令生成操作,生成所述检测指令。

可选的,所述用户终端与所述检测设备之间的通信基于无线网络通信、有线网络通信或者zigbee通信。

可选的,所述检测设备响应所述检测指令,包括:

所述检测设备在接收到所述检测指令之后,解析所述检测指令,获得发送所述检测指令的用户终端的物理地址和用户的身份信息;

所述检测设备根据所述用户终端的物理地址和所述用户的身份信息判断所述检测指令是否合法;

若判断所述检测指令不合法,则将判断结果反馈至所述用户终端;

若判断所述检测指令合法,则响应所述检测指令。

可选的,所述检测设备根据所述用户终端的物理地址和所述用户的身份信息判断所述检测指令是否合法,包括:

判断所述用户终端的物理地址是否为所述检测设备预存的物理地址;

若否,则所述检测指令不合法;

若是,则采用所述用户的身份信息与所述检测设备预存的用户权限集合相匹配,匹配判断所述用户身份信息是否拥有发送检测指令权限。

可选的,所述根据所述实时图像进行三维建模处理,包括:

利用所述双目摄像头采集所述机器人的实时图像构建视差图;

将所述视差图依次进行灰度化处理和小波降噪处理,获取处理后的视差图;

根据单个方向上的视差图确定所述机器人在该单个方向上的空间布局;

基于图像拼接算法将多个方向上的视差图进行拼接,构建所述机器人的三维空间模型图像。

可选的,所述根据所述机器人位移的位置差进行位移纠正,包括:

将所述位置差导入所述机器人端的控制装置中,所述控制装置基于所述位置差进行位移纠正。

另外,本发明实施例还提供了一种基于三维建模的机器人位移纠正系统,所述机器人位移纠正系统包括:

指令接收模块:用于检测设备接收用户终端发送的检测机器人位移的检测指令,所述检测指令由用户终端用户基于用户终端操作界面操作生成;

指令响应模块:用于所述检测设备响应所述检测指令,启动所述检测设备上的双目摄像头,在多个方向上采集所述机器人的实时图像;

三维建模模块:用于根据所述实时图像进行三维建模处理,获得所述机器人的三维空间模型图像;

实际位置确定模块:用于基于所述三维空间模型图像确定所述机器人位移的实际位置;

理论位置确定模块:用于基于位移轨迹规划算法确定所述机器人位移的理论位置;

比较模块:用于将所述机器人位移的实际位置与所述机器人位移的理论位置进行比较,获得所述机器人位移的位置差;

纠正模块:用于根据所述机器人位移的位置差进行位移纠正。

在本发明实施例中,通过在用户终端上发送相应的指令控制检测设备启动双目摄像头对机器人的多个方向采集实时图像,根据实时图像进行三维建模从而确定机器人位移的实际位置,通过位移轨迹规划算法确定机器人位移的理论位置,然后确定机器人位移的位置差,并进行位置差纠正;通过双目摄像头拍摄实时图像,可以利用实时图像的视差图,快速和准确的构建机器人的三维图,从而快速确定机器人位移的实际位置情况,从而获得位置差进行并进行快速位移纠正。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。

图1是本发明实施例中的基于三维建模的机器人位移纠正方法的流程示意图;

图2是本发明实施例中的基于三维建模的机器人位移纠正系统的结构组成示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

实施例:

请参阅图1,图1是本发明实施例中的基于三维建模的机器人位移纠正方法的流程示意图。

如图1所示,一种基于三维建模的机器人位移纠正方法,所述机器人位移纠正方法包括:

s11:检测设备接收用户终端发送的检测机器人位移的检测指令,所述检测指令由用户终端用户基于用户终端操作界面操作生成;

在本发明具体实施过程中,所述检测指令由用户终端用户基于用户终端操作界面操作生成,包括:用户在所述用户终端操作界面进行身份身认证,确认所述用户为合法用户;在确认所述用户为合法用户之后,允许所述用户在用户终端操作界面上进行检测指令生成操作,生成所述检测指令。所述用户终端与所述检测设备之间的通信基于无线网络通信、有线网络通信或者zigbee通信。

具体的,检测设备与用户终端之间的是可以通过无线网络、有线网络、zigbee通信、蓝牙通信等的通信方式连接;其中用户终端可以包括移动手机终端、个人pc终端或者平板电脑,或者其他的可操作的智能终端设备。

用户在用户终端上操作界面进行检测指令生成操作时,用户终端的操作界面首先需要用户进行相应的身份认证,首先可以为用户通过输入账户密码的方式进行身份认证;用户也可以通过人脸识别又或者是活体指纹识别;通过上述的身份认证方法对用户的身份进行认证,从而确认用户为合法的操作用户,保障操作的安全性,从而使得用户能安全控制检测设备。

在确认用户的为合法用户的之后,然后允许确认为合法用户的用户在用户终端上的操作界面上进行相应的操作,比如在用户终端上的操作界面进行检测指令生成操作,并生成与操作相对于的检测指令,通过无线网络、有线网络、zigbee通信、蓝牙通信等方式发送至检测设备。

s12:所述检测设备响应所述检测指令,启动所述检测设备上的双目摄像头,在多个方向上采集所述机器人的实时图像;

在本发明具体实施过程中,所述检测设备响应所述检测指令,包括:所述检测设备在接收到所述检测指令之后,解析所述检测指令,获得发送所述检测指令的用户终端的物理地址和用户的身份信息;所述检测设备根据所述用户终端的物理地址和所述用户的身份信息判断所述检测指令是否合法;若判断所述检测指令不合法,则将判断结果反馈至所述用户终端;若判断所述检测指令合法,则响应所述检测指令。

其中,所述检测设备根据所述用户终端的物理地址和所述用户的身份信息判断所述检测指令是否合法,包括:判断所述用户终端的物理地址是否为所述检测设备预存的物理地址;若否,则所述检测指令不合法;若是,则采用所述用户的身份信息与所述检测设备预存的用户权限集合相匹配,匹配判断所述用户身份信息是否拥有发送检测指令权限。

具体的,检测设备在接收到用户终端上发送过来的检测指令之后,首先是对该检测指令进行相应的解析,发送过来的检测指令包括用户终端的物理地址、用户的身份信息和检测指令的指令信息,通过解析检测指令即可获得该检测指令所包含的发送该检测指令的用户终端的物理地址、用户的身份信息和检测指令的指令信息;在获得发送检测指令的用户终端的物理地址和用户身份信息之后,检测设备需要根据用户终端的物理地址和用户身份信息来判断该检测指令的合法性,若通过该判断,判断检测指令为不合法的,则检测设备通过原路将判断结果反馈至用户终端上;若判断检测指令为合法指令,则响应该检测指令,进行与指令相关的操作;其中判断检测指令的合法性的过程主要包括:根据用户终端的物理地址和用户的身份信息来判断检测指令的合法性;具体是,首先判断用户终端的物理地址是否为在检测设备上预存的物理地址,判断的结果若不是在检测设备上预存的物理地址,则判断该检测指令为不合法指令,若判断结果为是在检测设备上预存的物理地址,则采用用户的身份信息与检测设备预存的用户权限集合相匹配,匹配该检测指令对应的用户权限集合内是否存在该用户的身份信息,若否,则该检测指令不合法,若是,则该检测指令合法。

在判断该检测指令合法之后,检测设备响应该检测指令,根据该检测指令启动设备上的双目摄像头,并利用该双目摄像头从多个方向上采集机器人的实时图像。

在此,利用该双目摄像头从多个方向上采集机器人的实时图像包括:以机器人为中心,采集设备以机器人为中心做圆周运动,在圆周中的0度,90度、180度和270度处分别采集机器人的实时图像信息;在具体实施过程中,可以根据具体情况而采集不同角度的实时图像。

s13:根据所述实时图像进行三维建模处理,获得所述机器人的三维空间模型图像;

在本发明具体实施过程中,所述根据所述实时图像进行三维建模处理,包括:利用所述双目摄像头采集所述机器人的实时图像构建视差图;将所述视差图依次进行灰度化处理和小波降噪处理,获取处理后的视差图;根据单个方向上的视差图确定所述机器人在该单个方向上的空间布局;基于图像拼接算法将多个方向上的视差图进行拼接,构建所述机器人的三维空间模型图像。

在具体实施例中,双目视觉系统中的单个摄像机的成像采用针孔摄像机数学模型来描述,即任何点q在图像中的投影位置q,为光心与q点的连线与图像平面的交点,物理世界中的点q,其坐标为(x,y,z)。投影为点(x,y,f),如下公式所示:

式中,cx和cy为成像芯片的中心与光轴的偏移;fx和fy为透镜的物理焦距长度与成像仪每个单元尺寸sx和sy的乘积。则写成矩阵为:

q=mq;

其中

矩阵m称为摄像机的内参数矩阵,在摄像机标定过程中可以同时求出镜头畸变向量,对镜头畸变进行校正。而立体标定是计算空间上两台摄像机几何关系的过程,即寻找两台摄像机之间的旋转矩阵r和平移矩阵t,标定图像黑白棋盘图,标定过程中在摄像头前平移和旋转棋盘图,在不同角度获取棋盘图上的角点位置,给定立体图像间的旋转矩阵r和平移矩阵t,使用相关算法进行立体校正,例如使用bouguet算法,立体校正的目的是使两个视觉传感器所拍摄的图像的对应匹配点分别在两图像的同名像素行中,从而将匹配搜索方位限制在一个像素行内。

在生成视差图之前需要进行图像预处理,以利于生成更为明显的视差图,在经过大量测试后,高斯滤波算法具有很好的效果,经过高斯滤波后图像纹理明显增强。本领域内技术人员可以理解,为了生成更好的视差图,不排除使用其他预处理算法。

理想的双目视觉立体坐标系其坐标原点为左摄像头投影中心,x轴由原点指向右摄像头投影中心,z轴垂直于摄像机成像平面指向前方,y轴垂直于x-z平面箭头向下。

对于校正好的摄像机需要进行立体匹配,以生成视差图,例如选择区域灰度相关法进行立体匹配。

例如选用相似性检测因子:像素灰度差的绝对值和,如下公式所示:

其中,il(x,y)和ir(x+d,y)分别为左右图的像素灰度值;经过高斯滤波算法,在经过匹配而得到的视差图,视差图上每一个值代表位于摄像头前的某一距离值。视差越大表示距离越近,其中灰度值越大的区域亮度越高,表示与摄像头的相对距离越近。

在经过灰度化处理之后,将视差图经过小波滤波处理,从而降低视差图的噪声;通过对当个方向视差图,通过拼接算法构建机器人的三维空间模型图像,其中拼接算法为基于傅里叶变换的图像拼接算法;例如两个相邻方向的机器人三维空间图像的拼接算法,此算法对两幅待拼接的数字图像进行二维离散傅里叶变换,假设变换结果为x(μ,ν)和y(μ,ν),可得到相关的离散傅里叶变换:

在对进行傅里叶反变换即可得到空间域相关函数:

通过计算空间域的想关性函数,就可以找到最佳图像配准位置。例如在图像配准时,两幅待拼接图像的离散傅里叶变换x(μ,ν)和y(μ,ν),其相互功率谱为:

s(μ,v)=x(μ,v)y*(μ,v);

归一化可得对应的互功率谱的相位谱:

其中,qx和qy分别代表两幅待拼接图像的傅里叶变换的相位。通过以上公式可知道,这里的相位谱是一个位于两幅待拼接图像偏移(μ,ν)处的δ脉冲函数,此函数可以计算用来拼接两幅图像的相似度,然后再通过极坐标系来计算两幅待拼接图像。

应用双目视觉系统可以确定视野范围内的视差图,根据视差图可以单个反向的空间布局特征,采用拼接算法、数据融合算法等可以实现把单个方向的布局结构整合成整体空间结构从而获得机器人的三维空间模型。

s14:基于所述三维空间模型图像确定所述机器人位移的实际位置;

在本发明具体实施过程中,在获得机器人的三维空间模型图像之后,然后基于三维空间模型图像来确定机器人位移的实际位置。

s15:基于位移轨迹规划算法确定所述机器人位移的理论位置;

在本发明具体实施过程中,机器人内部均嵌入了位移轨迹规划算法,机器人的轨迹运动均是通过位移轨迹规划算法进行规划的,通过基于该位移轨迹规划算法,可以确定奇迹人位移的理论位置。

s16:将所述机器人位移的实际位置与所述机器人位移的理论位置进行比较,获得所述机器人位移的位置差;

在本发明具体实施过程中,在获得机器人位移的实际位置和机器人位移的理论位置之后,本发明在实施例中采用实际位置与理论位置进行对比匹配,从而获得机器人位移的位置差。

s17:根据所述机器人位移的位置差进行位移纠正。

在本发明具体实施过程中,所述根据所述机器人位移的位置差进行位移纠正,包括:将所述位置差导入所述机器人端的控制装置中,所述控制装置基于所述位置差进行位移纠正。

具体的,在获得机器人位移的位置差之后,将该位置差导入到该机器人的控制装置中,该控制装置根据该位置差进行相应的调整,从而进行位移纠正。

在本发明实施例中,通过在用户终端上发送相应的指令控制检测设备启动双目摄像头对机器人的多个方向采集实时图像,根据实时图像进行三维建模从而确定机器人位移的实际位置,通过位移轨迹规划算法确定机器人位移的理论位置,然后确定机器人位移的位置差,并进行位置差纠正;通过双目摄像头拍摄实时图像,可以利用实时图像的视差图,快速和准确的构建机器人的三维图,从而快速确定机器人位移的实际位置情况,从而获得位置差进行并进行快速位移纠正。

实施例:

请参阅图2,图2是本发明实施例中的基于三维建模的机器人位移纠正系统的结构组成示意图。

如图2所示,一种基于三维建模的机器人位移纠正系统,所述机器人位移纠正系统包括:

指令接收模块11:用于检测设备接收用户终端发送的检测机器人位移的检测指令,所述检测指令由用户终端用户基于用户终端操作界面操作生成;

在本发明具体实施过程中,所述检测指令由用户终端用户基于用户终端操作界面操作生成,包括:用户在所述用户终端操作界面进行身份身认证,确认所述用户为合法用户;在确认所述用户为合法用户之后,允许所述用户在用户终端操作界面上进行检测指令生成操作,生成所述检测指令。所述用户终端与所述检测设备之间的通信基于无线网络通信、有线网络通信或者zigbee通信。

具体的,检测设备与用户终端之间的是可以通过无线网络、有线网络、zigbee通信、蓝牙通信等的通信方式连接;其中用户终端可以包括移动手机终端、个人pc终端或者平板电脑,或者其他的可操作的智能终端设备。

用户在用户终端上操作界面进行检测指令生成操作时,用户终端的操作界面首先需要用户进行相应的身份认证,首先可以为用户通过输入账户密码的方式进行身份认证;用户也可以通过人脸识别又或者是活体指纹识别;通过上述的身份认证方法对用户的身份进行认证,从而确认用户为合法的操作用户,保障操作的安全性,从而使得用户能安全控制检测设备。

在确认用户的为合法用户的之后,然后允许确认为合法用户的用户在用户终端上的操作界面上进行相应的操作,比如在用户终端上的操作界面进行检测指令生成操作,并生成与操作相对于的检测指令,通过无线网络、有线网络、zigbee通信、蓝牙通信等方式发送至检测设备。

指令响应模块12:用于所述检测设备响应所述检测指令,启动所述检测设备上的双目摄像头,在多个方向上采集所述机器人的实时图像;

在本发明具体实施过程中,所述检测设备响应所述检测指令,包括:所述检测设备在接收到所述检测指令之后,解析所述检测指令,获得发送所述检测指令的用户终端的物理地址和用户的身份信息;所述检测设备根据所述用户终端的物理地址和所述用户的身份信息判断所述检测指令是否合法;若判断所述检测指令不合法,则将判断结果反馈至所述用户终端;若判断所述检测指令合法,则响应所述检测指令。

其中,所述检测设备根据所述用户终端的物理地址和所述用户的身份信息判断所述检测指令是否合法,包括:判断所述用户终端的物理地址是否为所述检测设备预存的物理地址;若否,则所述检测指令不合法;若是,则采用所述用户的身份信息与所述检测设备预存的用户权限集合相匹配,匹配判断所述用户身份信息是否拥有发送检测指令权限。

具体的,检测设备在接收到用户终端上发送过来的检测指令之后,首先是对该检测指令进行相应的解析,发送过来的检测指令包括用户终端的物理地址、用户的身份信息和检测指令的指令信息,通过解析检测指令即可获得该检测指令所包含的发送该检测指令的用户终端的物理地址、用户的身份信息和检测指令的指令信息;在获得发送检测指令的用户终端的物理地址和用户身份信息之后,检测设备需要根据用户终端的物理地址和用户身份信息来判断该检测指令的合法性,若通过该判断,判断检测指令为不合法的,则检测设备通过原路将判断结果反馈至用户终端上;若判断检测指令为合法指令,则响应该检测指令,进行与指令相关的操作;其中判断检测指令的合法性的过程主要包括:根据用户终端的物理地址和用户的身份信息来判断检测指令的合法性;具体是,首先判断用户终端的物理地址是否为在检测设备上预存的物理地址,判断的结果若不是在检测设备上预存的物理地址,则判断该检测指令为不合法指令,若判断结果为是在检测设备上预存的物理地址,则采用用户的身份信息与检测设备预存的用户权限集合相匹配,匹配该检测指令对应的用户权限集合内是否存在该用户的身份信息,若否,则该检测指令不合法,若是,则该检测指令合法。

在判断该检测指令合法之后,检测设备响应该检测指令,根据该检测指令启动设备上的双目摄像头,并利用该双目摄像头从多个方向上采集机器人的实时图像。

在此,利用该双目摄像头从多个方向上采集机器人的实时图像包括:以机器人为中心,采集设备以机器人为中心做圆周运动,在圆周中的0度,90度、180度和270度处分别采集机器人的实时图像信息;在具体实施过程中,可以根据具体情况而采集不同角度的实时图像。

三维建模模块13:用于根据所述实时图像进行三维建模处理,获得所述机器人的三维空间模型图像;

在本发明具体实施过程中,所述根据所述实时图像进行三维建模处理,包括:利用所述双目摄像头采集所述机器人的实时图像构建视差图;将所述视差图依次进行灰度化处理和小波降噪处理,获取处理后的视差图;根据单个方向上的视差图确定所述机器人在该单个方向上的空间布局;基于图像拼接算法将多个方向上的视差图进行拼接,构建所述机器人的三维空间模型图像。

在具体实施例中,双目视觉系统中的单个摄像机的成像采用针孔摄像机数学模型来描述,即任何点q在图像中的投影位置q,为光心与q点的连线与图像平面的交点,物理世界中的点q,其坐标为(x,y,z)。投影为点(x,y,f),如下公式所示:

式中,cx和cy为成像芯片的中心与光轴的偏移;fx和fy为透镜的物理焦距长度与成像仪每个单元尺寸sx和sy的乘积。则写成矩阵为:

q=mq;

其中

矩阵m称为摄像机的内参数矩阵,在摄像机标定过程中可以同时求出镜头畸变向量,对镜头畸变进行校正。而立体标定是计算空间上两台摄像机几何关系的过程,即寻找两台摄像机之间的旋转矩阵r和平移矩阵t,标定图像黑白棋盘图,标定过程中在摄像头前平移和旋转棋盘图,在不同角度获取棋盘图上的角点位置,给定立体图像间的旋转矩阵r和平移矩阵t,使用相关算法进行立体校正,例如使用bouguet算法,立体校正的目的是使两个视觉传感器所拍摄的图像的对应匹配点分别在两图像的同名像素行中,从而将匹配搜索方位限制在一个像素行内。

在生成视差图之前需要进行图像预处理,以利于生成更为明显的视差图,在经过大量测试后,高斯滤波算法具有很好的效果,经过高斯滤波后图像纹理明显增强。本领域内技术人员可以理解,为了生成更好的视差图,不排除使用其他预处理算法。

理想的双目视觉立体坐标系其坐标原点为左摄像头投影中心,x轴由原点指向右摄像头投影中心,z轴垂直于摄像机成像平面指向前方,y轴垂直于x-z平面箭头向下。

对于校正好的摄像机需要进行立体匹配,以生成视差图,例如选择区域灰度相关法进行立体匹配。

例如选用相似性检测因子:像素灰度差的绝对值和,如下公式所示:

其中,il(x,y)和ir(x+d,y)分别为左右图的像素灰度值;经过高斯滤波算法,在经过匹配而得到的视差图,视差图上每一个值代表位于摄像头前的某一距离值。视差越大表示距离越近,其中灰度值越大的区域亮度越高,表示与摄像头的相对距离越近。

在经过灰度化处理之后,将视差图经过小波滤波处理,从而降低视差图的噪声;通过对当个方向视差图,通过拼接算法构建机器人的三维空间模型图像,其中拼接算法为基于傅里叶变换的图像拼接算法;例如两个相邻方向的机器人三维空间图像的拼接算法,此算法对两幅待拼接的数字图像进行二维离散傅里叶变换,假设变换结果为x(μ,ν)和y(μ,ν),可得到相关的离散傅里叶变换:

在对进行傅里叶反变换即可得到空间域相关函数:

通过计算空间域的想关性函数,就可以找到最佳图像配准位置。例如在图像配准时,两幅待拼接图像的离散傅里叶变换x(μ,ν)和y(μ,ν),其相互功率谱为:

s(μ,v)=x(μ,v)y*(μ,v);

归一化可得对应的互功率谱的相位谱:

其中,qx和qy分别代表两幅待拼接图像的傅里叶变换的相位。通过以上公式可知道,这里的相位谱是一个位于两幅待拼接图像偏移(μ,ν)处的δ脉冲函数,此函数可以计算用来拼接两幅图像的相似度,然后再通过极坐标系来计算两幅待拼接图像。

应用双目视觉系统可以确定视野范围内的视差图,根据视差图可以单个反向的空间布局特征,采用拼接算法、数据融合算法等可以实现把单个方向的布局结构整合成整体空间结构从而获得机器人的三维空间模型。

实际位置确定模块14:用于基于所述三维空间模型图像确定所述机器人位移的实际位置;

在本发明具体实施过程中,在获得机器人的三维空间模型图像之后,然后基于三维空间模型图像来确定机器人位移的实际位置。

理论位置确定模块15:用于基于位移轨迹规划算法确定所述机器人位移的理论位置;

在本发明具体实施过程中,机器人内部均嵌入了位移轨迹规划算法,机器人的轨迹运动均是通过位移轨迹规划算法进行规划的,通过基于该位移轨迹规划算法,可以确定奇迹人位移的理论位置。

比较模块16:用于将所述机器人位移的实际位置与所述机器人位移的理论位置进行比较,获得所述机器人位移的位置差;

在本发明具体实施过程中,在获得机器人位移的实际位置和机器人位移的理论位置之后,本发明在实施例中采用实际位置与理论位置进行对比匹配,从而获得机器人位移的位置差。

纠正模块17:用于根据所述机器人位移的位置差进行位移纠正。

在本发明具体实施过程中,所述根据所述机器人位移的位置差进行位移纠正,包括:将所述位置差导入所述机器人端的控制装置中,所述控制装置基于所述位置差进行位移纠正。

具体的,在获得机器人位移的位置差之后,将该位置差导入到该机器人的控制装置中,该控制装置根据该位置差进行相应的调整,从而进行位移纠正。

在本发明实施例中,通过在用户终端上发送相应的指令控制检测设备启动双目摄像头对机器人的多个方向采集实时图像,根据实时图像进行三维建模从而确定机器人位移的实际位置,通过位移轨迹规划算法确定机器人位移的理论位置,然后确定机器人位移的位置差,并进行位置差纠正;通过双目摄像头拍摄实时图像,可以利用实时图像的视差图,快速和准确的构建机器人的三维图,从而快速确定机器人位移的实际位置情况,从而获得位置差进行并进行快速位移纠正。

本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(rom,readonlymemory)、随机存取存储器(ram,randomaccessmemory)、磁盘或光盘等。

另外,以上对本发明实施例所提供的一种基于三维建模的机器人位移纠正方法及系统进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1