一种机器人目标物体抓取位置检测的方法与流程

文档序号:17470290发布日期:2019-04-20 05:46阅读:376来源:国知局
一种机器人目标物体抓取位置检测的方法与流程

本发明实施方式涉及机器人自主抓取领域,特别是涉及一种机器人目标物体抓取位置检测的方法、装置、计算设备及计算机存储介质。



背景技术:

在智能机器人领域,机器人自主抓取是智能机器人的一种关键能力,尤其是对于家庭服务机器人和工业机器人。对于机器人自主抓取的研究问题,传统方案主要包括几何分析方法和数据驱动推理两种方法;几何分析方法人工复杂度高,数据驱动推理方法在复杂场景下表现差。

随着深度学习的出现,机器人自主抓取研究取得了很大突破。应用深度学习算法,目前技术可以实现机器人在自主抓取物体时,自动分割目标物体,并自动定位抓取点。

在实现本发明的过程中,发现:现有技术中自动分割目标物体是基于深度图像,无法针对复杂背景下的物体进行分割,且在自动定位抓取点时,效率偏低。



技术实现要素:

鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种机器人目标物体抓取位置检测的方法、装置、计算设备及计算机存储介质。

为解决上述技术问题,本发明实施方式采用的一个技术方案是:提供一种机器人目标物体抓取位置检测的方法,包括:采集目标物体在不同视角下的目标rgb图像和目标depth图像,其中,所述目标rgb图像和目标depth图像中的像素点一一对应;

将每一所述目标rgb图像输入至目标物体分割网络进行计算,得到所述目标rgb图像中目标物体的rgb像素区域及所述目标depth图像中目标物体的depth像素区域;

将所述目标物体的rgb像素区域输入至最优抓取位置生成网络,得到所述目标物体抓取的最优抓取位置;

将所述目标物体的depth像素区域及所述最优抓取位置输入至抓取位置质量评估网络,计算所述最优抓取位置的得分;

选择最高得分对应的最优抓取位置作为机器人全局最优抓取位置。

其中,所述目标物体分割网络是使用卷积神经网络模型训练出来的网络,具体包括:

获取包含目标物体的rgb图像;

将所述rgb图像缩放至预设第一像素,得到第一训练集;

标注所述第一训练集中的目标物体对应的像素区域;

将所述第一训练集和所述目标物体对应的像素区域作为所述卷积神经网络模型输入进行训练,得到所述目标物体分割网络;

将所述目标物体分割网络得到的目标物体对应的rgb像素区域与标注的目标物体对应的像素区域做重叠对比;

根据所述重叠对比结果调整所述目标物体分割网络的权值。

其中,所述最优抓取位置生成网络是使用卷积神经网络模型训练出来的网络,具体包括:

将所述目标物体分割网络得到的rgb目标物体对应的像素区域缩放至预设第二像素,得到第二训练集;

将所述第二训练集中的图像标记最优抓取位置坐标;

将所述第二训练集中的图像和其对应的最优抓取位置坐标作为输入,使用卷积神经网络模型进行训练,得到最优抓取位置生成网络。

其中,所述抓取位置质量评估网络是使用卷积神经网络模型训练出来的网络,具体包括:

获取包含目标物体的depth图像;

将所述depth图像缩放至预设第三像素,得到第三训练集;

从所述第三训练集中的depth图像上随机采取一对抓取点位置,并使用预设评分算法得到对应评分;

将所述depth图像、抓取点位置以及抓取点位置对应的评分作为输入,使用卷积神经网络模型进行训练,得到抓取位置质量评估网络。

为解决上述技术问题,本发明实施方式采用的另一个技术方案是:提供一种机器人目标物体抓取位置检测装置,包括:采集模块:用于采集目标物体在不同视角下的目标rgb图像和目标depth图像,其中,所述目标rgb图像和目标depth图像中的像素点一一对应;

分割模块:用于将每一所述目标rgb图像输入至目标物体分割网络进行计算,得到所述目标图像中目标物体的rgb像素区域及所述目标depth图像中目标物体的depth像素区域;

抓取模块:用于将所述目标物体的rgb像素区域输入至最优抓取位置生成网络,得到所述目标物体抓取的最优抓取位置;

评估模块:用于将所述目标物体的depth像素区域及所述最优抓取位置输入至抓取位置质量评估网络,计算所述最优抓取位置的得分;

选择模块:用于选择最高得分对应的最优抓取位置作为机器人全局最优抓取位置。

其中,所述分割模块中目标物体分割网络是使用卷积神经网络模型训练出来的网络,具体包括:

获取包含目标物体的rgb图像;

将所述rgb图像缩放至预设第一像素,得到第一训练集;

标注所述第一训练集中的目标物体对应的像素区域;

将所述第一训练集和所述目标物体对应的像素区域作为所述卷积神经网络模型输入进行训练,得到所述目标物体分割网络;

将所述目标物体分割网络得到的目标物体对应的rgb像素区域与标注的目标物体对应的像素区域做重叠对比;

根据所述重叠对比结果调整所述目标物体分割网络的权值。

其中,所述抓取模块中最优抓取位置生成网络是使用卷积神经网络模型训练出来的网络,具体包括:

将所述目标物体分割网络得到的目标物体对应的rgb像素区域缩放至预设第二像素,得到第二训练集;

将所述第二训练集中的图像标记最优抓取位置坐标;

将所述第二训练集中的图像和其对应的最优抓取位置坐标作为输入,使用卷积神经网络模型进行训练,得到最优抓取位置生成网络。

其中,所述评估模块中抓取位置质量评估网络是使用卷积神经网络模型训练出来的网络,具体包括:

获取包含目标物体的depth图像;

将所述depth图像缩放至预设第三像素,得到第三训练集;

从所述第三训练集中的depth图像上随机采取一对抓取点位置,并使用预设评分算法得到对应评分;

将所述depth图像、抓取点位置以及抓取点位置对应的评分作为输入,使用卷积神经网络模型进行训练,得到抓取位置质量评估网络。

为解决上述技术问题,本发明实施方式采用的再一个技术方案是:提供一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;

所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行所述的一种机器人目标物体抓取位置检测的方法对应的操作。

为解决上述技术问题,本发明实施方式采用的又一个技术方案是:提供一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行一种机器人目标物体抓取位置检测的方法对应的操作。

本发明实施方式的有益效果是:区别于现有技术的情况,本发明实施方式采用目标物体分割网络得到目标物体对应的像素区域,并将所述目标物体对应的像素区域输入至最优抓取位置生成网络,得到目标物体抓取的最优抓取位置,并使用抓取位置质量评估网络计算所述最优抓取位置的评分,将最高得分对应的最优抓取位置作为机器人全局最优抓取位置,通过本发明,可以实现机器人自动在最优抓取位置抓取目标物体。

上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。

附图说明

通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:

图1是本发明实施方式的一种机器人目标物体抓取位置检测的方法流程图;

图2是本发明实施方式的目标物体分割网络训练流程图;

图3是本发明实施方式的最优抓取位置生成网络训练流程图;

图4是本发明实施方式的抓取位置质量评估网络训练流程图;

图5是是本发明实施方式的一种机器人目标物体抓取位置检测装置功能框图;

图6是本发明实施方式的一种计算设备示意图。

具体实施方式

下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。

本申请实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的一种机器人目标物体抓取位置检测的方法。

图1为本发明一种机器人目标物体抓取位置检测的方法实施例的流程图。如图1所示,该方法包括以下步骤:

步骤s101:采集目标物体在不同视角下的目标rgb图像和目标depth图像,其中,所述目标rgb图像和目标depth图像中的像素点一一对应。

在本步骤中,将目标物体放置在机器人的机械臂下面的桌面上,采集当前位置下的rgb图像和depth图像,其中,所述rgb图像和depth图像的像素点是一一对应的。移动机械臂,从其他角度重新采集图像,在本发明实施例中,采集前、后、左、右、前上、后上、左上、右上共8个位置的图像。

步骤s102:将每一所述目标rgb图像输入至目标物体分割网络进行计算,得到所述目标rgb图像中目标物体的rgb像素区域及所述目标depth图像中目标物体的depth像素区域。

在本步骤中,将每一个所述目标rgb图像输入至目标物体分割网络进行计算,得到所述目标rgb图像中目标物体的rgb像素区域,rgb图像与depth图像是一一对应的,所以,根据所述目标rgb图像中目标物体的rgb像素区域,可以定位出所述目标depth图像中目标物体的depth像素区域。

需要说明的是,所述所述目标物体分割网络是使用卷积神经网络模型训练出来的网络,图2是本发明实施方式的目标物体分割网络训练流程图,如图2所示,目标物体分割网络的训练包括以下步骤:

步骤s1021:获取包含目标物体的rgb图像。

步骤s1022:将所述rgb图像缩放至预设第一像素,得到第一训练集。

在本步骤中,将每一张rgb图像缩放至预设第一像素,以适应网络结构,在本发明实施例中,所述预设第一像素大小为320*320像素。

步骤s1023:标注所述第一训练集中的目标物体对应的像素区域。

在本步骤中,人为标注所述目标物体对应的像素区域,如使用方框标注目标物体对应的像素区域在所述训练集中的图像中的位置。

步骤s1024:将所述第一训练集和所述目标物体对应的像素区域作为所述卷积神经网络模型输入进行训练,得到所述目标物体分割网络。

在本步骤中,所述卷积神经网络模型为用于实例分割的任意一个主流卷积神经网络模型,如分割网络(segnet)、深度实验室网络(deeplabv1,deeplabv2,deeplabv3,deeplabv3++)、金字塔场景解析网络(pyramidsceneparsingnetwork,pspnet)及图像级联网络(imagecascadenetwork,icnet)。在本发明实施例中,采用分割网络(segnet),将所述目标物体对应的像素区域作为一类,不包含目标物体的背景对应的像素区域作为一类,将所述第一训练集和所述目标物体对应的像素区域输入所述卷积神经网络模型中进行训练,在本发明实施例中,所述卷积神经网络模型的层数为27层,在进行训练时,通过卷积提取层提取所述目标物体对应的像素区域,同时,图片会缩放至预设第一像素大小,该过程称为编码器。通过反卷积计算使得所述目标物体分类后的特征重现,并通过上采样还原所述目标物体对应的像素区域的目标尺寸,该过程称为解码器。将所述解码器的输出作为soft-max分类器的输入,计算每个像素类别的概率,根据所述概率判断所述目标物体所对应的像素区域。

步骤s1025:将所述目标物体分割网络得到的目标物体对应的rgb像素区域与标注的目标物体对应的像素区域做重叠对比。

在本步骤中,将包含目标物体的图像作为所述目标物体分割网络的输入,得到所述目标物体分割网络得到的rgb像素区域,将所述目标物体分割网络得到的像素区域与所述标注的目标物体对应的像素区域做重叠对比,以此作为所述目标物体分割网络的评价度量。

步骤s1026:根据所述重叠对比结果调整所述目标物体分割网络的权值。

在本步骤中,将所述重叠对比结果与预设的重叠对比结果阈值进行对比,若所述重叠对比结果低于所述预设的重叠对比结果阈值,则调整所述神经网络结构和权值。

步骤s103:将所述目标物体的rgb像素区域输入至最优抓取位置生成网络,得到所述目标物体抓取的最优抓取位置。

在本步骤中,所述最优抓取位置生成网络是使用卷积神经网络模型训练出来的网络,图3是本发明实施方式的最优抓取位置生成网络训练流程图,如图3所示,最优抓取位置生成网络的训练包括以下步骤:

步骤s1031:将所述目标物体分割网络得到的目标物体对应的rgb像素区域缩放至预设第二像素,得到第二训练集。

在本步骤中,将所述目标物体对应的rgb像素区域缩放至预设第二像素,以适应网络结构,在本发明实施例中,所述预设第二像素为227*227像素。

步骤s1032:将所述第二训练集中的图像标记最优抓取位置坐标。

在本步骤中,在所述第二训练集中的图像中对目标物体标记(x,y,θ)作为抓取位置,其中,(x,y)为抓取点,θ为抓取角度,在进行抓取位置标注时,首先定义抓取角度,然后,标记每个抓取角度下的最优抓取位置,如将抓取范围[0,180°]平均分为18个角度值,标记每个角度下最优抓取位置坐标。在本发明实施例中,为了增加训练数据集中图像的数量,将所述第二训练集中的每一张图像都标注抓取角度及最优抓取位置坐标。

步骤s1033:将所述第二训练集中的图像和其对应的最优抓取位置坐标作为输入,使用卷积神经网络模型进行训练,得到最优抓取位置生成网络。

在本步骤中,所述卷积神经网络模型为任意现有卷积神经网络模型,在本发明实施例中,采用alexnet模型,将所述第二训练集中的图像及其对应的最优抓取位置(x,y,θ)作为所述卷积神经网络模型的输入,其中,所述alexnet模型为7层,包含5个卷积层和2个全连接层,所述alexnet模型经过训练得到最优抓取位置生成网络,计算所述最优抓取位置生成网络输出的预测抓取点(xp,yp)与标记点(x,y)之间的欧式距离,并依据所述欧式距离,使用softmax损失函数调整所述最优抓取位置生成网络的权值。

步骤s104:将所述目标物体的depth像素区域及所述最优抓取位置输入至抓取位置质量评估网络,计算所述最优抓取位置的得分。

在本步骤中,所述抓取位置质量评估网络是使用卷积神经网络模型训练出来的网络,图4是本发明实施方式的抓取位置质量评估网络训练流程图,如图4所示,抓取位置质量评估网络的训练包括以下步骤:

步骤s1041:获取包含目标物体的depth图像。

在本步骤中,所述depth图像是根据rgb图像得到的深度图像,其中,所述depth图像与所述rgb图像的像素点一一对应。

步骤s1042:将所述depth图像缩放至预设第三像素,得到第三训练集。

在本步骤中,将所述depth图像缩放至预设第三像素,以适应网络结构,在本发明实施例中,所述预设第三像素为32*32像素。

步骤s1043:从所述第三训练集中的depth图像上随机采取一对抓取点位置,并使用预设评分算法得到对应评分。

步骤s1044:将所述depth图像、抓取点位置以及抓取点位置对应的评分作为输入,使用卷积神经网络模型进行训练,得到抓取位置质量评估网络。

在本步骤,所述卷积神经网络包括9层,其中4个为卷积层,1个池化层及4个全连接层。根据所述抓取位置质量评估网络的输出评分与步骤s1043中所述预设评分算法得到的评分对比,调整所述抓取位置质量评估网络的权值。

步骤s105:选择最高得分对应的最优抓取位置作为机器人全局最优抓取位置。

根据本实施例提供的一种机器人目标物体抓取位置检测的方法,采用目标物体分割网络得到目标物体对应的像素区域,将所述目标物体对应的像素区域输入至最优抓取位置生成网络,得到目标物体抓取的最优抓取位置,并使用抓取位置质量评估网络计算所述最优抓取位置的评分,将最高得分对应的最优抓取位置作为机器人全局最优抓取位置,通过本发明,可以实现机器人自动在最优抓取位置抓取目标物体。

图5为本发明一种机器人目标物体抓取位置检测装置实施例的功能框图。如图5所示,该装置包括:采集模块501、分割模块502、抓取模块503、评估模块504及选择模块505,其中,采集模块501用于采集目标物体在不同视角下的目标rgb图像和目标depth图像,其中,所述目标rgb图像和目标depth图像中的像素点一一对应;分割模块502用于将每一所述目标rgb图像输入至目标物体分割网络进行计算,得到所述目标图像中目标物体的rgb像素区域及所述目标depth图像中目标物体的depth像素区域;抓取模块503用于将所述目标物体的rgb像素区域输入至最优抓取位置生成网络,得到所述目标物体抓取的最优抓取位置;评估模块504用于将所述目标物体的depth像素区域及所述最优抓取位置输入至抓取位置质量评估网络,计算所述最优抓取位置的得分;选择模块505用于选择最高得分对应的最优抓取位置作为机器人全局最优抓取位置。

在本实施例中,分割模块502中目标物体分割网络是使用卷积神经网络模型训练出来的网络,具体包括:

获取包含目标物体的rgb图像;

将所述rgb图像缩放至预设第一像素,得到第一训练集;

标注所述第一训练集中的目标物体对应的像素区域;

将所述第一训练集和所述目标物体对应的像素区域作为所述卷积神经网络模型输入进行训练,得到所述目标物体分割网络;

将所述目标物体分割网络得到的目标物体对应的rgb像素区域与标注的目标物体对应的像素区域做重叠对比;

根据所述重叠对比结果调整所述目标物体分割网络的权值。

进一步的,抓取模块503中最优抓取位置生成网络是使用卷积神经网络模型训练出来的网络,具体包括:

将所述目标物体分割网络得到的目标物体对应的rgb像素区域缩放至预设第二像素,得到第二训练集;

将所述第二训练集中的图像标记最优抓取位置坐标;

将所述第二训练集中的图像和其对应的最优抓取位置坐标作为输入,使用卷积神经网络模型进行训练,得到最优抓取位置生成网络。

进一步的,评估模块504中抓取位置质量评估网络是使用卷积神经网络模型训练出来的网络,具体包括:

获取包含目标物体的depth图像;

将所述depth图像缩放至预设第三像素,得到第三训练集;

从所述第三训练集中的depth图像上随机采取一对抓取点位置,并使用预设评分算法得到对应评分;

将所述depth图像、抓取点位置以及抓取点位置对应的评分作为输入,使用卷积神经网络模型进行训练,得到抓取位置质量评估网络。

根据本实施例提供的一种机器人目标物体抓取位置检测装置,采用分割模块得到目标物体对应的像素区域,通过抓取模块得到目标物体抓取的最优抓取位置,并使用评估模块计算所述最优抓取位置的评分,将最高得分对应的最优抓取位置作为机器人全局最优抓取位置,通过本发明,可以实现机器人自动在最优抓取位置抓取目标物体。

图6为本发明计算设备实施例的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。

如图6所示,该计算设备可以包括:处理器(processor)602、通信接口(communicationsinterface)604、存储器(memory)606、以及通信总线608。

其中:

处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。

通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。

处理器602,用于执行程序610,具体可以执行上述一种机器人目标物体抓取位置检测的方法实施例中的相关步骤。

具体地,程序610可以包括程序代码,该程序代码包括计算机操作指令。

处理器602可能是中央处理器cpu,或者是特定集成电路asic(applicationspecificintegratedcircuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个cpu;也可以是不同类型的处理器,如一个或多个cpu以及一个或多个asic。

存储器606,用于存放程序610。存储器606可能包含高速ram存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。

程序610具体可以用于使得处理器602执行以下操作:

采集目标物体在不同视角下的目标rgb图像和目标depth图像,其中,所述目标rgb图像和目标depth图像中的像素点一一对应;

将每一所述目标rgb图像输入至目标物体分割网络进行计算,得到所述目标rgb图像中目标物体的rgb像素区域及所述目标depth图像中目标物体的depth像素区域;

将所述目标物体的rgb像素区域输入至最优抓取位置生成网络,得到所述目标物体抓取的最优抓取位置;

将所述目标物体的depth像素区域及所述最优抓取位置输入至抓取位置质量评估网络,计算所述最优抓取位置的得分;

选择最高得分对应的最优抓取位置作为机器人全局最优抓取位置。

在一种可选的方式中,程序610具体可以进一步用于使得处理器602执行以下操作:所述目标物体分割网络是使用卷积神经网络模型训练出来的网络,具体包括:

获取包含目标物体的rgb图像;

将所述rgb图像缩放至预设第一像素,得到第一训练集;

标注所述第一训练集中的目标物体对应的像素区域;

将所述第一训练集和所述目标物体对应的像素区域作为所述卷积神经网络模型输入进行训练,得到所述目标物体分割网络;

将所述目标物体分割网络得到的目标物体对应的rgb像素区域与标注的目标物体对应的像素区域做重叠对比;

根据所述重叠对比结果调整所述目标物体分割网络的权值。

在一种可选的方式中,程序610具体可以进一步用于使得处理器602执行以下操作:

将所述目标物体分割网络得到的目标物体对应的rgb像素区域缩放至预设第二像素,得到第二训练集;

将所述第二训练集中的图像标记最优抓取位置坐标;

将所述第二训练集中的图像和其对应的最优抓取位置坐标作为输入,使用卷积神经网络模型进行训练,得到最优抓取位置生成网络。

在一种可选的方式中,程序610具体可以进一步用于使得处理器602执行以下操作:

获取包含目标物体的depth图像;

将所述depth图像缩放至预设第三像素,得到第三训练集;

从所述第三训练集中的depth图像上随机采取一对抓取点位置,并使用预设评分算法得到对应评分;

将所述depth图像、抓取点位置以及抓取点位置对应的评分作为输入,使用卷积神经网络模型进行训练,得到抓取位置质量评估网络。

在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。

在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。

类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。

本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。

此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。

本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(dsp)来实现根据本发明实施例的一种机器人目标物体抓取位置检测装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。

应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1