位置和姿势测量装置、信息处理装置以及信息处理方法

文档序号:6303438阅读:83来源:国知局
位置和姿势测量装置、信息处理装置以及信息处理方法
【专利摘要】本发明公开了一种位置和姿势测量装置、信息处理装置以及信息处理方法,这些装置以及所述方法能够稳健地执行位置和姿势的测量。为了实现上述装置和方法,需要从包括目标物体的图像中获取所述目标物体的至少一个粗略位置和姿势;需要基于所获取的粗略位置和姿势新生成至少一个候选位置和姿势,并作为用于导出所述目标物体的位置和姿势的初始位置和姿势;以及基于作为初始位置和姿势而生成的所述候选位置和姿势,通过将所述目标物体的模型信息与所述图像中的所述目标物体进行关联,从而导出图像中的所述目标物体的位置和姿势。
【专利说明】位置和姿势测量装置、信息处理装置以及信息处理方法
【技术领域】
[0001]本发明涉及一种位置和姿势测量装置、信息处理装置以及信息处理方法,用于测量已知形状的物体的位置和姿势。
【背景技术】
[0002]近年来,随着计算机视觉的不断发展,人们正越来越多地研究允许机器人执行复杂任务的技术。这些任务的主要示例中包括工业产品的装配。当机器人自主地执行装配工作时,诸如手等的末端执行器通常需要保持将被装配的组件(目标物体)。在保持组件之前,机器人利用照相机对实际环境进行摄像。然后,通过将目标物体的模型信息与所拍摄的图像进行拟合,机器人测量实际环境中的目标物体的位置和姿势。此外,基于所获得的测量结果,机器人生成运动计划并实际控制致动器。
[0003]另外,将被装配的组件可能具有复杂的形状和质地。由于关于模型信息与用于被机器人保持组件的实际环境间的信息拟合需要稳健性(robustness),因此已进行了各种研究。
[0004]例如,日本专利申请特开2012-26974号公报描述了一种以稳健的方式假定照相机的位置和姿势的方法。根据该方法,首先,在照相机可能的位置和姿势范围内,以预定采样间隔生成多个初始位置和姿势。接下来,对每个初始位置和姿势执行拟合计算,具有最高分的位置和姿势被确定为所述拟合的最终位置和姿势。
[0005]然而,上述日本专利申请特开2012-26974号公报中描述的方法是基于这样一种假设:即照相机的位置和姿势的可能范围被预先确定在合适的范围内。因此,如果没有满足该假设的话,那么就不能以稳健方式获得照相机的位置和姿势。

【发明内容】

[0006]根据本发明的一个方面,位置和姿势测量装置包括:获取单元,被配置为从包括目标物体的图像中获取所述目标物体的至少一个粗略位置和姿势;生成单元,被配置为基于所获取的粗略位置和姿势而新生成至少一个候选位置和姿势,并将其作为用于导出所述目标物体的位置和姿势的初始值;以及导出单元,被配置为:基于作为初始位置和姿势而生成的所述候选位置和姿势,通过将所述目标物体的模型信息与所述图像中的所述目标物体进行关联,从而导出图像中的所述目标物体的位置和姿势。
[0007]根据本发明,可以实现对位置和姿势的稳健测量。
[0008]通过下文对示例性实施方式的描述并结合附图,本发明的进一步特征将显而易见。
【专利附图】

【附图说明】
[0009]图1示出了根据本发明的第一至第七示例性实施方式的系统配置。
[0010]图2的框图示出了程序的模块配置。[0011]图3A至3F示出了三维模型信息的配置。
[0012]图4的流程图示出了整个拟合处理过程。
[0013]图5A至5C示出了用于从粗略位置和姿势的分布中生成候选位置和姿势的方法。
[0014]图6的流程图示出了位置和姿势的计算过程。
[0015]图7A和7B示出了如何搜索对应点。
[0016]图8示出了边缘的投影图像与检测到的边缘之间的关系。
[0017]图9A、9B及9C示出了用于通过校正位置和姿势的可能分布而生成初始位置和姿势的方法。
[0018]图10示出了粗略位置和姿势中的三维模型。
[0019]图1lA和IlB示出了如何从所述粗略位置和姿势的三维模型中获得边缘检测点的分布。
[0020]图12示出了亮度图像,所述亮度图像包括所述测量目标物体的背景中的噪声。
[0021]图13A和13B示出了如何从所述亮度图像中获取边缘检测点的分布。
[0022]图14示出了本发明第六示例性实施方式的概念。
[0023]图15示出了根据本发明的第八示例性实施方式的机器人系统的配置示例。【具体实施方式】
[0024]以下将结合附图详细描述本发明的各种示例性实施方式、特征及各方面。以下所描述的各示例性实施方式均示出了本发明的示例性实施方式的具体示例。
[0025]根据第一示例性实施方式,目标物体的亮度图像和距离图像同时被摄像装置和投影装置获得。接下来,利用二维尺度使得三维模型信息与亮度图像拟合,利用三维尺度使得所述三维模型信息与距离图像拟合。此外,所获得的结果同时被二维尺度和三维尺度评估。根据本示例性实施方式,尽管同时利用了二维尺度和三维尺度执行拟合,但在本发明中同样可以只使用二维尺度或只使用三维尺度。
[0026]针对三维模型信息的初始位置的设置,根据对摄像装置拍摄的亮度图像执行的全搜索而获得位置和姿势的可能分布(粗略位置和姿势的分布)。然后,根据所获得的粗略位置和姿势的分布,生成多个初始的或候选的位置和姿势。此外,根据候选位置和姿势执行拟合。最后,最为匹配的位置和姿势作为最终拟合结果被输出。
[0027]以这种方式,可以是局部解的位置和姿势被全面验证,从而能提高拟合的稳健性。以下将详细描述所述处理过程的细节。在以下对根据本发明的所有示例性实施方式的描述中,除非另有指定,否则“拟合”均是指将测量目标物体的二维或三维几何模型与图像中的所述测量目标物体的位置、或位置和姿势进行拟合。
[0028]图1示出了根据第一示例性实施方式的位置和姿势测量装置的系统配置。
[0029]测量目标物体101是位置和姿势的测量的目标物体。根据本示例性实施方式,如图1所示,为了简化描述,提供了一个测量目标物体101。然而,下文所述的位置和姿势测量处理并没有在很大程度上依赖于测量目标物体的形状、数量或堆积状态。例如,本发明适用于测量一堆具有不同形状的待测量的混合物体中的物体的位置和姿势。
[0030]投影装置102将图案光投射在测量目标物体101上。下文将详细描述投影装置102。[0031]摄像装置103拍摄静止图像或移动图像。根据本示例性实施方式,摄像装置103对测量目标物体101执行摄像,上述摄像可以利用或不利用由投影装置102投射在测量目标物体101上的图案光。当摄像完成后,摄像装置103就将拍摄的图像发送给位置和姿势测量装置104。下文将详细描述摄像装置103。
[0032]位置和姿势测量装置104与投影装置102和摄像装置103连接。除了控制投影装置102和摄像装置103的操作之外,位置和姿势测量装置104还利用摄像装置103拍摄的图像而获得测量目标物体101的位置和姿势。此外,位置和姿势测量装置104被配置为执行如图2所示的处理,例如,作为运行在处理器或电路中的程序或软件。三维模型信息存储单元202对应于设置在位置和姿势测量装置104内部或外部的存储设备,例如硬盘或存储器。例如,三维模型信息存储单元202可以被包括在硬盘中,且计算机可执行程序也可以被存储在硬盘中,所述计算机可执行程序促使中央处理单元(CPU)执行除了所述三维模型信息存储单元202之外的所述位置和姿势测量装置104的各个单元的功能。接下来,所述位置和姿势测量装置104的CPU读取被存储在硬盘中的计算机可执行程序或数据,将所述计算机可执行程序或数据加载到随机存取存储器(RAM)中,并利用从硬盘中读取的所述计算机可执行程序或数据执行处理。一般个人计算机(PC)可以用作位置和姿势测量装置104。此外,位置和姿势测量装置104通过基于RS-232C或IEEE488的通用通信接口控制投影装置102和摄像装置103的操作。摄像装置103的摄像时间由所述位置和姿势测量装置104控制。
[0033]接下来将参照图2中的框图描述所述位置和姿势测量装置104的功能的配置示例。
[0034]三维模型信息存储单元202存储三维计算机辅助设计(CAD)模型,所述三维CAD模型可由三维CAD软件或测量目标物体的形状信息来进行处理。通过将三维CAD模型转换成计算机绘图中使用的多个多边形元素而获得形状信息。根据本示例性实施方式,CAD模型是利用多边形元素模拟所述测量目标物体101的形状的三维几何模型。下文将结合图3描述三维模型信息的配置。
[0035]如图3A至3C所示,由多边形元素构成的三维几何模型包括点、线和面。各个图3A至3C示出了同一个三维几何模型。
[0036]根据由多边形元素构成的三维几何模型的模型信息,图3A所示的三维几何模型的各顶点由所述顶点的索引(index)和所述顶点的三维坐标值管理,如图3D所示。
[0037]此外,根据该模型信息,图3B所示的三维几何模型的各个边由所述边的索引和所述边的末端的顶点管理,如图3E所示。
[0038]还有,根据该模型信息,图3C所示的三维几何模型的各个面(多边形)由所述多边形的索引、构成所述多边形的线段以及所述多边形的法向量管理,如图3F所示。
[0039]所述三维模型信息存储单元202被存储在位置和姿势测量装置104的某个存储器中,或被存储在可由所述位置和姿势测量装置104访问的外部存储器中。
[0040]粗略位置和姿势获取单元203获取已由摄像装置103拍摄的测量目标物体101的图像。在本实施例中,测量目标物体101的该图像具有投影装置102投射的图案。接下来,粗略位置和姿势获取单元203从已获得的被拍摄图像中获取测量目标物体101的可能位置和姿势(粗略位置和姿势)。下文将描述具体的方法。[0041]基于粗略位置和姿势获取单元203获得的粗略位置和姿势的分布,候选位置和姿势生成单元204生成多个候选位置和姿势。下文将描述用于生成候选位置和姿势的方法。
[0042]候选位置和姿势选择单元205从多个候选位置和姿势中选择一个或多个候选位置和姿势作为初始值,用于位置和姿势的拟合计算。通过筛选所述多个候选位置和姿势,能够减少计算时间。下文将描述用于选择候选位置和姿势的方法。
[0043]利用候选位置和姿势选择单元205所选择的候选位置和姿势的位置和姿势,位置和姿势计算单元206将三维模型与摄像装置103获得的亮度图像和距离图像进行拟合。然后,位置和姿势计算单元206计算出最终位置和姿势。
[0044]摄像装置103是照相机,用于拍摄提供有测量目标物体101的工作区的图像。在本发明的描述中,没加修饰词的“坐标系”和“位置和姿势”分别表示照相机的“坐标系”以及照相机的坐标系中的“位置和姿势”。另一方面,“模型坐标系”表示为各模型定义的、用于表达组件的三维模型的顶点或者面的位置的坐标系。诸如焦距、主点位置及镜头畸变参数等照相机的内部参数将被预先使用例如以下文章中描述的方法进行校准:“一种用于照相机校准的新型弹性方法” (A flexible new technique for camera calibration) (IEEETransaction Pattern Analysis and Machine Intelligence,第22卷,第11号,1330-1334页,2000 年,作者 Z.Zhang)。
[0045]投影装置102利用液晶投影仪投射图案光。诸如焦距、主点位置及镜头畸变参数等投影仪的内部参数将被预先使用与校准照相机所使用的方法类似的方法进行校准。投影装置102并不限于液晶投影仪,也可以是不同类型的投影仪,只要该投影仪能投射图案光即可。例如,可以是使用数字微镜器件(DMD, digital micro-mirror device)或娃基液晶(LC0S, liquid crystal on silicon)的投影仪。
[0046]位置和姿势测量装置104控制投影装置102和摄像装置103以获得测量目标物体的亮度图像和距离图像。
[0047]例如,可以如下文所述获得亮度图像和距离图像。首先,当位置和姿势测量装置104获得亮度图像时,所述位置和姿势测量装置104生成预定图案,并通过例如数字视频接口(DVI)等通用显示接口将投影图案的数据发送给投影装置102。此外,所述位置和姿势测量装置104通过例如RS-232C或IEEE488等通用通信接口控制投影装置102的操作。然后,根据所述位置和姿势测量装置104的控制,投影装置102基于被发送的投影图案的数据而在显示装置上显示图案。被投射的图案是例如全开灯图案(full ON pattern)、全关灯图案(full OFF pattern)、空间编码中使用的格雷码或使用相移的正弦波图案。
[0048]所述位置和姿势测量装置104从摄像装置103获得由摄像装置103拍摄的、被投射图案的测量目标物体101的图像。换句话说,所述位置和姿势测量装置104获得数字图像信号,所述数字图像信号是根据摄像装置103执行的采样和量化而获得的。此外,所述位置和姿势测量装置104从所获得的图像信号中获取以各像素的亮度(浓度值)表示的图像数据,并将所获得图像数据存储在存储器中。
[0049]基于所拍摄的图像中的图案光的形状,利用三角测量原理,从而生成距离图像。通常该方法被称为“主动立体”(active stereo) 0用于获得距离图像的方法并不局限于主动立体法,也可以采用例如“被动立体”(passive stereo)等不同的方法来实现本发明的示例性实施方式。[0050]图4的流程图示出了上述信息处理装置的拟合处理的流程。该流程图示出了所述处理流程的概要。以下将参照其他附图来详细描述尤为重要的处理。
[0051]在步骤S401中,位置和姿势测量装置104的CPU指示摄像装置103对工作区中的测量目标物体101进行摄像,并获得所述测量目标物体101的亮度图像和距离图像。
[0052]在步骤S402中,位置和姿势测量装置104的CPU对所述测量目标物体101的多个粗略位置和姿势的亮度图像执行全搜索,并确定所述位置和姿势的可能分布。利用对图像进行全搜索以获得所述图像中的测量目标物体的粗略位置和姿势的技术是常用技术。例如,一种利用模式匹配(pattern matching)而计算物体的三维模型的图像中的位置和姿势的方法在下述非专利文献中描述:“利用树形分类器集成对堆积物体进行检测和姿态估计,,(“Detection and Pose Estimation of Piled Objects using Ensemble of TreeClassifiers”)(Hiroto Yoshii,图像识别和理解会议(MIRU2010),2010)。
[0053]根据该方法,在图像中多次执行模式匹配。从一次匹配处理中获得的结果被记录为一个“投票”。当全部模式匹配都完成后,投票结果就被编译,并作为全搜索的结果被呈现。从一个投票中获得的结果包括测量目标物体的位置和姿势的六个参数的信息。然而,实际上,为了简化计算,与二维尺度或三维尺度相关联的参数可以被分类并以代表值表示。根据本发明,各具有六个位置和姿势参数的多个投票被用作目标组件的位置和姿势的可能分布。
[0054]图5A示出了以这种方式获得的粗略位置和姿势的分布的示例。根据本示例性实施方式,尽管出于简化目的而以两个参数(X,y)表达位置和姿势,但实际拟合时可以使用所述位置和姿势的六个参数。
[0055]此外,所述用于在根据本示例性实施方式的图像中搜索特定组件的位置和姿势的方法所使用的图像并不限于亮度图像。换句话说,例如距离图像等三维信息也可以用于检索所述组件的位置和姿势。
[0056]还有,尽管上文的描述中使用了用于获得粗略位置和姿势的分布的全搜索,但根据本发明,并非总是需要执行图像的全搜索。例如,如果组件被持续放在工作区域中基本相同的位置,那么就可能只对该区域使用局部搜索。
[0057]在步骤S403中,基于在步骤S402中获得的粗略位置和姿势的分布,位置和姿势测量装置104的CPU生成预定数量的候选位置和姿势。
[0058]首先,CPU基于粗略位置和姿势的分布来计算平均向量μ和协方差矩阵Σ,并应用高斯分布。图5Β示出了 CPU创建的分布图。在图5Β中,通过绘制二维高斯分布的概率密度而获得的等高线被添加到图5Α所示的粗略位置和姿势的分布中。
[0059]接下来,根据所获得的高斯分布,CPU生成预定数量的候选位置和姿势。所述预定数量是通过对系统需要的可允许时间执行逆运算而获得的数量。图5C示出了以这种方式生成的候选位置和姿势。基于已知的概率密度分布而生成采样数据点的方法在本领域中是已知的技术,并且可以采用任意的合适的技术。
[0060]在图5C的示例中,在步骤S402中获得的粗略位置和姿势(在图5C中被标绘为黑点)以及新生成的候选位置和姿势(在图5C中被标绘为黑三角)的总数量被设为20。这20个点为初始位置和姿势。
[0061]根据本示例性实施方式,由于被设为粗略位置和姿势的位置和姿势被认为具有一定的合理性,因此它们被采用为候选位置和姿势。然而,根据本示例性实施方式,可以只采用新生成的位置和姿势作为候选位置和姿势。
[0062]尽管高斯分布被用作概率密度模型,但事实上也可以使用其他分布(预定分布功能)作为概率密度模型,只要该分布能概括所获得的粗略位置和姿势的分布即可。此外,也可以使用正方形分布。
[0063]在步骤S404中,位置和姿势测量装置104的CPU从在步骤S403中获得的多个候选位置和姿势中选择具有得分高的预定数量(一个或多个)的候选位置和姿势。得分表示三维模型与亮度图像及距离图像的匹配率。更具体地,CPU执行一次位置和姿势计算处理的位置和姿势更新处理(以下将参照图6中的步骤S601至S606进行描述)。然后,CPU比较候选位置和姿势,并按照高分顺序对候选位置和姿势分类。此外,CPU提取出得分最高的预定数量的候选位置和姿势。
[0064]通过只对已被选择的候选位置和姿势执行需要重复处理的位置和姿势计算处理,可以减少总的拟合时间。CPU通过对系统所需的可允许时间执行逆运算而设置候选位置和姿势的预定数量。此外,任何值都可以用作得分,只要该值能表达三维模型与亮度图像或距离图像的匹配度即可。
[0065]例如,也可以使用以下方法:获取三维模型与亮度图像或距离图像间的误差向量(下文所述),并使用范数的倒数(reciprocal ofthe norm)。下文图6的步骤S603中提供了关于误差向量的进一步解释。然而,也可以使用不同的索引。根据上文所述的选择处理,在使用得分评估候选位置和姿势之前,在步骤S601至S606中执行一次(关联一次)位置和姿势更新处理。然而,执行该处理的次数并不限于一次,对方法也没有限制,只要能以适当(合理)方式快速确定合适的初始位置和姿势即可。
[0066]例如,可以不更新位置和姿势而计算得分,或者可以在将位置和姿势更新两次或多次之后计算得分。有很多方法能被用作选择处理的实际过程。本发明的选择处理的方法并不限于某种特定方法。
[0067]在步骤S405中,位置和姿势测量装置104的CPU为在步骤S404中选择的预定数量的一个或多个候选位置和姿势中的每一个确定最终位置和姿势。下文将参照图6描述位置和姿势计算处理的细节。图6的流程图示出了步骤S405中示出的一个初始位置和姿势的位置和姿势计算处理的详细过程。
[0068]根据本示例性实施方式,利用高斯-牛顿方法,通过使用反复运算而重复校正测量目标物体的候选位置和姿势(下文以“s”表示),从而计算出位置和姿势。根据本示例性实施方式,基于被假定为图像中的边缘的位置和姿势,并基于离被投射在所述图像上的三维模型的边缘的距离,以及所述距离图像的点群数据的各个点和位置与姿势,所述位置和姿势被优化,以便将被转换成三维测量装置的坐标系的面之间的距离的总和最小化。
[0069]更确切地说,二维图像中点和直线之间的各符号距离和三维空间中点和平面之间的符号距离被线性泰勒展开式表示为组件的位置和姿势的微小变化的线性函数。接下来,通过建立并解析关于符号距离为O的位置和姿势的微小变化的线性联立方程式,为位置和姿势的所述微小变化重复校正组件的位置和姿势。
[0070]在步骤S601中,位置和姿势测量装置104的CPU执行初始化。更准确地说,CPU将在步骤S404中选择的候选位置和姿势设置为下文称为“当前位置和姿势”的所述位置和姿势的初始值。
[0071]在步骤S602中,位置和姿势测量装置104的CPU执行关联处理。首先,基于当前位置和姿势,CPU将三维模型的各个边缘投射到图像上,并对各个面执行坐标转换以转换成三维测量装置的坐标系。然后,CPU对边缘和点群数据执行关联。
[0072]图7A和7B示出了边缘的拟合方法。
[0073]图7A示出了被投射在亮度图像上的三维模型的边缘。首先,在被投射的边缘701上以规律的间隔设置多个控制点702。接下来,在被投射的边缘701的法线方向上为各个控制点702画搜索线703。另外,在其中一个控制点702作为原点的搜索线703的预定范围内执行一维边缘检测。接下来,被检测到的边缘中最靠近控制点的那个点被存储为对应点704。
[0074]图7B是将控制点作为原点的图,该图的横轴表示搜索线,纵轴表示亮度梯度的绝对值。检测到的所述边缘作为所述图像中的像素值的亮度梯度的绝对值的极值。在图7B中,将亮度梯度的绝对值的极值大于预定阈值705且最靠近控制点的点设置为对应点704。
[0075]接 下来,位置和姿势测量装置104的CPU在点群数据和模型的一个面之间执行关联处理。换句话说,CPU在范围图像中搜索一个点,并执行关联处理,其中,在三维空间中该范围图像与该模型面上的各点最近。
[0076]在步骤S603中,位置和姿势测量装置104的CPU计算用于求解线性联立方程式的系数矩阵和误差向量。根据本示例性实施方式,系数矩阵的各元素是位置和姿势的微小变化的线性偏导数。针对边缘计算出图像坐标的偏导数,针对点群计算出三维坐标的偏导数。关于误差向量,就边缘而言是被投射的边缘与被检测的边缘在图像中的距离。就点群数据而言,是范围图像中的一个点与模型的一个面上的一个点在三维空间中的距离。
[0077]图8示出了边缘的投影图像与被检测边缘之间的关系。在图8中,图像的水平方向和垂直方向分别由u轴和V轴表示。通过在图像中按规律间隔分割各个被投射的边缘而获得的控制点被表示为点(Utl, Vtl),并且控制点所属的边缘在图像中的倾斜度被表示为相对于U轴的倾斜Θ。倾斜Θ被计算出,以作为通过基于“S”将边缘两端的三维坐标投射在图像上并连接图像中的两端的坐标而获得的直线的倾斜。图像中的边缘的法向量将会是(sin0,-cos0)。此外,控制点的对应点的坐标被设置为(u’,v’)。通过点(u’,v’ )并具有倾斜Θ的直线上的点(U,V)被表示如下:
[0078]u sin Θ -v cos Θ =d 公式 I
[0079]其中Θ是常数,并且其中
[0080]d=u,sin Θ -v,cos θ 公式 2
[0081]图像中的控制点的位置根据测量目标物体的位置和姿势而改变。此外,测量目标物体的位置和姿势的自由度为6度。换句话说,“s”是六维矢量,并由表示测量目标物体的位置的三个元素和表示姿势的三个元素组成。表示姿势的三个元素可以由例如欧拉角或三维矢量表示。三维矢量的方向表示旋转轴,尺寸表示旋转角。根据位置和姿势改变的控制点的点(U,V)可根据线性泰勒展开式在点(IVVtl)附近被近似,例如由公式3表示的那样。ASi(i=l,2,…,6)表示“s”的各组件的微小变化。

Qu
[0082]W ~ M0 + > -AS1,.TX OS,.[0083]
【权利要求】
1.一种位置和姿势测量装置,包括: 获取单元,被配置为从包括目标物体的图像中获取所述目标物体的至少一个粗略位置和姿势; 生成单元,被配置为基于所获取的粗略位置和姿势而新生成至少一个候选位置和姿势,并将其作为用于导出所述目标物体的位置和姿势的初始位置和姿势;以及 导出单元,被配置为:基于作为初始位置和姿势而生成的所述候选位置和姿势,通过将所述目标物体的模型信息与所述图像中的所述目标物体进行关联,从而导出图像中的所述目标物体的位置和姿势。
2.根据权利要求1所述的位置和姿势测量装置,其中, 所述获取单元,通过执行关于所述图像的模式匹配(pattern matching),获取图像中所述目标物体的粗略位置和姿势。
3.根据权利要求1所述的位置和姿势测量装置,其中, 所述获取单元,通过利用所述目标物体的模型信息,搜索所述图像而执行模式匹配。
4.根据权利要求1所述的位置和姿势测量装置,其中, 所述获取单元获取多个 粗略位置和姿势,以及, 其中,所述生成单元基于所获取的粗略位置和姿势的分布,新生成至少一个候选位置和姿势。
5.根据权利要求1所述的位置和姿势测量装置,其中, 所述生成单元将所获取的多个粗略位置和姿势的分布近似为预定分布函数,并在近似的分布中新生成至少一个候选位置和姿势。
6.根据权利要求1所述的位置和姿势测量装置,其中, 所述生成单元将所获取的粗略位置和姿势的分布分割为多个区域,然后基于所分割的区域新生成至少一个候选位置和姿势。
7.根据权利要求1所述的位置和姿势测量装置,其中, 在预定分辨率下获取由所述获取单元所获取的粗略位置和姿势,以及, 其中,所述生成单元基于所述粗略位置和姿势以及在获取所述粗略位置和姿势时使用的分辨率新生成至少一个候选位置和姿势。
8.根据权利要求7所述的位置和姿势测量装置,其中, 所述生成单元,通过在关于所获取的粗略位置和姿势的预定分辨率的范围内改变至少一个位置和姿势,新生成至少一个候选位置和姿势。
9.根据权利要求7所述的位置和姿势测量装置,其中, 所述分辨率是表示所述粗略位置和姿势的最小步长。
10.根据权利要求1所述的位置和姿势测量装置,其中, 所述生成单元,基于所获取的粗略位置和姿势、所述目标物体的纹理信息以及所述图像,新生成至少一个候选位置和姿势。
11.根据权利要求1所述的位置和姿势测量装置,其中, 所述生成单元,基于所获取的粗略位置和姿势以及所述目标物体的形状信息,新生成至少一个候选位置和姿势。
12.根据权利要求1所述的位置和姿势测量装置,其中,所述生成单元,基于所获取的粗略位置和姿势、所述目标物体的形状信息以及所述图像,新生成至少一个候选位置和姿势。
13.根据权利要求1所述的位置和姿势测量装置,其中,所述导出单元还包括: 选择单元,被配置为:从生成的候选位置和姿势中选择预定数量的候选位置和姿势,以及,基于所选择的候选位置和姿势,通过将所述目标物体的模型信息与所述图像中的所述目标物体相关联,导出所述图像中所述目标物体的位置和姿势。
14.根据权利要求13所述的位置和姿势测量装置,其中, 所述选择单元,基于将模型信息与所述图像中的目标物体相关联时生成的移动量,选择所生成的多个候选位置和姿势。
15.根据权利要求1所述的位置和姿势测量装置,其中, 所述导出单元,通过从生成的候选位置和姿势中提取边缘,并比较所提取的边缘与从所述目标物体的形状信息中提取的边缘,导出所述图像中所述目标物体的位置和姿势。
16.一种信息处理装置,包括: 根据权利要求1所述的位置和姿势测量装置; 保持单元,被配置为保持所述目标物体;以及 控制单元,被配置为基于由所述位置和姿势测量装置所测量的所述目标物体的位置和姿势来控制所述保持单元。
17.一种位置和姿势测量方法,包括: 从包括目标物体的图像中获取所述目标物体的至少一个粗略位置和姿势; 基于所获取的粗略位置和姿势新生成至少一个候选位置和姿势,并将其作为用于导出所述目标物体的位置和姿势的初始位置和姿势;以及 基于作为初始位置和姿势而生成的候选位置和姿势,通过将所述目标物体的模型信息与图像中的所述目标物体进行关联,导出图像中的所述目标物体的位置和姿势。
18.一种信息处理装置,用于执行目标物体的第一形状信息与第二形状信息的拟合,所述第二形状信息包括与第一形状信息重叠的区域,所述信息处理装置包括: 获取单元,用于获取所述第一形状信息的位置和姿势的可能的分布; 初始位置和姿势生成单元,用于基于所获取的分布生成第一形状信息的初始位置和姿势; 初始位置和姿势选择单元,用于从生成的多个初始位置和姿势中选择至少一个初始位置和姿势;以及 确定单元,用于基于所选择的初始位置和姿势来确定用于与所述第二形状信息执行拟合的第一形状信息的位置和姿势。
19.一种信息处理方法,用于执行目标物体的第一形状信息与第二形状信息的拟合,所述第二形状信息包括与第一形状信息重叠的区域,所述信息处理方法包括: 获取所述第一形状信息的位置和姿势的可能的分布; 基于所获取的分布生成第一形状信息的初始位置和姿势; 从生成的多个初始位置和姿势中选择至少一个初始位置和姿势;以及基于所选择的初始位置和姿势确定用于与所述第二形状信息执行拟合的第一形状信息的位置和姿势。
【文档编号】G05D3/12GK103984362SQ201410042860
【公开日】2014年8月13日 申请日期:2014年1月27日 优先权日:2013年2月7日
【发明者】广田祐一郎, 立野圭祐 申请人:佳能株式会社
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1