一种机器人跟踪方法和装置与流程

文档序号:11951920阅读:276来源:国知局
一种机器人跟踪方法和装置与流程

本申请涉及机器人制造领域,更具体地说,涉及一种机器人跟踪方法和装置。



背景技术:

在家庭服务机器人的应用场景中,很重要的一项是机器人对人的实时检测和跟踪,即实现机器人自主跟随人的功能。

当前机器人在对人进行跟踪时需要机器人自身携带的摄像头拍摄到人体的整体图像,完成对人的跟踪。因而,在现有技术中如果机器人拍摄到的人体照片只是人体的小部分部位,比如人腿时,则无法实现对目标的实时跟踪。



技术实现要素:

有鉴于此,本申请提供一种机器人跟踪方法和装置,基于人腿的HOG特征进行跟踪建模,以实现对目标的跟踪。

一种机器人跟踪方法,包括:

获取目标的深度图像,并将所述深度图像转换为灰度图像;

提取所述灰度图像的HOG特征;

采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿;

当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标;

按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。

优选的,所述提取所述灰度图像的HOG特征,包括:

采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描;

提取当前扫描区域的HOG特征。

优选的,所述人腿HOG检测模型包括:远距离人腿HOG检测模型和近距离人腿HOG检测模型。

优选的,所述采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包括目标人腿,包括:

比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征;

当比较结果满足预设要求时,确定所述灰度图像中包含目标人腿。

优选的,还包括:

若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标;

基于上一帧灰度图像中目标人腿的图像位置坐标,计算当前帧灰度图像中目标人腿的图像位置坐标。

一种机器人跟踪装置,包括:

图像采集处理单元,用于获取目标的深度图像,并将所述深度图像转换为灰度图像;

HOG特征提取单元,用于提取所述灰度图像的HOG特征;

人腿检测单元,用于采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿;

人腿图像位置坐标确定单元,用于当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标;

人腿实际位置坐标计算单元,用于按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。

优选的,所述HOG特征提取单元包括:

扫描模块,用于采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描;

特征提取模块,用于提取当前扫描区域的HOG特征。

优选的,所述人腿检测单元用于采用预先建立的远距离人腿HOG特征检测模型和近距离人腿检测模型对所述灰度图像的HOG特征进行检验。

优选的,所述人腿检测单元包括:

比较模块,用于比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征;

目标人腿确定模块,用于当比较满足预设要求时,确定所述灰度图像中包含目标人腿。

优选的,还包括:

数据采集单元,用于若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标;

计算单元,用于基于上一帧灰度图像中目标人腿的图像位置坐标,计算当前帧灰度图像中目标人腿的图像位置坐标。

经由上述技术方案可知,本申请公开了一种机器人跟踪方法和装置。该方法首先获取目标的深度图像,并将该深度图像转换为灰度图像。进而,提取该灰度图像的HOG特征,并采用预先建立的人腿HOG特征检测模型对该灰度图像进行检测,以确定该灰度图像中是否含有目标人腿。当确定灰度图像中包含目标人腿时,进一步确定目标人腿在该灰度图像中的图像位置坐标,并按照预设算法,将目标人腿的图像位置坐标转换为实际位置坐标,以实现机器人对目标的跟踪。与现有技术相比,本发明基于人腿的HOG特征实现对目标的实时跟踪,无需采集目标的整体图像。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。

图1示出了本发明一个实施例公开的一种机器人跟踪方法的流程示意图;

图2示出了本发明另一个实施例公开的一种机器人跟踪方法的流程示意图;

图3示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图;

图4示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

参见图1示出了本发明一个实施例公开的一种机器人跟踪方法的流程示意图。

由图1可知,在本实施例中,该方法包括:

S101:获取目标的深度图像,并将所述深度图像转换为灰度图像。

基于机器人上设置的深度相机获取目标的深度图像,并采用图像处理模块将获取到的深度图像转换为灰度图像。

S102:提取所述灰度图像的HOG特征。

S103:采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿。

预先建立人腿HOG特征检测模型,可选的该人腿HOG特征检测模型包括远距离人腿HOG特征检测模型和近距离人腿HOG特征检测模型。

所述远距离人腿HOG特征检测模型和所述近距离人腿HOG特征检测模型的建立过程如下:

获取多张不同角度和姿势的远距离人腿深度图像和近距离人腿深度图像,并将所述远距离人腿深度图像和所述近距离人腿深度图像转换为灰度图。

提取远距离人腿灰度图像的HOG特征和近距离人腿灰度图像的HOG特征,进而分别利用远距离人腿灰度图像的HOG特征以及近距离人腿灰度图像的HOG特征对SVM(Support Vector Machine,支持向量机)模型进行训练,得到远距离人腿HOG特征检测模型和近距离人腿HOG特征检测模型。

需要说明的是,在本发明中远距离人腿和近距离人腿可根据实际情况的需要由机器人设计人员自行设置,如将距离机器人小于2米的人腿作为近距离人腿,将距离机器人等于大于2米的人腿作为远距离人腿。

S104:当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标。

S105:按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。

由以上实施例可知,本申请公开了一种机器人跟踪方法。该方法首先获取目标的深度图像,并将该深度图像转换为灰度图像。进而,提取该灰度图像的HOG特征,并采用预先建立的人腿HOG特征检测模型对该灰度图像进行检测,以确定该灰度图像中是否含有目标人腿。当确定灰度图像中包含目标人腿时,进一步确定目标人腿在该灰度图像中的图像位置坐标,并按照预设算法,将目标人腿的图像位置坐标转换为实际位置坐标,以实现机器人对目标的跟踪。与现有技术相比,本发明基于人腿的HOG特征实现对目标的实时跟踪,无需采集目标的整体图像。

参见图2示出了本发明另一个实施例公开的一种机器人跟踪方法的流程示意图。

由图2可知,在本实施例中,该方法包括:

S201:获取目标的深度图像,并将所述深度图像转换为灰度图像。

S202:采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描,提取当前扫描区域的HOG特征。

S203:比较所述扫描区域的HOG特征与人腿HOG特征检测模型的预设人腿HOG特征,确定所述灰度图像中是否包含目标人腿。

可选的,当扫描区域的HOG特征值和预设人腿HOG特征值的差小于等于预设阈值时,则说明该灰度图像中包括目标人腿,且目标人腿的所在位置,级该扫描区域的所在位置。

S204:当比较结果满足预设要求时,确定所述灰度图像中包含目标人腿进而确定目标人腿的图像位置坐标。

S205:若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标。

S206:基于上一帧灰度图像中目标人腿的图像位置坐标,计算目标人腿的图像位置坐标。

在实际应用中,当前帧的灰度图像有可能不包含目标人腿,由于人和机器人的相对位置不会发生突变,因而在实际应用中可对基于上一帧灰度图像中目标人腿的图像位置坐标进行一定量的扩展,从而确定当前帧灰度图像中人腿的图像位置坐标,如,上一帧人腿的位置坐标是(x1,y1,x2,y2),则当前帧人腿的跟踪范围是(x1-26,y1-26,x2+26,y2+26)。

S207:按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。

参见图3示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图。

由图3可知,在本实施例中,该装置包括:图像采集处理单元1、HOG特征提取单元2、人腿检测单元3、人腿图像位置坐标确定单元4以及人腿实际位置坐标计算单元5。

其中,图像采集处理单元1,用于获取目标的深度图像,并将所述深度图像转换为灰度图像,进而将转换的灰度图像发送至HOG特征提取单元2中。可选的,所述图像采集处理单元为深度相机与图像处理芯片的集成单元。

HOG特征提取单元2获取图像采集处理单元1发送的目标灰度图像,进而提取所述灰度图像的HOG特征。

人腿检测单元3基于预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿。

其中,所述人腿HOG特征检测模型包括:长距离人腿HOG特征检测模型和近距离人腿HOG特征检测模型。

人腿图像位置坐标确定单元,用于当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标。

人腿实际位置坐标计算单元,用于按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。

参见图4示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图。

由图4可知,在本实施例中该装置包括:图像采集处理单元1、HOG特征提取单元2、人腿检测单元3、人腿图像位置坐标确定单元4以及人腿实际位置坐标计算单元5。

与上一个装置实施例不同的是,在本实施例中所述HOG特征提取单元2包括:扫描模块21以及特征提取模块22。

扫描模块21用于采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描。当扫描模块21扫描到灰度图像的某个位置时,特征提取模块22则提取当前扫描区域的HOG特征。

另外在本实施例中,所述人腿检测单元3包括:比较模块31和目标人腿确定模块32。

其中,比较模块31,用于比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征。

目标人腿确定模块32,用于当比较满足预设要求时,确定所述灰度图像中包含目标人腿。

需要说明的是,当前帧的灰度图像有可能不包含目标人腿,由于人和机器人的相对位置不会发生突变,因而在实际应用中可对基于上一帧灰度图像中目标人腿的图像位置坐标进行一定量的扩展,从而确定当前帧灰度图像中人腿的图像位置坐标。因而,本实施例中该装置还包括数据采集单元6和计算单元7。

数据采集单元6,用于若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标。

计算单元7,用于基于上一帧灰度图像中目标人腿的图像位置坐标,计算目标人腿的图像位置坐标。

需要说明的是该装置实施例与方法实施例相对应,其执行过程和执行原理相同,在此不作赘述。

最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。

对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1