基于机器人的定位方法、设备、系统及存储介质与流程

文档序号:15461316发布日期:2018-09-18 18:13阅读:136来源:国知局

本申请涉及人工智能技术领域,尤其涉及一种基于机器人的定位方法、设备、系统及存储介质。



背景技术:

随着人工智能技术的发展,移动机器人的研究和发展非常迅速,一些服务型机器人也已逐渐进入人们的日常生活。基于机器人跟随技术,服务型机器人可执行一些跟随任务,例如陪逛、迎宾等。机器人跟随技术是指机器人保持一定的距离和速度跟随目标对象,并辅助目标对象完成相关的社会生产活动。

在机器人跟随技术中,机器人与目标对象之间的相对定位是首要解决的问题。在现有机器人跟随技术中,一般采用基于WiFi、蓝牙信号的三角定位算法对目标对象进行定位。但是,这种算法的定位误差较大,定位精度较低。



技术实现要素:

本申请的多个方面提供一种基于机器人的定位方法、设备、系统及存储介质,用以提高机器人对目标对象的定位精度。

本申请实施例提供一种基于机器人的定位方法,包括:

利用机器人的近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述机器人的深度摄像头和激光雷达采集所述机器人周围至少一个对象的深度图像和激光雷达数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像和激光雷达数据中,确定所述目标对象的深度图像和激光雷达数据;

根据所述目标对象的深度图像和激光雷达数据定位所述目标对象。

本申请实施例还提供一种基于机器人的定位装置,包括:

获取模块,用于利用机器人的近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

采集模块,用于利用所述机器人的深度摄像头和激光雷达采集所述机器人周围至少一个对象的深度图像和激光雷达数据;

确定模块,用于根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像和激光雷达数据中,确定所述目标对象的深度图像和激光雷达数据;

定位模块,用于根据所述目标对象的深度图像和激光雷达数据定位所述目标对象。

本申请实施例还提供一种机器人,包括:机械本体;所述机械本体上设有近距离通信模块,一个或多个处理器,以及一个或多个存储计算机指令的存储器;所述机械本体上还设有深度摄像头和激光雷达;

所述一个或多个处理器,用于执行所述计算机指令,以用于:

利用所述近距离通信模块在所述机器人与目标对象之间收发无线信号,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述深度摄像头和激光雷达采集所述机器人周围至少一个对象的深度图像和激光雷达数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像和激光雷达数据中,确定所述目标对象的深度图像和激光雷达数据;

根据所述目标对象的深度图像和激光雷达数据定位所述目标对象。

本申请实施例还提供一种存储计算机指令的计算机可读存储介质,当所述计算机指令被一个或多个处理器执行时,致使所述一个或多个处理器执行包括以下的动作:

利用机器人的近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述机器人的深度摄像头和激光雷达采集所述机器人周围至少一个对象的深度图像和激光雷达数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像和激光雷达数据中,确定所述目标对象的深度图像和激光雷达数据;

根据所述目标对象的深度图像和激光雷达数据定位所述目标对象。

本申请实施例还提供一种基于机器人的定位系统,包括:机器人以及置于目标对象上的无线收发设备;所述机器人包括:与所述无线收发设备适配的近距离通信模块;所述机器人还包括:深度摄像头和激光雷达;

所述机器人用于:利用所述近距离通信模块与所述无线收发设备在所述机器人与所述目标对象之间收发无线信号,以测量所述目标对象相对于所述机器人的第一位置信息;利用所述深度摄像头和激光雷达采集所述机器人周围至少一个对象的深度图像和激光雷达数据;根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像和激光雷达数据中,确定所述目标对象的深度图像和激光雷达数据;根据所述目标对象的深度图像和激光雷达数据定位所述目标对象。

本申请实施例还提供一种基于机器人的定位方法,包括:

利用机器人的近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述机器人的深度摄像头采集所述机器人周围至少一个对象的深度图像数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像数据中,确定所述目标对象的深度图像数据;

根据所述目标对象的深度图像数据定位所述目标对象。

本申请实施例还提供一种机器人,包括:机械本体;所述机械本体上设有近距离通信模块,一个或多个处理器,以及一个或多个存储计算机指令的存储器;所述机械本体上还设有深度摄像头;

所述一个或多个处理器,用于执行所述计算机指令,以用于:

利用所述近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述深度摄像头采集所述机器人周围至少一个对象的深度图像数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像数据中,确定所述目标对象的深度图像数据;

根据所述目标对象的深度图像数据定位所述目标对象。

本申请实施例还提供一种存储计算机指令的计算机可读存储介质,当所述计算机指令被一个或多个处理器执行时,致使所述一个或多个处理器执行包括以下的动作:

利用机器人的近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述机器人的深度摄像头采集所述机器人周围至少一个对象的深度图像数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的深度图像数据中,确定所述目标对象的深度图像数据;

根据所述目标对象的深度图像数据定位所述目标对象。

本申请实施例还提供一种基于机器人的定位方法,包括:

利用机器人的近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述机器人的激光雷达采集所述机器人周围至少一个对象的激光雷达数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的激光雷达数据中,确定所述目标对象的激光雷达数据;

根据所述目标对象的激光雷达数据定位所述目标对象。

本申请实施例还提供一种机器人,包括:机械本体;所述机械本体上设有近距离通信模块,一个或多个处理器,以及一个或多个存储计算机指令的存储器;所述机械本体上还设有激光雷达;

所述一个或多个处理器,用于执行所述计算机指令,以用于:

利用所述近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述激光雷达采集所述机器人周围至少一个对象的激光雷达数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的激光雷达数据中,确定所述目标对象的激光雷达数据;

根据所述目标对象的激光雷达数据定位所述目标对象。

本申请实施例还提供一种存储计算机指令的计算机可读存储介质,当所述计算机指令被一个或多个处理器执行时,致使所述一个或多个处理器执行包括以下的动作:

利用机器人的近距离通信模块与目标对象通信,以测量所述目标对象相对于所述机器人的第一位置信息;

利用所述机器人的激光雷达采集所述机器人周围至少一个对象的激光雷达数据;

根据所述第一位置信息中的距离信息,从所述至少一个对象的激光雷达数据中,确定所述目标对象的激光雷达数据;

根据所述目标对象的激光雷达数据定位所述目标对象。

在本申请实施例中,提供一种包含近距离通信模块的机器人,该机器人还包括深度摄像头和/或激光雷达,在机器人定位目标对象时,可将机器人的近距离通信模块与机器人的深度摄像头和/或激光雷达相结合,充分利用近距离通信模块与深度摄像头和/或激光雷达各自的优点,融合多种信息对目标对象进行定位,有利于减小定位误差,提高定位精度。

附图说明

此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:

图1为本申请一示例性实施例提供的一种基于机器人的定位系统的结构示意图;

图2a为本申请另一示例性实施例提供的一种机器人的硬件结构框图;

图2b为本申请另一示例性实施例提供的一种人形机器人的整体结构示意图;

图2c为本申请另一示例性实施例提供的一种非人形机器人的整体结构示意图;

图3a为本申请又一示例性实施例提供的一种基于机器人的定位方法的流程示意图;

图3b为本申请又一种示例性实施例提供的另一种基于机器人的定位方法的流程示意图;

图3c为本申请又一种示例性实施例提供的又一种基于机器人的定位方法的流程示意图;

图3d为本申请又一种示例性实施例提供的再一种基于机器人的定位方法的流程示意图;

图4为本申请又一种示例性实施例提供的一种基于机器人的定位装置的结构示意图。

具体实施方式

为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

针对现有技术中机器人定位目标对象时存在的定位误差较大,定位精度较低等问题,在本申请一些示例性实施例中,提供一种包含近距离通信模块的机器人,该机器人还包括深度摄像头和/或激光雷达,在机器人定位目标对象时,可将机器人的近距离通信模块与机器人的深度摄像头和/或激光雷达相结合,充分利用近距离通信模块与深度摄像头和/或激光雷达各自的优点,融合多种信息对目标对象进行定位,有利于减小定位误差,提高定位精度。

以下结合附图,详细说明本申请各实施例提供的技术方案。

图1为本申请一示例性实施例提供的一种基于机器人的定位系统的结构示意图。如图1所示,该定位系统10包括:机器人100以及置于目标对象200上的无线收发设备201。

在定位系统10中,目标对象200是指需要被机器人100定位的人或物。可选地,目标对象200可以是能够自由移动的人或物。这里的“物”可以是动物、车辆、船舶、儿童玩具等等。另外,根据目标对象200实现形态的不同,无线收发设备201的实现形态以及置于目标对象200上的方式也会有所不同。例如,若目标对象200为人体,则该无线收发设备201可以实现为穿戴设备的形态,并被穿戴于人体的手腕、腰间或脖子上,也可以被放置于人体衣物的口袋中;或者,该无线收发设备201也可以实现为一种手持设备,并被人体手持,等等。又例如,若目标对象200为车辆,则该无线收发设备201可以实现为车载设备的形态,并被安装于车辆某个位置;或者,该无线收发设备201也可以实现为一种挂件,并被挂置于车辆驾驶室内,等等。

在定位系统10中,机器人100包括近距离通信模块。该近距离通信模块与无线收发设备201适配,可以与无线收发设备201进行通信。

在定位系统10中,除近距离通信模块之外,机器人100还包括深度摄像头和/或激光雷达。深度摄像头可以在一定角度范围内拍摄机器人周围场景的彩色图像和/或深度图像,以便于发现机器人周围存在的各种对象。激光雷达可以在360°范围内探测机器人周围场景中存在的障碍物信息。

在定位系统10中,机器人100可工作在各种应用场景中,用于完成相应的作业任务。当然,根据应用场景的不同,机器人100需要完成的作业任务也会有所不同。在一些应用场景中,机器人100需要定位特定对象并跟随其运动。例如,在超市、商场等购物场景中,购物车机器人需要定位顾客并跟随顾客移动,以容纳顾客选购的商品。又例如,在一些公司的仓储分拣场景中,分拣机器人需要定位分拣人员并跟随分拣人员移动到货架拣货区,然后开始分拣订单货物。在本实施例中,将机器人需要定位的特定对象记为目标对象200,例如上述示例中的顾客、分拣人员即为机器人100需要定位的目标对象200。

在定位系统10中,机器人100定位目标对象200时,可以将自身的近距离通信模块与自身的深度摄像头和/或激光雷达相结合,充分利用近距离通信模块与深度摄像头和/或激光雷达各自的优点,融合多种信息对目标对象200进行定位。其中,机器人100定位目标对象200的过程如下:

一方面利用机器人100的近距离通信模块与目标对象200(主要是指置于目标对象200上的无线收发设备201)通信,以测量目标对象200相对于机器人100的第一位置信息,该操作可以简称为基于近距离通信模块的定位操作;另一方面利用机器人100的深度摄像头和/或激光雷达采集机器人100周围至少一个对象的深度图像和/或激光雷达数据;然后,根据第一位置信息中的距离信息,从至少一个对象的深度图像和/或激光雷达数据中,确定目标对象200的深度图像和/或激光雷达数据;根据目标对象200的深度图像和/或激光雷达数据定位目标对象200。其中,除基于近距离通信模块的定位操作之外的其它操作,可简称为基于深度摄像头和/或激光雷达的定位操作。

其中,机器人100通过其近距离通信模块向无线收发设备201发送无线信号,和/或,接收无线收发设备201发送的无线信号,进而可根据收发无线信号的信息,计算出目标对象200相对于机器人100的位置信息。为便于描述,将基于近距离通信模块定位出的目标对象200相对于机器人100的位置信息称为第一位置信息。第一位置信息主要包括目标对象200相对于机器人100的距离信息。可选地,第一位置信息也可以包括目标对象200相对于机器人100的角度信息。

在本实施例中,并不限定基于近距离通信模块的定位操作与基于深度摄像头和/或激光雷达的定位操作之间的执行顺序,可结合详细执行逻辑适应性而定。关于这点,将在后续示例性实施例中进行举例说明。

在本实施例中,将机器人的近距离通信模块与机器人的深度摄像头和/或激光雷达相结合,近距离通信模块在测距方面具有精度较高的优势,而深度摄像头和/或激光雷达的测量数据具有相对全面和精度较高的优势,因此,利用近距离通信模块测量到的目标对象相对于机器人的距离信息,从深度摄像头和/或激光雷达采集到的至少一个对象的深度图像和/或激光雷达数据中确定目标对象的深度图像和/或激光雷达数据,有利于准确地确定目标对象的相关数据,进而利用深度摄像头和/或激光雷达的测量数据精度较高的优点,基于目标对象的深度图像和/或激光雷达数据对目标对象进行定位,这样可以减小定位误差,提高定位精度和稳定性。

除上述基于机器人的定位系统10之外,本申请一些示例性实施例还提供一种机器人100。如图2a所示,该机器人100包括:机械本体101;机械本体101上设有一个或多个处理器102、一个或多个存储计算机指令的存储器103以及近距离通信模块104。除此之外,机械本体101上还设有深度摄像头105和/或激光雷达106。例如,对于一些机器人100,其机械本体101上可设有深度摄像头105;对于另一些机器人100,其机械本体101上可设有激光雷达106;对于又一些机器人100,其机械本体101上可同时设有深度摄像头105和激光雷达106。

值得说明的是,一个或多个处理器102、一个或多个存储器103、近距离通信模块104、深度摄像头105和/或激光雷达106可设置于机械本体101内部,也可以设置于机械本体101的表面。

机械本体101是机器人100赖以完成作业任务的执行机构,可以在确定的环境中执行处理器102指定的操作。其中,机械本体101一定程度上体现了机器人100的外观形态。在本实施例中,并不限定机器人100的外观形态。例如,机器人100可以是图2b所示的人形机器人,则机械本体101可以包括但不限于:机器人的头部、手部、腕部、臂部、腰部和基座等机械结构。另外,机器人100也可以是图2c所示形态相对简单一些的非人形机器人,则机械本体101主要是指机器人100的机身。

一个或多个存储器103,主要用于存储计算机指令,该计算机指令可被一个或多个处理器102执行,致使一个或多个处理器102可以控制机器人100的机械本体101完成相应作业任务。除了存储计算机指令之外,一个或多个存储器103还可被配置为存储其它各种数据以支持在机器人上的操作。这些数据的示例包括用于在机器人上操作的任何应用程序或方法的指令,机器人100所在环境/场景的地图数据,便于人机交互的图片、视频、语音数据等。

一个或多个存储器103,可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。

一个或多个处理器102,可以看作是机器人100的控制系统,可用于执行一个或多个存储器103中存储的计算机指令,以控制机器人100完成相应的作业任务。值得说明的是,机器人100工作于不同应用场景时,机器人100所需完成的作业任务会有所不同,于是,一个或多个存储器103中存储的计算机指令也会有所不同,而一个或多个处理器102执行不同计算机指令可控制机器人100完成不同的作业任务。

在一些应用场景中,机器人100需要定位特定对象并跟随其运动。例如,在超市、商场等购物场景中,购物车机器人需要定位顾客并跟随顾客移动,以容纳顾客选购的商品。又例如,在一些公司的仓储分拣场景中,分拣机器人需要定位分拣人员并跟随分拣人员移动到货架拣货区,然后开始分拣订单货物。在本实施例中,将机器人需要定位的特定对象称为目标对象,例如上述示例中的顾客、分拣人员即为机器人100需要定位的目标对象。在定位跟随场景中,一个或多个存储器103中存储的计算机指令被一个或多个处理器102执行时能够致使处理器102定位目标对象并控制机器人100的机械本体101完成跟随动作。

其中,一个或多个处理器102执行一个或多个存储器103中存储的计算机指令定位目标对象时,一方面可以利用机器人100的近距离通信模块与目标对象通信,以测量目标对象相对于机器人100的第一位置信息;另一方面可以利用机器人100的深度摄像头和/或激光雷达采集机器人100周围至少一个对象的深度图像和/或激光雷达数据;然后,根据第一位置信息中的距离信息,从至少一个对象的深度图像和/或激光雷达数据中,确定目标对象的深度图像和/或激光雷达数据;根据目标对象的深度图像和/或激光雷达数据定位目标对象。

例如,一个或多个处理器102可以通过机器人100的近距离通信模块向无线收发设备201发送无线信号,并通过机器人100的近距离通信模块接收无线收发设备201返回的无线信号,进而可根据近距离通信模块收发无线信号的信息,计算出目标对象相对于机器人100的位置信息。为便于描述,将这里的位置信息称为第一位置信息。第一位置信息主要包括目标对象相对于机器人100的距离信息。可选地,第一位置信息也可以包括目标对象相对于机器人100的角度信息。

在本实施例中,同样不限定利用近距离通信模块获得第一位置信息的操作与利用深度摄像头和/或激光雷达采集至少一个对象的深度图像和/或激光雷达数据的操作之间的执行顺序,可结合详细实施逻辑适应性而定。关于这点,将在后续示例性实施例中进行举例说明。

值得说明的是,机器人100还可以包括但不限于:显示屏幕、电源组件、音频组件等。显示屏幕可以包括液晶显示器(LCD)或触摸面板(TP)。如果显示屏幕包括触摸面板,显示屏幕可以被实现为触摸屏,以接收来自用户的输入信号。电源组件主要为机器人100的各种组件提供电力。音频组件可被配置为输出和/或输入音频信号,可以包括麦克风(MIC)和扬声器。

在本实施例中,将机器人的近距离通信模块与机器人的深度摄像头和/或激光雷达相结合,近距离通信模块在测距方面具有精度较高的优势,而深度摄像头和/或激光雷达在测量数据方面具有相对全面和精度较高的优势,因此,利用近距离通信模块测量到的目标对象相对于机器人的距离信息,从深度摄像头和/或激光雷达采集到的至少一个对象的深度图像和/或激光雷达数据确定目标对象的深度图像和/或激光雷达数据,有利于准确地确定目标对象,进而利用深度摄像头和/或激光雷达的测量数据精度较高的优点,基于目标对象的深度图像和/或激光雷达数据对目标对象进行定位,这样可以减小定位误差,提高定位精度。

在上述各实施例中,包含利用机器人100的近距离通信模块与目标对象通信,以测量目标对象相对于机器人100的第一位置信息的操作。在本申请各实施例中,并不限定近距离通信模块采用的近距离通信技术,例如可基于射频识别(RFID)、WiFi、蓝牙、红外线、超宽带(UWB)等技术实现。

其中,近距离通信模块采用不同的近距离通信技术,近距离通信模块、无线收发设备的实现形态以及基于近距离通信模块的定位操作可能会有所不同。本申请下述实施例给出几种近距离通信模块的示例:

示例A:近距离通信模块采用UWB技术实现,简称为UWB模块;相应地,目标对象上的无线收发设备可实现为UWB标签。例如,机器人100上设置一个UWB模块。基于此,一种利用UWB模块对目标对象进行定位的过程包括:

UWB模块向UWB标签发送UWB信号,记录发送UWB信号的时间为T1;UWB标签接收UWB模块发送的UWB信号,记录接收到UWB信号的时间为T2;UWB标签向UWB模块返回UWB信号,记录返回UWB信号的时间为T3;UWB模块接收UWB标签返回的UWB信号,记录接收到UWB信号的时间为T4。基于这些时间信息,可以获得UWB信号在空中传播的单向时间T_tof=((T4-T1)-(T3-T2))/2;进而,结合UWB信号在空中的传播速度,即光速,可以计算出UWB模块与UWB标签之间的距离,亦即目标对象相对于机器人100的距离。可选地,还可以根据目标对象相对于机器人100的距离以及UWB模块在机器人100上的安装位置,计算出目标对象相对于机器人100的角度。

值得说明的是,在其它实施方式中,机器人100上也可以设置多个UWB模块,则结合多个UWB模块与UWB标签之间的距离,以及多个UWB模块的几何位置关系,可以更加精确地计算出目标对象相对于机器人100的距离以及角度。

在示例A中,利用UWB模块对目标对象进行定位,UWB信号具有穿透力强、功耗低、抗多径效果好、安全性高等优点,因此有利于提高定位精度。

示例B:近距离通信模块采用蓝牙技术实现,简称为蓝牙模块;相应地,目标对象上的无线收发设备也为蓝牙模块。假设,机器人100上设置两个蓝牙模块,记为第一蓝牙模块和第二蓝牙模块,并将置于目标对象上的蓝牙模块记为第三蓝牙模块。基于此,一种利用蓝牙模块对目标对象进行定位的过程包括:

首先,将第一蓝牙模块与第三蓝牙模块建立连接并进行蓝牙信号传输;根据第一蓝牙模块和第三蓝牙模块之间的信号强度,确定第三蓝牙模块相对第一蓝牙模块的距离;然后,将第二蓝牙模块与第三蓝牙模块建立连接并进行蓝牙信号传输;可根据第二蓝牙模块和第三蓝牙模块之间的信号强度,确定第三蓝牙模块相对第二蓝牙模块的距离;进而,可结合第一蓝牙模块和第二蓝牙模块在机器人100上的安装位置关系以及第三蓝牙模块分别与第一蓝牙模块和第二蓝牙模块之间的距离,求解出第三蓝牙模块的坐标位置,进而,可以计算出第三蓝牙模块相对于机器人100的距离和角度等位置信息。

值得说明的是,根据定位精度的要求,机器人100也可以设置一个蓝牙模块,也可以设置更多的蓝牙模块。

在示例B中,利用蓝牙模块对目标对象进行定位,蓝牙技术具有较高的普遍性与简洁性,基于蓝牙模块的定位方案相对易于实施,且蓝牙信号的功耗与成本较低,有利于降低定位成本。

示例C:近距离通信模块采用WiFi技术实现,可简称为WiFi模块;相应地,目标对象上的无线收发设备也是WiFi模块。其中,定位过程与上述类似,机器人100上可以设置一个或多个WiFi模块,与配置于目标对象上的WiFi模块进行信号传输,进而可基于信号强度或信号传输时间,计算出目标对象相对于机器人100的距离和角度等位置信息。

在一些示例性实施例中,在定位目标对象时,可以首先利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息,即利用近距离通信模块对目标对象进行初始定位。这里,第一位置信息包括目标对象相对于机器人100的距离信息和角度信息。

其中,近距离通信模块一般具有一定角度置信区间,简单来说,就是具有一定的跟踪范围。如果近距离通信模块测量到的角度在近距离通信模块的角度置信区间内,意味着测量出的角度可信度较高,可以用来定位目标对象;如果近距离通信模块测量到的角度未在近距离通信模块的角度置信区间内,意味着测量出的角度可信度较低,如果用来定位目标对象会降低目标对象的定位精度。

基于上述,在获得第一位置信息之后,可以判断第一位置信息中的角度信息是否可信。如果第一位置信息中的角度信息可信,则可以根据第一位置信息中的距离信息和角度信息定位目标对象,此时无需后续操作,可以降低计算复杂度,提高定位效率。其中,定位目标对象主要是指计算目标对象的位置坐标。

其中,近距离通信模块的角度置信区间一般与近距离通信模块在机器人上的安装位置有关。例如,以UWB模块为例,假设UWB模块安装于机器人前方正中位置,则UWB模块的角度置信区间是机器人正前方±60°范围。

如果第一位置信息中的角度信息不可信,则为了保证定位精度,可以利用机器人的深度摄像头和/或激光雷达对目标对象进行二次定位。二次定位过程包括:利用深度摄像头和/或激光雷达采集机器人周围至少一个对象的深度图像和/或激光雷达数据的操作;接下来,利用第一位置信息中的距离信息精度较高的优势,根据第一位置信息中的距离信息,从至少一个对象的深度图像和/或激光雷达数据中,确定目标对象的深度图像和/或激光雷达数据;根据目标对象的深度图像和/或激光雷达数据定位目标对象。这样,基于近距离通信模块定位出的目标对象相对于机器人的距离信息,可以准确地确定出目标对象的深度图像和/或激光雷达数据,进而可以利用深度摄像头和/或激光雷达的测量数据精度较高的优点,基于目标对象的深度图像和/或激光雷达数据对目标对象进行定位,可以减小定位误差,提高定位精度。

在上述过程中,需要判断第一位置信息中的角度信息是否可信。其中,根据应用场景以及对定位精度要求的不同,可以适应性设定角度可信与否的判定方式。本申请下面给出几种判定示例:

一种示例:若第一位置信息中的角度信息未在近距离通信模块对应的角度置信区间内,确定第一位置信息中的角度信息不可信;反之,若第一位置信息中的角度信息在近距离通信模块对应的角度置信区间内,确定第一位置信息中的角度信息可信。

另一种示例:若第一位置信息中的角度信息与上一次定位中的可信角度信息的差值大于设定角度阈值,确定第一位置信息中的角度信息不可信;反之,若第一位置信息中的角度信息与上一次定位中的可信角度信息的差值小于或等于设定角度阈值,确定第一位置信息中的角度信息可信。

又一种示例:若目标对象相对于机器人的多个位置信息中的角度信息波动异常,确定第一位置信息中的角度信息不可信;反之,若目标对象相对于机器人的多个位置信息中的角度信息波动正常,确定第一位置信息中的角度信息可信。其中,这里的多个位置信息是在本次定位开始与上一次定位结束之间利用近距离通信模块获得的,且包括第一位置信息。

关于波动正常和波动异常,可以根据需求适应性设定。例如,若多个位置信息中的角度信息的整体波动幅度小于设定波动幅度的阈值,认为波动正常,反之,认为波动异常。又例如,若多个位置信息中出现了相邻位置信息中的角度信息差值大于设定差值阈值,则认为波动异常,反之,若多个位置信息中不存在相邻位置信息中的角度信息差值大于设定差值阈值的情况,则认为波动正常。其中,多个位置信息是指在一段时间内利用近距离通信模块与目标对象通信而测量出的目标对象相对于机器人的多个位置信息。

在上述各个实施例中,可以将近距离通信模块与深度摄像头和/或激光雷达相结合。本申请下述实施例将对不同结合合方式进行说明:

在可选实施方式1中,可以将近距离通信模块和激光雷达相结合,机器人上设置有近距离通信模块和激光雷达,可选地,也可以设置有深度摄像头。则,在利用近距离通信模块与目标对象通信而测量到第一位置信息之后,可利用机器人的激光雷达采集机器人周围至少一个对象的激光雷达数据;进而,可以根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据;根据目标对象的激光雷达数据定位目标对象。可选地,可以在第一位置信息中的角度信息不可信时,将近距离通信模块和激光雷达相结合。其中,“第一位置信息中的角度信息不可信”是将近距离通信模块和激光雷达相结合一种可选条件,而不是将近距离通信模块和激光雷达相结合的必要条件。

在可选实施方式1中,将近距离通信模块和激光雷达相结合,利用激光雷达可探测360°范围的优势,在一定程度上弥补近距离通信模块角度置信区间较小的不足,可以稳定角度信息,解决角度信息不可信引起的定位失败的问题,并且结合激光雷达测量数据精度较高的优势,有利于提高定位精度,尤其在复杂环境中可以获得持续稳定的信号。

在可选实施方式2中,可以将近距离通信模块和深度摄像头相结合,机器人上设置有近距离通信模块和深度摄像头,可选地,也可以设置有激光雷达。基于此,在利用近距离通信模块与目标对象通信而测量到第一位置信息之后,可利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据;进而,可以根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据;根据目标对象的深度图像数据定位目标对象。可选地,可以在第一位置信息中的角度信息不可信时,将近距离通信模块和深度摄像头相结合。其中,“第一位置信息中的角度信息不可信”是将近距离通信模块和深度摄像头相结合一种可选条件,而不是将近距离通信模块和深度摄像头相结合的必要条件。

在可选实施方式2中,将近距离通信模块和深度摄像头结合,在角度信息不可信的情况下,可以利用深度摄像头对目标对象进行二次定位,而结合深度摄像头测量数据精度较高的优势,有利于提高成功定位的概率,提高定位精度。

在可选实施方式3中,可以将近距离通信模块、深度摄像头和激光雷达相结合,机器人上设置有近距离通信模块、深度摄像头和激光雷达。基于此,在利用近距离通信模块与目标对象通信而测量到第一位置信息之后,可以利用激光雷达采集机器人周围至少一个对象的激光雷达数据,并根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据;当无法从至少一个对象的激光雷达数据中确定出目标对象的激光雷达数据时,利用深度摄像头采集机器人周围至少一个对象的深度图像数据;进而,根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据;根据目标对象的深度图像数据定位目标对象。

可选地,当从至少一个对象的激光雷达数据中确定出目标对象的激光雷达数据时,可以直接根据目标对象的激光雷达数据定位目标对象,而无需进一步利用深度摄像头采集深度图像数据。

可选地,可以在第一位置信息中的角度信息不可信时,将近距离通信模块和激光雷达以及深度摄像头相结合。其中,“第一位置信息中的角度信息不可信”是将近距离通信模块和激光雷达以及深度摄像头相结合一种可选条件,而不是将近距离通信模块和激光雷达以及深度摄像头相结合的必要条件。

在可选实施方式3中,当近距离通信模块因角度信息不可信导致定位失败时,可以利用激光雷达可探测360°范围的优势,一定程度上可以弥补近距离通信模块角度置信区间较小的不足,可以稳定角度信息,解决角度信息不可信引起的定位失败的问题;进一步,当激光雷达被障碍物遮挡无法成功探测到目标对象时,可以利用深度摄像头,利用图像识别技术,保障数据的稳定和可靠性,解决激光雷达无法探测到目标对象的问题,不仅可以提高成功定位的概率,而且有利于提高定位精度。

在可选实施方式4中,可以将近距离通信模块、深度摄像头和激光雷达相结合,机器人上设置有近距离通信模块、深度摄像头和激光雷达。基于此,在利用近距离通信模块与目标对象通信而测量到第一位置信息之后,可以利用深度摄像头采集机器人周围至少一个对象的深度图像数据;并根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据;当无法从至少一个对象的深度图像数据中确定出目标对象的深度图像数据时,利用激光雷达采集机器人周围至少一个对象的激光雷达数据,进而,根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据;根据目标对象的激光雷达数据定位目标对象。

可选地,当从至少一个对象的深度图像数据中确定出目标对象的深度图像数据时,可以直接根据目标对象的深度图像数据定位目标对象,而无需进一步利用激光雷达采集激光雷达数据。

可选地,可以在第一位置信息中的角度信息不可信时,将近距离通信模块和激光雷达以及深度摄像头相结合。其中,“第一位置信息中的角度信息不可信”是将近距离通信模块和激光雷达以及深度摄像头相结合一种可选条件,而不是将近距离通信模块和激光雷达以及深度摄像头相结合的必要条件。

在可选实施方式4中,当近距离通信模块因角度信息不可信导致定位失败时,可以利用深度摄像头,利用图像识别技术,保障数据的稳定和可靠性,提高成功定位的概率;进一步,在深度摄像头因为角度问题定位失败时,可以结合激光雷达,并利用激光雷达可探测360°范围的优势,稳定角度信息,解决角度不可信引起的定位失败的问题;进一步,结合深度摄像头和激光雷达测量数据精度较高的优势,有利于提高定位精度。

在上述部分实施例中,包含利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据的操作。该操作的一种可选实施方式包括:

首先,利用深度摄像头拍摄机器人周围场景,以获得彩色图像和深度图像;彩色图像主要用于对象检测和跟踪,深度图像中的每一个像素具有X、Y、Z三个轴向的距离信息,即像素坐标。其中,X轴、Y轴、Z轴是机器人所在三维坐标系中的坐标轴,X轴、Y轴所在方向是机器人所在水平面上的两个方向,Z轴所在方向是沿机器人的纵向方向。其中,周围场景的范围可由深度摄像头的视觉范围决定。

其次,基于图像识别技术,识别彩色图像中包含的至少一个对象,并标记出彩色图像中包含的至少一个对象的图像区域。之后,根据彩色图像与深度图像之间的坐标变换关系,可以将至少一个对象在彩色图像中的图像区域映射到深度图像中,这样就可以确定至少一个对象在深度图像中对应的图像区域。进而,可以根据至少一个对象在深度图像中对应的图像区域中的像素坐标,分别计算出至少一个对象相对机器人的坐标偏移。在该实施方式中,每个对象相对机器人的坐标偏移即为每个对象的深度图像数据。

在上述部分实施例中,在确定每个对象的深度图像数据之后,可根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据。在每个对象的深度图像数据包括每个对象相对机器人的坐标偏移的情况下,该操作的一种可选实施方式包括:

对至少一个对象,可以根据其相对机器人的坐标偏移逐个判断是否为目标对象。其中,对每个对象来说,根据其相对机器人的坐标偏移判断是否为目标对象的过程相同或类似。为便于描述和理解,下面以至少一个对象中的任一对象,例如第一对象为例进行描述。

例如,对第一对象,可以根据第一对象相对机器人的坐标偏移,计算第一对象相对机器人的距离信息;将第一对象相对机器人的距离信息与第一位置信息中的距离信息进行比较;若第一对象相对机器人的距离信息与第一位置信息中的距离信息的差值小于距离差阈值,确定第一对象相对机器人的坐标偏移为目标对象相对机器人的坐标偏移,相应地,第一对象即为目标对象;反之,若第一对象相对机器人的距离信息与第一位置信息中的距离信息的差值大于或等于距离差阈值,则确定第一对象不是目标对象。

在上述部分实施例中,在确定出目标对象的深度图像数据之后,可以目标对象的深度图像定位目标对象。在目标对象的深度图像数据包含目标对象相对机器人的坐标偏移的情况下,该操作的一种可选实施方式包括:

根据公式X_d=X0+X1+offset_x,Y_d=Y0+Y1+offset_y,计算目标对象的位置坐标。其中,X_d、Y_d为目标对象的X轴坐标和Y轴坐标,X0、Y0为机器人的X轴坐标和Y轴坐标,X1、Y2为深度摄像头在X轴和Y轴上的安装偏差,offset_x、offset_y为目标对象相对于机器人在X轴上的坐标偏移和在Y轴上的坐标偏移。

进一步可选地,当计算出目标对象的X轴坐标和Y轴坐标之后,可以将目标对象的X轴坐标和Y轴坐标与上一次定位中得到的目标对象的可信X轴坐标和Y轴坐标进行比较;若两者误差在设定误差范围内,确定本次定位结果准确,后续可以使用该定位结果;反之,若两者误差未在设定误差范围内,说明本次定位结果不够准确,可以重新定位或者放弃本次定位结果。

在上述部分实施例中,包含利用机器人的激光雷达采集机器人周围至少一个对象的激光雷达数据的操作。该操作的一种可选实施方式包括:

利用激光雷达在机器人的360°范围内发射激光信号,并记录发射激光信号的时间t1;激光信号在空中传播,当碰到首个对象后会反射回来;激光雷达可以接收反射回来的激光信号,并记录接收到反射回来的激光信号的时间t2;根据时间t2和时间t1,可以计算出激光信号在空中传播的单向飞行时间t_tof=(t2-t1)/2;结合光速和单向飞行时间t_tof可以计算出激光雷达距离该对象之间的距离,即该对象相对机器人的距离,并将激光信号所在角度作为该对象相对机器人的角度。在该可选实施方式中,每个对象的激光雷达数据包含每个对象相对机器人的距离信息以及角度信息。

在上述部分实施例中,在确定每个对象的激光雷达数据之后,可以根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据。在每个对象的激光雷达数据包括每个对象相对机器人的距离信息和角度信息的情况下,该操作的一种可选实施方式包括:

从至少一个对象的激光雷达数据中,获取距离信息和角度信息分别与第一位置信息中的距离信息和上一次定位中的可信角度信息的差值小于相应阈值的激光雷达数据,作为目标对象的激光雷达数据。

可选地,可以将至少一个对象相对机器人的距离信息与第一位置信息中的距离信息进行比较,从中获取距离信息与第一位置信息中的距离信息的差值小于距离差阈值的对象;进而,将所获取的对象相对机器人的角度信息与上一次定位中的可信角度进行比较,从中获取角度信息与上一次定位中的可信角度信息的差值小于角度差阈值的对象,将最终获取到的对象以及对象的激光雷达数据分别作为目标对象和目标对象的激光雷达数据。或者

可选地,可以将至少一个对象相对机器人的角度信息与上一次定位中的可信角度进行比较,从中获取角度信息与上一次定位中的可信角度信息的差值小于角度差阈值的对象;进而,将所获取的对象相对机器人的距离信息与第一位置信息中的距离信息进行比较,从中获取距离信息与第一位置信息中的距离信息的差值小于距离差阈值的对象,将最终获取到的对象以及对象的激光雷达数据分别作为目标对象和目标对象的激光雷达数据。

值得说明的是,在一些特殊情况中,例如,目标对象被遮挡,激光雷达可能无法采集到的目标对象的激光雷达数据,则可能无法从至少一个对象的激光雷达数据中确定出目标对象的激光雷达数据。

在上述部分实施例中,在确定目标对象的激光雷达数据之后,可以根据目标对象的激光雷达数据定位目标对象。在每个对象的激光雷达数据包括每个对象相对机器人的距离信息和角度信息的情况下,该操作的一种可选实施方式包括:

根据公式X_d=X0+d*cos(θ0+θ),Y_d=Y0+d*sin(θ0+θ),计算目标对象的位置坐标。其中,X_d、Y_d为目标对象的X轴坐标和Y轴坐标,X0、Y0为机器人的X轴坐标和Y轴坐标,θ0为机器人的朝向,d为目标对象的激光雷达数据中的距离信息,θ为目标对象的激光雷达数据中的角度信息。

本申请上述实施例提供的定位系统或机器人,可以应用于各种场景。下面对一些应用场景进行举例说明:

应用场景1:

在超市、商场等场所,为了提高用户购物时的便利性,减轻用户购物时的负担,超市、商场中可以配置跟随型购物车机器人。这些购物车机器人可以在用户购物时跟在用户身后,用户无需手推购物车或手拎购物筐,便于用户更加方便的挑选商品。

其中,为了便于这些购物车机器人更好地跟随用户,可以为购物车机器人配置人体跟随器。可选地,人体跟随器可以由超市、商场的管理人员保管,也可以直接配置在购物车机器人上。

当用户到超市、商场购物时,如果选择购物车机器人,可以从超市、商场的管理人员处获取购物车机器人对应的人体跟随器,或者,从购物车机器人上取下人体跟随器,将人体跟随器穿戴或佩戴于某个部位,或放置于口袋中。然后,可以通过语音、触控或物理按键等方式将购物车机器人从休眠或待机状态唤醒。其中,购物车机器人处于未被使用状态时,可进入休眠或待机状态,这有利于节约购物车机器人的电量。

此时,用户只需根据自己的购物需求,在超市、商场选购商品即可。购物车机器人可以通过其近距离通信模块,例如UWB模块向与其适配的人体跟随器发出无线信号,以对用户进行初步定位。

一般来说,UWB模块有一定的角度置信区间。而用户选购商品时,用户移动范围有可能发生突变或变化较大,当用户突然移动到UWB模块的角度置信区间之外时,UWB模块有可能无法准确定位。为解决该问题,购物车机器人上设置了激光雷达,激光雷达可以探测360°范围内最近的对象,解决角度跳变等不可信问题。

若UWB模块定位出的用户相对机器人的角度位于角度置信区间,则购物车机器人可以根据UWB模块对该用户的定位结果,并结合预置的超市、商场地图,规划从购物车机器人当前位置到用户的路径,达到跟随用户的目的。

若基于UWB模块定位出的用户相对机器人的角度不可信,则可以启动购物车机器人的激光雷达对用户进行二次定位。若激光雷达定位到购物车机器人需要跟随的用户,则可以根据激光雷达对该用户的定位结果,并结合预置的超市、商场地图,规划从购物车机器人当前位置到用户的路径,达到跟随用户的目的。

进一步,可选地,在超市、商场等环境中,人员、物品、货架都比较密集,购物车机器人需要跟随的用户有可能被其它用户或者货架等遮挡。对于这种情况,激光雷达可能无法定位到需要跟随的用户,激光雷达定位会失败。此时,可以启动购物车机器人的深度摄像头对用户进行三次定位。若在深度摄像头拍摄到购物车机器人需要跟随的用户,则可以根据深度摄像头对该用户的定位结果,并结合预置的超市、商场地图,规划从购物车机器人当前位置到用户的路径,达到跟随用户的目的。

应用场景2

在仓储分拣系统中,可以配置分拣机器人;当需要分拣作业时,工作人员可以引导分拣机器人到达货架拣货区,由分拣机器人代替分拣人员进行货物分拣,可以提高分拣效率,节约人员成本。

其中,为了便于这些分拣机器人更好地跟随工作人员到达货架拣货区,可以为分拣机器人配置人体跟随器。可选地,人体跟随器可以由工作人员保管,也可以直接配置在分拣机器人上。

当工作人员需要引导分拣机器人到达货架拣货区时,可以从保管处或分拣机器人上取下人体跟随器,将人体跟随器穿戴或佩戴于某个部位,或放置于口袋中。然后,可以通过语音、触控或物理按键等方式将分拣机器人从休眠或待机状态唤醒。其中,分拣机器人处于未被使用状态时,可进入休眠或待机状态,这有利于节约分拣机器人的电量。

此时,工作人员只需自行走向达货架拣货区。分拣机器人可以通过其近距离通信模块,例如UWB模块向与其适配的人体跟随器发出无线信号,以对用户进行初步定位。

一般来说,UWB模块有一定的角度置信区间。而到达货架拣货区的路径可能比较复杂,工作人员的移动范围有可能发生突变或变化较大,当工作人员突然移动到UWB模块的角度置信区间之外时,UWB模块有可能无法准确定位。为解决该问题,分拣机器人上设置了激光雷达,激光雷达可以探测360°范围内最近的对象,解决角度跳变等不可信问题。

若UWB模块定位出的工作人员相对机器人的角度位于角度置信区间,则分拣机器人可以根据UWB模块对该工作人员的定位结果,并结合预置的仓库地图,规划从分拣机器人当前位置到工作人员的路径,达到跟随工作人员的目的。

若基于UWB模块定位出的工作人员相对机器人的角度不可信,则可以启动分拣机器人的激光雷达对工作人员进行二次定位。若激光雷达定位到工作人员,则可以根据激光雷达对该工作人员的定位结果,并结合预置的仓库地图,规划从分拣机器人当前位置到工作人员的路径,达到跟随工作人员的目的。

值得说明的,根据应用需求以及成本,分拣机器人也可以配置深度摄像头,以便于在激光雷达定位失败时,进一步进行辅助定位。

应用场景3

在家庭场景中,可以配置家庭陪护机器人。家庭陪护机器人可以代替成人看护老人或孩子,可以将成人从中解放出来。家庭陪护机器人可以陪老人或孩子游戏、阅读、聊天、提醒老人吃药等。为了更好地提供陪护服务,家庭陪护机器人也可以根据用户需求陪老人或孩子外出。在外出陪护场景中,家庭陪护机器人需要成功定位和跟随老人和孩子。

其中,为了便于这些家庭陪护机器人更好地跟随老人或孩子,可以为家庭陪护机器人配置人体跟随器。当需要家庭陪护机器人跟随老人或孩子外出时,老人或孩子可以佩戴人体跟随器。然后,由老人或孩子本人,或者由孩子家长,通过语音、触控或物理按键等方式将家庭陪护机器人从休眠或待机状态唤醒。其中,家庭陪护机器人处于未被使用状态时,可进入休眠或待机状态,这有利于节约家庭陪护机器人的电量。

此时,老人和孩子只需根据自己的外出需求,随意溜达或行走。家庭陪护机器人可以通过其近距离通信模块,例如UWB模块向与其适配的人体跟随器发出无线信号,以对老人或孩子进行初步定位。

当UWB模块定位出的老人或孩子相对家庭陪护机器人的角度比较可信时,家庭陪护机器人可以根据UWB模块对老人或孩子的定位结果,并结合拍摄到的实时场景,规划从家庭陪护机器人当前位置到老人或孩子的路径,达到跟随用户的目的。

当UWB模块定位出的老人或孩子相对家庭陪护机器人的角度不可信时,可以启动家庭陪护机器人的激光雷达对老人或孩子进行二次定位。若激光雷达定位到家庭陪护机器人需要跟随的老人或孩子,则可以根据激光雷达对老人或孩子的定位结果,并结合拍摄到的实时场景,规划从家庭陪护机器人当前位置到老人或孩子的路径,达到跟随用户的目的。

进一步,若家庭陪护机器人的功能相对强大,而且家庭陪护需求也比较复杂,则家庭陪护机器人还可以配置深度摄像头。在跟随场景中,可根据应用需求,启动深度摄像头对老人或孩子进行跟踪,以便成功跟随,达到真正意义上的陪护。例如,若老人或孩子走到人员比较密集的场所,此时,激光雷达定位可能会时效,此时可以启动深度摄像头,可以利用图像识别技术成功定位需要跟随的老人或孩子。

除上述基于机器人的定位系统和机器人之外,本申请实施例还提供一些基于机器人的定位方法,这些方法主要是从机器人的角度描述了机器人如何对目标对象进行定位。在这些方法中,将机器人的近距离通信模块与机器人的深度摄像头和/或激光雷达相结合,充分利用近距离通信模块与深度摄像头和/或激光雷达各自的优点,融合多种信息对目标对象进行定位。

这些方法的主要定位思路是:一方面利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息;另一方面利用机器人的深度摄像头和/或激光雷达采集机器人周围至少一个对象的深度图像和/或激光雷达数据;然后,根据第一位置信息中的距离信息,从至少一个对象的深度图像和/或激光雷达数据中,确定目标对象的深度图像和/或激光雷达数据;根据目标对象的深度图像和/或激光雷达数据定位目标对象。

值得说明的是,上述定位思路可以有多种不同的实施方式,例如,在一些可选实施方式中,近距离通信模块可以直接与深度摄像探头和/或激光雷达相结合,而无需任何条件;在另一些可选实施例中,近距离通信模块与深度摄像探头和/或激光雷达相结合需要满足一定条件,例如可以在近距离通信模块无法准确定位目标对象时,再结合深度摄像探头和/或激光雷达对目标对象进行定位。

在本申请以下实施例中,以近距离通信模块无法准确定位目标对象时,结合深度摄像探头和/或激光雷达对目标对象进行定位的过程进行了描述。

图3a为本申请又一示例性实施例提供的一种基于机器人的定位方法的流程示意图。如图3a所示,该方法包括:

S301、利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息,该第一位置信息包括目标对象相对于机器人的距离信息和角度信息。

S302、判断第一位置信息中的角度信息是否可信;若判断结果为否,则执行步骤S303;若判断结果为是,则执行步骤S306。

S303、利用机器人的激光雷达采集机器人周围至少一个对象的激光雷达数据,继续执行步骤S304。

S304、根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据,继续执行步骤S305。

S305、根据目标对象的激光雷达数据定位目标对象,结束此次定位操作。

S306、根据第一位置信息中的距离信息和角度信息定位目标对象,结束此次定位操作。

在本实施例中,将近距离通信模块和激光雷达相结合,可以利用激光雷达可探测360°范围的优势,在一定程度上弥补近距离通信模块角度置信区间较小的不足,可以稳定角度信息,解决角度信息不可信引起的定位失败的问题,并且结合激光雷达测量数据精度较高的优势,有利于提高定位精度,尤其在复杂环境中可以获得持续稳定的信号。

图3b为本申请又一示例性实施例提供的另一种基于机器人的定位方法的流程示意图。如图3b所示,该方法包括:

S311、利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息,该第一位置信息包括目标对象相对于机器人的距离信息和角度信息。

S312、判断第一位置信息中的角度信息是否可信;若判断结果为否,则执行步骤S313;若判断结果为是,则执行步骤S316。

S313、利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据,继续执行步骤S314。

S314、根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据,继续执行步骤S315。

S315、根据目标对象的深度图像数据定位目标对象,结束此次定位操作。

S316、根据第一位置信息中的距离信息和角度信息定位目标对象,结束此次定位操作。

在本实施例中,将近距离通信模块和深度摄像头结合,在角度信息不可信的情况下,可以利用深度摄像头对目标对象进行二次定位,而结合深度摄像头测量数据精度较高的优势,有利于提高成功定位的概率,提高定位精度。

图3c为本申请又一示例性实施例提供的又一种基于机器人的定位方法的流程示意图。如图3c所示,该方法包括:

S3201、利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息,该第一位置信息包括目标对象相对于机器人的距离信息和角度信息。

S3202、判断第一位置信息中的角度信息是否可信;若判断结果为否,则执行步骤S3203;若判断结果为是,则执行步骤S3212。

S3203、利用机器人的激光雷达采集机器人周围至少一个对象的激光雷达数据,继续执行步骤S3204。

S3204、根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据,继续执行步骤S3205。

S3205、判断是否从至少一个对象的激光雷达数据中确定出目标对象的激光雷达数据;若判断结果为是,执行步骤S3206;若判断结果为否,执行步骤S3207。

S3206、根据目标对象的激光雷达数据定位目标对象,结束此次定位操作。

S3207、利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据,继续执行步骤S3208。

S3208、根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据,继续执行步骤S3209。

S3209、判断是否从至少一个对象的深度图像数据中确定出目标对象的深度图像数据;若判断结果为是,执行步骤S3210;若判断结果为否,执行步骤S3211。

S3210、根据目标对象的深度图像数据定位目标对象,结束此次定位操作。

S3211、返回定位失败结果,结束定位操作。

S3212、根据第一位置信息中的距离信息和角度信息定位目标对象。

在本实施例中,当近距离通信模块因角度信息不可信导致定位失败时,可以利用激光雷达可探测360°范围的优势,一定程度上可以弥补近距离通信模块角度置信区间较小的不足,可以稳定角度信息,解决角度信息不可信引起的定位失败的问题;进一步,当激光雷达被障碍物遮挡无法成功探测到目标对象时,可以利用深度摄像头,利用图像识别技术,保障数据的稳定和可靠性,解决激光雷达无法探测到目标对象的问题,不仅可以提高成功定位的概率,而且有利于提高定位精度。

图3d为本申请又一示例性实施例提供的再一种基于机器人的定位方法的流程示意图。如图3d所示,该方法包括:

S3301、利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息,该第一位置信息包括目标对象相对于机器人的距离信息和角度信息。

S3302、判断第一位置信息中的角度信息是否可信;若判断结果为否,则执行步骤S3303;若判断结果为是,则执行步骤S3212。

S3303、利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据,继续执行步骤S3304。

S3304、根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据,继续执行步骤S3305。

S3305、判断是否从至少一个对象的深度图像数据中确定出目标对象的深度图像数据;若判断结果为是,执行步骤S3306;若判断结果为否,执行步骤S3307。

S3306、根据目标对象的深度图像数据定位目标对象,结束此次定位操作。

S3307、利用机器人的激光雷达采集机器人周围至少一个对象的激光雷达数据,继续执行步骤S3308。

S3308、根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据,继续执行步骤S3309。

S3309、判断是否从至少一个对象的激光雷达数据中确定出目标对象的激光雷达数据;若判断结果为是,执行步骤S3210;若判断结果为否,执行步骤S3211。

S3210、根据目标对象的激光雷达数据定位目标对象,结束此次定位操作。

S3211、返回定位失败结果,结束定位操作。

S3212、直接根据第一位置信息中的距离信息和角度信息定位目标对象。

在本实施例中,当近距离通信模块因角度信息不可信导致定位失败时,可以利用深度摄像头,利用深度摄像头,利用图像识别技术,保障数据的稳定和可靠性,提高成功定位的概率;进一步,在深度摄像头因为角度问题定位失败时,可以结合激光雷达,并利用激光雷达可探测360°范围的优势,稳定角度信息,解决角度不可信引起的定位失败的问题;进一步,结合深度摄像头和激光雷达测量数据精度较高的优势,有利于提高定位精度。

在上述实施例中,需要判断第一位置信息中的角度信息是否可信,并在不可信时,结合深度摄像头和/或激光雷达,但并不限于此。在本申请另一些实施例中,可以不关心第一位置信息中的角度信息是否可信,即无论第一位置信息中的角度信息是否可信,都将近距离通信模块与深度摄像头和/或激光雷达相结合。例如,在图3a所示实施例中,可以不执行步骤S302,而是在步骤S301之后,直接执行步骤S303以及后续相关步骤。又例如,在图3b所示实施例中,可以不执行步骤S312,而是在步骤S311之后,直接执行步骤S313以及后续相关步骤。又例如,在图3c所示实施例中,可以不执行步骤S3202,而是在步骤S3201之后,直接执行步骤S3203以及后续相关步骤。又例如,在图3d所示实施例中,可以不执行步骤S3302,而是在步骤S3301之后,直接执行步骤S3303以及后续相关步骤。关于此处给出的图3a-图3d所示实施例的变形实施例,相关描述可参见图3a-图3d所示实施例,此处不做详述描述。

在上述各种方法实施例中,包括判断第一位置信息中的角度信息是否可信的步骤。可选地,该步骤可以采用但不限于以下方式实现:

若第一位置信息中的角度信息未在近距离通信模块对应的角度置信区间内,确定第一位置信息中的角度信息不可信;和/或

若第一位置信息中的角度信息与上一次定位中的可信角度信息的差值大于设定角度阈值,确定第一位置信息中的角度信息不可信;和/或

若目标对象相对于机器人的多个位置信息中的角度信息波动异常,确定第一位置信息中的角度信息不可信,多个位置信息是在本次定位开始与上一次定位结束之间利用近距离通信模块获得的,且包括第一位置信息。

在上述一些方法实施例中,包括利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据的步骤。该步骤可以采用但不限于以下方式实现:

利用深度摄像头拍摄机器人周围场景,以获得彩色图像和深度图像;基于图像识别技术,标记彩色图像中包含的至少一个对象的图像区域;基于彩色图像和深度图像之间的坐标变换关系,将至少一个对象在彩色图像中的图像区域映射到深度图像中;根据至少一个对象在深度图像中的图像区域中的像素坐标,分别计算至少一个对象相对机器人的坐标偏移,作为至少一个对象的深度图像数据。

在上述一些方法实施例中,包括根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据的步骤。该步骤可以采用但不限于以下方式实现:

对至少一个对象,可以根据其相对机器人的坐标偏移逐个判断是否为目标对象。其中,对每个对象来说,根据其相对机器人的坐标偏移判断是否为目标对象的过程相同或类似。为便于描述和理解,下面以至少一个对象中的任一对象,例如第一对象为例进行描述。

例如,对第一对象,可以根据第一对象相对机器人的坐标偏移计算第一对象相对机器人的距离信息;将第一对象相对机器人的距离信息与第一位置信息中的距离信息进行比较;若第一对象相对机器人的距离信息与第一位置信息中的距离信息的差值小于距离差阈值,确定第一对象相对机器人的坐标偏移为目标对象相对机器人的坐标偏移,相应地,第一对象即为目标对象;反之,若第一对象相对机器人的距离信息与第一位置信息中的距离信息的差值大于或等于距离差阈值,则确定第一对象不是目标对象。

在上述一些方法实施例中,包括根据目标对象的深度图像定位目标对象的步骤。该步骤可以采用但不限于以下方式实现:

根据公式X_d=X0+X1+offset_x,Y_d=Y0+Y1+offset_y,计算目标对象的位置坐标。其中,X_d、Y_d为目标对象的X轴坐标和Y轴坐标,X0、Y0为机器人的X轴坐标和Y轴坐标,X1、Y2为深度摄像头在X轴和Y轴上的安装偏差,offset_x、offset_y为目标对象相对于机器人在X轴上的坐标偏移和在Y轴上的坐标偏移。

在上述一些方法实施例中,包括利用激光雷达采集至少一个对象的激光雷达数据。每个对象的激光雷达数据包括每个对象相对于机器人的距离信息和角度信息。则上述方法实施例中,根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据可以采用但不限于以下方式实现:

从至少一个对象的激光雷达数据中,获取距离信息和角度信息分别与第一位置信息中的距离信息以及上一次定位中的可信角度信息的差值小于相应阈值的激光雷达数据,作为目标对象的激光雷达数据。

可选地,可以将至少一个对象相对机器人的距离信息与第一位置信息中的距离信息进行比较,从中获取距离信息与第一位置信息中的距离信息的差值小于距离差阈值的对象;进而,将所获取的对象相对机器人的角度信息与上一次定位中的可信角度进行比较,从中获取角度信息与上一次定位中的可信角度信息的差值小于角度差阈值的对象,将最终获取到的对象以及对象的激光雷达数据分别作为目标对象和目标对象的激光雷达数据。或者

可选地,可以将至少一个对象相对机器人的角度信息与上一次定位中的可信角度进行比较,从中获取角度信息与上一次定位中的可信角度信息的差值小于角度差阈值的对象;进而,将所获取的对象相对机器人的距离信息与第一位置信息中的距离信息进行比较,从中获取距离信息与第一位置信息中的距离信息的差值小于距离差阈值的对象,将最终获取到的对象以及对象的激光雷达数据分别作为目标对象和目标对象的激光雷达数据。

值得说明的是,在一些特殊情况中,例如,目标对象被遮挡,激光雷达可能无法采集到的目标对象的激光雷达数据,则可能无法从至少一个对象的激光雷达数据中确定出目标对象的激光雷达数据。

在上述一些方法实施例中,包括根据目标对象的激光雷达数据定位目标对象的步骤。该步骤可以采用但不限于以下方式实现:

根据公式X_d=X0+d*cos(θ0+θ),Y_d=Y0+d*sin(θ0+θ),计算目标对象的位置坐标。其中,X_d、Y_d为目标对象的X轴坐标和Y轴坐标,X0、Y0为机器人的X轴坐标和Y轴坐标,θ0为机器人的朝向,d为目标对象的激光雷达数据中的距离信息,θ为目标对象的激光雷达数据中的角度信息。

在一些需要机器人跟随目标对象的应用场景中,机器人定位目标对象之后,还可以根据对目标对象的定位结果,控制机器人对目标对象进行跟随。例如,可以根据对目标对象的定位结果,规划从机器人到目标对象的路径,进而控制机器人沿该路径向目标对象移动,以达到跟随目标对象的目的。

在另外一些应用场景中,机器人定位目标对象之后,还可以将对目标对象的定位结果,输出至机器人对应的控制平台。其中,控制平台可以根据目标对象的定位结果执行其他操作,例如向目标对象推荐商家,或者为目标对象配送快递,或者为目标对象提供导航服务等等。

需要说明的是,上述实施例所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤S301至步骤S306的执行主体可以为设备A;又比如,步骤S301和S304的执行主体可以为设备A,步骤S305-S306的执行主体可以为设备B;等等。

另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如S301、S304等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。

图4为本申请又一示例性实施例提供的一种基于机器人的定位装置的结构示意图。该装置可以作为机器人的内部模块实现;或者,也可以独立于机器人,与机器人通信连接,并可对机器人进行控制。如图4所示,该装置包括:

获取模块41,用于利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息。

采集模块42,用于利用机器人的深度摄像头和/或激光雷达采集机器人周围至少一个对象的深度图像和/或激光雷达数据。

确定模块43,用于根据第一位置信息中的距离信息,从至少一个对象的深度图像和/或激光雷达数据中,确定目标对象的深度图像和/或激光雷达数据。

定位模块44,用于根据目标对象的深度图像和/或激光雷达数据定位目标对象。

在一可选实施方式中,采集模块42具体用于:在第一位置信息中的角度信息不可信时,利用机器人的深度摄像头和/或激光雷达采集机器人周围至少一个对象的深度图像和/或激光雷达数据。

在一可选实施方式中,采集模块42还用于:

在第一位置信息中的角度信息未在近距离通信模块对应的角度置信区间内时,确定第一位置信息中的角度信息不可信;和/或

在在第一位置信息中的角度信息与上一次定位中的可信角度信息的差值大于设定角度阈值时,确定第一位置信息中的角度信息不可信;和/或

在目标对象相对于机器人的多个位置信息中的角度信息波动异常时,确定第一位置信息中的角度信息不可信,多个位置信息是在本次定位开始与上一次定位结束之间利用近距离通信模块获得的,且包括第一位置信息。

在一可选实施方式中,采集模块42具体用于:利用激光雷达采集机器人周围至少一个对象的激光雷达数据,并在无法从至少一个对象的激光雷达数据中确定出目标对象的激光雷达数据时,利用深度摄像头采集机器人周围至少一个对象的深度图像数据;或者,利用深度摄像头采集机器人周围至少一个对象的深度图像数据,并在无法从至少一个对象的深度图像数据中确定出目标对象的深度图像数据时,利用激光雷达采集机器人周围至少一个对象的激光雷达数据。

在一可选实施方式中,采集模块42在利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据时,具体用于:利用深度摄像头拍摄机器人周围场景,以获得彩色图像和深度图像;基于图像识别技术,标记彩色图像中包含的至少一个对象的图像区域;基于彩色图像和深度图像之间的坐标变换关系,将至少一个对象在彩色图像中的图像区域映射到深度图像中;根据至少一个对象在深度图像中的图像区域中的像素坐标,分别计算至少一个对象相对机器人的坐标偏移,作为至少一个对象的深度图像数据。

在一可选实施方式中,确定模块43在确定目标对象的深度图像数据时,具体用于:对至少一个对象中的第一对象,根据第一对象相对机器人的坐标偏移计算第一对象相对机器人的距离信息;若第一对象相对机器人的距离信息与第一位置信息中的距离信息的差值小于设定距离差阈值,确定第一对象相对机器人的坐标偏移为目标对象相对机器人的坐标偏移。其中,第一对象是至少一个对象中的任一对象。

在一可选实施方式中,定位模块44在根据目标对象的深度图像定位目标对象时,具体用于:根据公式X_d=X0+X1+offset_x,Y_d=Y0+Y1+offset_y,计算目标对象的位置坐标;

其中,X_d、Y_d为目标对象的X轴坐标和Y轴坐标,X0、Y0为机器人的X轴坐标和Y轴坐标,X1、Y2为深度摄像头在X轴和Y轴上的安装偏差,offset_x、offset_y为目标对象相对于机器人在X轴上的坐标偏移和在Y轴上的坐标偏移。

在一可选实施方式中,每个对象的激光雷达数据包括每个对象相对于机器人的距离信息和角度信息。基于此,确定模块43在确定目标对象的激光雷达数据时,具体用于:从至少一个对象的激光雷达数据中,获取距离信息和角度信息分别与第一位置信息中的距离信息以及上一次定位中的可信角度信息的差值小于相应阈值的激光雷达数据,作为目标对象的激光雷达数据。

在一可选实施方式中,定位模块44在根据目标对象的激光雷达数据定位目标对象时,具体用于:根据公式X_d=X0+d*cos(θ0+θ),Y_d=Y0+d*sin(θ0+θ),计算目标对象的位置坐标;

其中,X_d、Y_d为目标对象的X轴坐标和Y轴坐标,X0、Y0为机器人的X轴坐标和Y轴坐标,θ0为机器人的朝向,d为目标对象的激光雷达数据中的距离信息,θ为目标对象的激光雷达数据中的角度信息。

在一可选实施方式中,该装置还包括:跟随控制模块和/或输出模块。

其中,跟随控制模块,用于根据对目标对象的定位结果,控制机器人对目标对象进行跟随。

输出模块,用于将对目标对象的定位结果,输出至机器人对应的控制平台。

本实施例提供的基于机器人的定位装置,可将机器人的近距离通信模块与机器人的深度摄像头和/或激光雷达相结合,充分利用近距离通信模块与深度摄像头和/或激光雷达各自的优点,融合多种信息对目标对象进行定位,有利于减小定位误差,提高定位精度。

相应地,本申请实施例还提供一种存储有计算机指令的计算机可读存储介质,计算机指令被一个或多个处理器执行时,致使一个或多个处理器执行包括以下的动作:

利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息;

利用机器人的深度摄像头和激光雷达采集机器人周围至少一个对象的深度图像和激光雷达数据;

根据第一位置信息中的距离信息,从至少一个对象的深度图像和激光雷达数据中,确定目标对象的深度图像和激光雷达数据;

根据目标对象的深度图像和激光雷达数据定位目标对象。

关于上述动作的详细实施过程,可参见前述实施例中的描述,在此不再赘述。

相应地,本申请实施例还提供一种存储有计算机指令的计算机可读存储介质,计算机指令被一个或多个处理器执行时,致使一个或多个处理器执行包括以下的动作:

利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息;

利用机器人的深度摄像头采集机器人周围至少一个对象的深度图像数据;

根据第一位置信息中的距离信息,从至少一个对象的深度图像数据中,确定目标对象的深度图像数据;

根据目标对象的深度图像数据定位目标对象。

关于上述动作的详细实施过程,可参见前述实施例中的描述,在此不再赘述。

相应地,本申请实施例还提供一种存储有计算机指令的计算机可读存储介质,计算机指令被一个或多个处理器执行时,致使一个或多个处理器执行包括以下的动作:

利用机器人的近距离通信模块与目标对象通信,以测量目标对象相对于机器人的第一位置信息;

利用机器人的激光雷达采集机器人周围至少一个对象的激光雷达数据;

根据第一位置信息中的距离信息,从至少一个对象的激光雷达数据中,确定目标对象的激光雷达数据;

根据目标对象的激光雷达数据定位目标对象。

关于上述动作的详细实施过程,可参见前述实施例中的描述,在此不再赘述。

上述计算机可读存储介质可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。

本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。

内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。

计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。

还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。

以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1