多移动机器人系统协作实验平台及其视觉分割和定位方法

文档序号:6304640阅读:212来源:国知局
多移动机器人系统协作实验平台及其视觉分割和定位方法
【专利摘要】本发明公开了一种多移动机器人系统协作实验平台及其视觉分割和定位方法。所述协作实验平台由全局视觉监测系统和多个机构相同的移动机器人组成;其中全局视觉监测系统由门形支撑、CCD摄像机、图像采集卡和监控主机组成;CCD摄像机安装于门形支撑上并与移动机器人对应设置,CCD摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。所述视觉分割方法结合帧差法和光流法进行障碍物分割。所述视觉定位方法基于色标板进行阈值分割来实现。本发明不仅能满足多移动机器人系统中编队控制、目标探索、任务分配和路径规划等协作技术的实验验证,而且具有成本低和搭建迅速的优点。
【专利说明】多移动机器人系统协作实验平台及其视觉分割和定位方法
【技术领域】
[0001]本发明属于多移动机器人系统领域,涉及到多移动机器人系统协作实验平台的构建,尤其涉及到实验平台中基于视觉的环境分割和机器人定位方法的实现。
【背景技术】
[0002]近年来,随着机器人应用领域的不断拓展,机器人所面对的环境越来越复杂,任务种类越来越多样化,任务复杂程度也越来越高,单机器人对此已经不堪重负,而多机器人系统的内在并行性、功能叠加性,使得其具有更高的任务执行能力和执行效率,系统的鲁棒性也更好。因此,多机器人系统目前已经成为机器人领域的研究热点和趋势。多机器人系统研究所涉及的关键技术包括:编队控制、目标探索、目标围捕、任务分配和路径规划等,为了提高所研究关键技术在实际应用中的效率和可靠性,降低运行成本,往往需要事先对相关技术进行理论验证,而目前更多的是通过仿真来实现,但仿真环境过于理想化,与实际相差较多,因此发明一种多机器人系统协作实验平台有助于推动多机器人系统协作技术的发展和应用。
[0003]专利号为“ZL201220043533.4”的专利文献公开了“一种全景摄像头的移动机器人传感器实验平台”技术。该实验平台主要是针对单移动机器人的传感器测试,且采用车载视觉,而非本申请发明中的全局视觉,机器人所获得的视觉信息也只能是局部环境信息。该平台并不能满足多移动机器人的系统协作实验。
[0004]专利号为“ZL201220084942.9”的专利文献公开了 “基于ZigBee无线控制移动机器人平台”技术。该平台虽然适用于环境探测、群体监控、群体机器人实验,但移动机器人运动控制的实现,主要是通过手动遥控来实现,而这不能满足多移动机器人系统协作中的自主性要求,因此该装置也不能作为多机器人系统协作的实验平台。
[0005]专利号为“ZL00816243.3”公布了一种自主多平台机器人系统。该系统至少需要一个采用车载视觉的导航机器人,该机器人负责自身及其它功能机器人的定位、计划和控制,由此可以看出,整个机器人系统完全依赖于该导航机器人。一方面,当导航机器人出现故障时,整个机器人系统会陷入瘫痪;另一方面,各功能机器人由于受导航机器人的控制,则他们也无法真正意义上实现自身的自主性,因此,这种平台同样不适合多机器人系统的协作实验。
[0006]专利号为“ZL201010572035.4”公布了一种自主移动机器人平台。内容涉及到了机器人身上携带环境感知系统、驱动系统、平台控制系统等,但该平台对象仍然是单机器人,若要基于其进行多机器人系统协作的实验平台搭建,还需要解决多机器人之间的信息共享、机器人之间的各自定位等。
[0007]专利号为“200720011967.5”公布了一种色标标示足球机器人。为了区别对抗组机器人,该专利设计了一种含色标分隔凸线的方形色标板,这比较适合于区别不同组的机器人,但是无法基于视觉实现机器人的精确定位。
[0008]综上所述,相比起单移动机器人而言,多移动机器人的任务执行能力更强、任务执行效率更高,而这又取决于多机器人系统的协作技术。为了提高多机器人协作技术的实际应用效率和应用效果,降低系统运行成本,事先开展相关协作技术的实验验证是必不可少的,这就需要一种适合多移动机器人系统协作的实验平台。从已有的专利来看,目前现有机器人平台主要以单移动机器人为主,若依靠多个该类机器人组成多机器人系统协作实验平台,还需要解决多机器人之间的通信、环境地图的构建、机器人的定位等相关技术,因此现有移动机器人的实验平台都不能满足多移动机器人的系统协作实验。

【发明内容】

[0009]本发明的目的在于为解决多移动机器人系统协作的实验需要而构建一种集控式平台,进而提供实验平台中基于视觉的环境分割和机器人定位方法。
[0010]本发明的多移动机器人系统协作实验平台,由全局视觉监测系统和多个机构相同的移动机器人组成;其中全局视觉监测系统由门形支撑、CXD摄像机、图像采集卡和监控主机组成;(XD摄像机安装于门形支撑上并与移动机器人对应设置,CXD摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。
[0011]所述全局视觉监测系统的门形支撑包括底座、竖直下支撑管、两通紧固件、竖直上支撑管、L型连接件、横支撑管和摄像机支架;底座由底板通过螺钉与T型支撑管相连构成,竖直下支撑管的一端插在T型支撑管里;两通紧固件由上螺帽、两端中空螺纹管和下螺帽组成,竖直上支撑管的一端依次通过上螺帽、两端中空螺纹管和下螺帽插在竖直下支撑管的另一端里面;横支撑管通过L型连接件与竖直上支撑管固定;摄像机支架设置于横支撑管上。
[0012]所述的摄像机支架由马鞍卡、螺栓、托盘和T型万向支架组成;(XD摄像机通过紧固螺钉与T型万向支架相连,T型万向支架的底盘通过螺栓与托盘相连,托盘再通过螺栓与跨在横支撑管上的马鞍卡相连;通过马鞍卡实现CCD摄像机绕着横支撑管旋转。
[0013]所述的移动机器人由三层组成,由上至下依次为:色标板、控制层和底层;色标板由基板、主色标和三个辅色标组成,基板的颜色为固定黑色;位于基板中心的主色标的颜色是固定蓝色;三个辅色标的颜色为黄色和红色,不同移动机器人用三个辅色标的不同颜色组合来区分;
[0014]所述的控制层以控制电路板为基础,在控制电路板上通过单排座连有五个超声波测距传感器和无线接收模块,五个超声波测距传感器以夹角30°均衡布置在机器人前方;
[0015]所述的底层以机器人底板为基础并通过左码盘轮、右码盘轮和万向轮支撑;所述左码盘轮和右码盘轮对称设置并且结构相同,其中左码盘轮与左轮直流电机相连,左轮直流电机通过电机卡帽、左轮码盘测速模块和螺栓固定在机器人底板上,左码盘轮和左轮码盘测速模块配合进行测速;右码盘轮与右轮直流电机相连,并与右轮码盘测速模块配合测速;机器人底板上以夹角45°布置三个红外测距传感器。
[0016]多移动机器人系统协作实验平台的环境视觉分割方法采用如下步骤:
[0017](I)利用CCD摄像机获取无任何物体的初始时刻背景图像Ib (O);
[0018](2)采集t时刻图像I⑴,计算该帧图像的差分图像Id(t):Id(t)=I(t) -1b(O);
[0019](3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像;
[0020](4)对分割图像进行闭运算处理,目的是消除障碍物区域的孔洞,以及平滑障碍物的边界;
[0021](5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;
[0022](6)根据环境分割从图像I (t)中剔除精确障碍物区域,得到t时刻的背景图像Ib⑴;
[0023](7)根据t时刻的背景图像Ib (t)与初始背景图像Ib(O),通过光流法估算背景运动速度场,对背景图像Ib(O)进行补偿校正和更新;
[0024](8)返回到步骤⑵。
[0025]多移动机器人系统协作实验平台的机器人视觉定位方法采用如下步骤:
[0026]I)利用CXD摄像机获取移动机器人运动空间的RGB彩色图像;
[0027]2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U, V分量;
[0028]3)基于U分量对色标板中主色标和黄色的辅色标进行阈值分割;
[0029]4)基于V分量对色标板中红色的辅色标进行阈值分割;
[0030]5)搜索分割后三色色标的连通域,获得各色标的中心坐标;
[0031]6)根据各色标的中心坐标即可得到色标板的坐标和方向角,进而实现移动机器人的视觉定位。
[0032]本发明具有如下有益效果:
[0033]根据多移动机器人系统协作的实验需要,本发明设计了一种集控式实验平台。针对多机器人系统协作中的环境分割及机器人定位需要,本发明还提供了实验平台中基于视觉的分割和定位方法。环境分割流程中基于帧差法的障碍物区域提取,与现有常用边界分割方法相比,具有计算量小、实时性好和抗噪声能力强的优点,满足了多机器人协作系统的实时性和鲁棒性要求。而基于光流法的背景图像实时更新,使环境分割更具有自适应性,提高了实时分割的稳定性。在机器人视觉定位中,平台采用的全局视觉比车载局部视觉更容易精确地提供机器人环境地图,而所设计的机器人色标板简单实用,提高了视觉分割速度。在机器人视觉定位流程中,基于YUV空间的U,V色度分量进行机器人色标分割,可以增强对环境光照变化干扰的抑制力,从而提高机器人定位精度。
[0034]总之,该实验平台不仅可以满足多移动机器人系统协作技术,比如编队控制、目标探索、目标围捕、任务分配和路径规划等的实验验证需要,而且还具有成本低、搭建迅速和实验精确的优点。
【专利附图】

【附图说明】
[0035]图1:多移动机器人系统协作实验平台示意图;
[0036]图2:底座结构图;
[0037]图3:两通紧固件结构图;
[0038]图4:摄像机支架结构图;
[0039]图5:移动机器人结构图;
[0040]图6:机器人色标板示意图;
[0041]图7:机器人中间控制层结构图;
[0042]图8:机器人底盘结构图;[0043]图9:机器人控制系统组成示意图;
[0044]图10:环境视觉分割方法流程图;
[0045]图11:机器人视觉定位方法流程图。
[0046]图中1.底座,2.竖直下支撑管,3.两通紧固件,4.竖直上支撑管,5.L型连接件,6.横支撑管,7.摄像机支架,8.C⑶摄像机,9.图像采集卡,10.监控主机,11.NRF905无线发送模块,12.移动机器人,13.底板,14.螺钉,15.T型支撑管,16.下螺帽,17.两端中空螺纹管,18.上螺帽,19.马鞍卡,20.螺栓,21.托盘,22.T型万向支架,23.紧固螺钉,24.T型万向支架的底盘,25.螺栓,26.色标板,27.控制层,28.底层,29.基板,30.辅色标,31.主色标,32.NRF905无线接收模块,33.超声波测距传感器,34.控制电路板,35.机器人底板,36.万向轮,37.左码盘轮,38.右码盘轮,39.左轮直流电机,40.电机卡帽,41.螺栓,42.右轮直流电机,43.左轮码盘测速模块,44.右轮码盘测速模块,45.红外测距传感器,46.微处理器,47.左轮电机驱动模块,48.右轮电机驱动模块,49.电子罗盘传感器。
【具体实施方式】
[0047]下面结合附图对本发明的多移动机器人系统协作实验平台及其视觉分割和定位方法进行详细描述:
[0048]多移动机器人系统协作实验平台由全局视觉监测系统和多移动机器人组成。
[0049]如图1所示,CXD摄像机8通过摄像机支架7安装在门形支撑的横支撑管6上,CXD摄像机8通过视频线与图像采集卡9相连,图像采集卡9安装在监控主机10的PCI插槽内。门形支撑的横支撑管6通过L型连接件5与竖直上支撑管4相连,竖直上支撑管4再通过两通紧固件3插在竖直下支撑管2中,竖直下支撑管2插在底座I里面。CXD摄像机8的高低调节可以通过两通紧固件3调节竖直上支撑管4在竖直下支撑管2里的长度来实现。
[0050]如图1和2所示,底座I由底板13通过螺钉14与T型支撑管15相连,竖直下支撑管2插在T型支撑管里。
[0051]如图1和3所示,两通紧固件3由上螺帽18、两端中空螺纹管17和下螺帽16组成。两端中空螺纹管17插在竖直下支撑管2上,通过下螺帽16进行两者紧固,竖直上支撑管4通过上螺帽18、两端中空螺纹管17插在竖直下支撑管2上面,并且依靠上螺帽18拧紧两端中空螺纹管17来固定。横支撑管6通过L型连接件5与竖直上支撑管4固定。
[0052]如图1和4所示,CXD摄像机8通过紧固螺钉23与T型万向支架22相连,T型万向支架的底盘24通过螺栓25与托盘21相连,托盘21再通过螺栓20与跨在横支撑管6上的马鞍卡19相连。通过马鞍卡19可以实现CXD摄像机8绕着横支撑管6旋转。
[0053]移动机器人12由三层组成。如图5所示,上面为色标板26,中间为控制层27,下面为底层28。
[0054]如图6所示,色标板26由基板29、主色标31和三个辅色标30组成。基板29的颜色为固定黑色;位于色标板26中心的主色标31的颜色是固定蓝色;三个辅色标30的颜色可选择为黄色和红色。不同移动机器人可以用三个辅色标30的不同颜色组合来区分。
[0055]如图5和7所示,移动机器人12的中间控制层27以控制电路板34为基础,通过单排座连有五个超声波测距传感器33和NRF905无线接收模块32等。五个超声波测距传感器以夹角30°均衡布置在机器人前方。[0056]如图5和8所示,移动机器人12的底层28以机器人底板35为基础,通过左码盘轮37、右码盘轮38和万向轮36支撑。左码盘轮37与左轮直流电机39相连,左轮直流电机39通过电机卡帽40、左轮码盘测速模块43和螺栓41固定在机器人底板35上。左码盘轮37和左轮码盘测速模块43配合进行测速。右码盘轮38与右轮直流电机42相连,并与右轮码盘测速模块44配合测速。三个红外测距传感器45以夹角45°布置在机器人底板35上。
[0057]如图1、5和9所示,移动机器人12的控制系统组成如下:以微处理器46为核心,超声波测距传感器33和红外测距传感器45分别与微处理器46相连,通过数据融合来进行移动机器人12的周围近距离障碍物检测;电子罗盘传感器49与微处理器46相连用以记录移动机器人12的运动方向;NRF905无线接收模块32通过SPI串口与微处理器46相连,并通过与监控主机10相连的NRF905无线发送模块11进行无线通信,用来接收来自监控主机10的控制命令,以及将机器人自身的检测信息发送到监控主机10。微处理器46通过左轮电机驱动模块47来驱动与控制左轮直流电机39 ;同样,微处理器46通过右轮电机驱动模块48来驱动与控制右轮直流电机42。移动机器人12通过左码盘轮37和右码盘轮38组成差动连接方式。左轮码盘测速模块43与左码盘轮37配合进行左轮转速测量;同样,右轮码盘测速模块44与右码盘轮38配合进行右轮转速测量。
[0058]为了完成基于所发明实验平台的多移动机器人系统协作实验,还需要进行环境分割以及机器人定位。
[0059]如图10所示,本发明基于视觉的环境分割方法采用如下步骤:
[0060](I)利用CXD摄像机8获取无任何物体的初始时刻背景图像Ib (O);
[0061](2)采集t时刻图像I⑴,计算该帧图像的差分图像Id(t):Id(t)=I(t) -1b(O);
[0062](3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像;
[0063](4)对分割图像进行闭运算处理,目的是消除障碍物区域的孔洞,以及平滑障碍物的边界;
[0064](5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;
[0065](6)从图像I⑴中剔除精确障碍物区域,得到t时刻的背景图像Ib (t);
[0066](7)根据t时刻的背景图像Ib(t)与初始背景图像Ib(O),通过光流法估算背景运动速度场,对背景图像Ib(O)进行补偿校正和更新;
[0067](8)返回到步骤⑵。
[0068]如图11所示,本发明的基于视觉的机器人定位方法采用如下步骤:
[0069](I)利用全局CXD摄像机8获取移动机器人12运动空间的RGB彩色图像;
[0070](2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U, V分量;
[0071](3)基于U分量对色标板26中蓝色主色标31和黄色辅色标30进行阈值分割;
[0072](4)基于V分量对色标板26中红色辅色标30进行阈值分割;
[0073](5)搜索分割后三色色标的连通域,获得各色标的中心坐标;
[0074](6)根据各色标的中心坐标即可得到色标板26的坐标和方向角,进而实现移动机器人12的视觉定位。
【权利要求】
1.一种多移动机器人系统协作实验平台,其特征在于:由全局视觉监测系统和多个机构相同的移动机器人(12)组成;其中全局视觉监测系统包括门形支撑、CXD摄像机(8)、图像采集卡(9)和监控主机(10)组成;(XD摄像机(8)安装于门形支撑上并与移动机器人(12)对应设置,CXD摄像机(8 )通过视频线与安装在监控主机(10 ) PCI插槽内的图像采集卡(9)相连。
2.根据权利要求1所述的多移动机器人系统协作实验平台,其特征在于所述全局视觉监测系统的门形支撑包括底座(1)、竖直下支撑管(2)、两通紧固件(3)、竖直上支撑管(4)、L型连接件(5)、横支撑管(6)和摄像机支架(7);底座(1)由底板(13)通过螺钉(14)与T型支撑管(15)相连构成,竖直下支撑管(2)的一端插在T型支撑管(15)里;两通紧固件(3)由上螺帽(18)、两端中空螺纹管(17)和下螺帽(16)组成,竖直上支撑管(4)的一端依次通过上螺帽(18)、两端中空螺纹管(17)和下螺帽(16)插在竖直下支撑管(2)的另一端里面;横支撑管(6 )通过L型连接件(5 )与竖直上支撑管(4 )固定;摄像机支架(7 )设置于横支撑管(6)上。
3.根据权利要求2所述的多移动机器人系统协作实验平台,其特征在于所述的摄像机支架(7)由马鞍卡(19)、螺栓(25)、托盘(21)和T型万向支架(22)组成;(XD摄像机(8)通过紧固螺钉(23)与T型万向支架(22)相连,T型万向支架的底盘(24)通过螺栓(25)与托盘(21)相连,托盘(21)再通过螺栓(20)与跨在横支撑管(6)上的马鞍卡(19)相连;通过马鞍卡(19)实现CCD摄像机(8)绕着横支撑管(6)旋转。
4.根据权利要求1所述的多移动机器人系统协作实验平台,其特征在于所述的移动机器人(12)由三层组成,由上至下依次为:色标板(26)、控制层(27)和底层(28);色标板(26)由基板(29)、主色标(31)和三个辅色标(30)组成,基板(29)的颜色为固定黑色;位于基板(29)中心的主色标(31)的颜色是固定蓝色;三个辅色标(30)的颜色为黄色和红色,不同移动机器人用三个辅色标(30)的不同颜色组合来区分; 所述的控制层(27)以控制电路板(34)为基础,在控制电路板(34)上通过单排座连有五个超声波测距传感器(33)和无线接收模块(32),五个超声波测距传感器(33)以夹角30°均衡布置在机器人前方; 所述的底层(28 )以机器人底板(35 )为基础并通过左码盘轮(37 )、右码盘轮(38 )和万向轮(36)支撑;所述左码盘轮(37)和右码盘轮(38)对称设置并且结构相同,其中左码盘轮(37 )与左轮直流电机(39 )相连,左轮直流电机(39 )通过电机卡帽(40 )、左轮码盘测速模块(43 )和螺栓(41)固定在机器人底板(35 )上,左码盘轮(37 )和左轮码盘测速模块(43 )配合进行测速;右码盘轮(38)与右轮直流电机(42)相连,并与右轮码盘测速模块(44)配合测速;机器人底板(35)上以夹角45°布置三个红外测距传感器(45)。
5.一种如权利I所述的多移动机器人系统协作实验平台的环境视觉分割方法,其特征在于采用如下步骤: (1)利用CCD摄像机(8)获取无任何物体的初始时刻背景图像Ib(O); (2)采集t时刻图像I(t),计算该帧图像的差分图像Id(t):Id(t)=I(t) -1b(O); (3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像; (4)对二值分割图像进行闭运算处理,消除障碍物区域的孔洞,以及平滑障碍物的边界;(5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;(6)根据环境分割从图像I(t)中剔除精确障碍物区域,得到t时刻的背景图像Ib(t); (7)根据t时刻的背景图像Ib(t)与初始背景图像Ib(O),通过光流法估算背景运动速度场,对背景图像Ib(O)进行补偿校正和更新; (8)返回到步骤(2)。
6.一种如权利I所述的多移动机器人系统协作实验平台的机器人视觉定位方法,其特征在于采用如下步骤: 1)利用CXD摄像机(8)获取移动机器人(12)运动空间的RGB彩色图像; 2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U,V分量; 3)基于U分量对色标板(26)中主色标(31)和黄色的辅色标(30)进行阈值分割; 4)基于V分量对色标板(26)中红色的辅色标(30)进行阈值分割; 5)搜索分割后三色色标的连通域,获得各色标的中心坐标; 6)根据各色标的中心坐标即可得到色标板(26)的坐标和方向角,进而实现移动机器人(12)的视觉定位。
【文档编号】G05D1/02GK103970134SQ201410152510
【公开日】2014年8月6日 申请日期:2014年4月16日 优先权日:2014年4月16日
【发明者】袁明新, 赵荣, 江亚峰, 夏善跃, 华晓彬, 申燚 申请人:江苏科技大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1