自主导航方法及系统和地图建模方法及系统的制作方法

文档序号:6304871阅读:270来源:国知局
自主导航方法及系统和地图建模方法及系统的制作方法
【专利摘要】本发明公开了一种无人飞行器的自主导航方法及系统和地图建模的方法及系统,该自主导航方法包括:控制无人飞行器起飞,并在各个采集时间点采集无人飞行器对应的场景的视频;获取在各个采集时间点对应的场景的视频中的特征点;根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹;根据无人飞行器的飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型;以及根据第一地图模型对无人飞行器进行自主导航。该自主导航方法利用在采集时间点采集无人飞行器对应的场景的视频,通过对视频的分析和识别进行自主导航,从而使得无人飞行器可以在室内场景中进行自主导航。
【专利说明】自主导航方法及系统和地图建模方法及系统
【技术领域】
[0001]本发明涉及导航【技术领域】,特别涉及到一种自主导航方法及系统和地图建模方法及系统。
【背景技术】
[0002]自主导航技术使用无人飞行器内置的传感器对该无人飞行器经过的场景进行侦测,并根据侦测结果完成无人飞行器在该场景的自主定位以及飞行轨迹分析等工作。因此,该技术被广泛地应用在军事领域及科研领域。如今,随着低成本传感器的推出以及嵌入式计算技术的提高,自主导航技术正在逐步由军事领域与科研领域向民用领域和商用领域扩展。但是,现有的自主导航技术在室内环境中的应用仍然存在以下两个问题。
[0003]首先,现有的无人飞行器主要使用GPS定位技术来完成自身在场景中的空间定位。但是,在复杂的室内场景中,由于受到建筑物遮挡等因素的影响,无人飞行器无法有效地使用GPS定位技术进行空间定位,这就使得无人飞行器在复杂的室内场景中无法有效地进行自主导航飞行。
[0004]其次,在复杂的室内场景中,自主导航技术需要精度更高的环境地图,而现有的SLAM算法只能构建误差小于整个环境尺度5%的稀疏地图模型。同时,能够用于构建误差小于整个环境尺度1%的高精度地图模型的激光扫描系统不适用与在室内飞行的无人飞行器,因此对于在室内环境中构建高精度地图模型的方法也需要进行改进。

【发明内容】

[0005]本发明旨在至少在一定程度上解决现有技术中的上述技术问题之一。
[0006]为此,本发明实施例目的是提出一种在室内环境下运行的无人飞行器的自主导航方法及系统和能够构建高精度地图模型的地图建模的方法及系统。
[0007]本发明实施例的第一方面提出一种无人飞行器的自主导航方法,该自主导航方法包括:控制无人飞行器起飞,并在各个采集时间点采集无人飞行器对应的场景的视频;获取在各个采集时间点对应的场景的视频中的特征点;根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹;根据无人飞行器的飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型;以及根据第一地图模型对无人飞行器进行自主导航。
[0008]其中,在本发明的该实施例中,利用在采集时间点采集无人飞行器对应的场景的视频,通过对视频的分析和识别进行自主导航,从而使得无人飞行器可以在室内场景中进行自主导航。
[0009]在本发明的一个具体实施例中,根据第一地图模型对无人飞行器进行自主导航具体包括:根据第一地图模型获取无人飞行器的当前位置;根据当前位置和无人飞行器的起飞位置获取无人飞行器在场景中未经过的区域;根据第一地图模型和无人飞行器在场景中未经过的区域生成目标位置;以及根据目标位置和第一地图模型生成导航路径,并根据导航路径控制无人飞行器飞行。
[0010]此外,在本发明的一个具体实施例中,根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹具体包括:将无人飞行器的起飞位置设为初始坐标;通过对比各个采集时间点对应的场景的视频中的特征点,以初始坐标为基准生成无人飞行器在各个采集时间点的各个位置坐标;以及根据各个位置坐标和初始坐标生成无人飞行器的飞行轨迹。
[0011]优选地,在本发明实施例的自主导航方法中,控制无人飞行器起飞具体包括:如果无人飞行器具有单目摄像机,则以人工控制方式控制无人飞行器起飞;如果无人飞行器具有双目摄像机,则以无人飞行器自主控制方式控制无人飞行器起飞。
[0012]本发明实施例的第二方面提出一种地图模型的建模方法,该建模方法包括:控制无人飞行器起飞;在各个采集时间点采集无人飞行器对应的场景的视频,并对场景进行激光扫描以获取在各个采集时间点对应的场景的激光扫描数据;记录在各个采集时间点的无人飞行器的飞行姿态参数;获取在各个采集时间点对应的场景的视频中的特征点;根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹;根据无人飞行器的飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型;以及根据无人飞行器的飞行姿态参数、第一地图模型和激光扫描数据生成第二地图模型。
[0013]其中,在本发明的该实施例中,通过控制无人飞行器自主飞行的方式获得场景的第一地图模型,并通过对场景进行激光扫描的方式并获得激光扫描数据,从而根据所述激光扫描数据和第一地图模型生成第二地图模型,从而建立高精度地图模型。
[0014]此外,在本发明的该实施例中,第二地图模型的精度高于第一地图模型的精度。
[0015]在本发明的一个具体实施例中,根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹具体包括:将无人飞行器的起飞位置设为初始坐标;通过对比各个采集时间点对应的场景的视频中的特征点,以初始坐标为基准生成无人飞行器在各个采集时间点的各个位置坐标;以及根据各个坐标位置和初始坐标生成无人飞行器的飞行轨迹。
[0016]优选地,在本发明实施例的建模方法中,控制无人飞行器起飞具体包括:如果无人飞行器具有单目摄像机,则以人工控制方式控制无人飞行器起飞;如果无人飞行器具有双目摄像机,则以无人飞行器自主控制方式控制无人飞行器起飞。
[0017]此外,在本发明的一个具体实施例中,根据飞行姿态参数、第一地图模型和激光扫描数据生成第二地图模型具体包括:将飞行姿态参数、第一地图模型与激光扫描数据发送给服务器;根据飞行姿态参数将第一地图模型与激光扫描数据进行拼接,并生成各个采集时间点对应的场景的点云数据;以及根据点云数据生成场景的第二地图模型。
[0018]本发明实施例的第三方面提出一种无人飞行器的自主导航系统,该自主导航系统包括:摄像机,该摄像机设置于无人飞行器之上,用于在各个采集时间点采集无人飞行器对应的场景的视频;第一建模装置,用于获取在各个采集时间点对应的场景的视频中的特征点,并根据特征点生成无人飞行器的飞行轨迹,以及根据飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型;以及自主导航装置,用于根据第一地图模型对无人飞行器进行自主导航。
[0019]其中,在本发明的该实施例中,利用在采集时间点采集无人飞行器对应的场景的视频,通过对视频的分析和识别进行自主导航,从而使得无人飞行器可以在室内场景中进行自主导航。
[0020]在本发明的一个具体实施例中,自主导航装置具体包括:当前位置获取模块,该当前位置获取模块用于根据第一地图模型获取无人飞行器的当前位置;目标位置生成模块,该目标位置生成模块用于根据无人飞行器的当前位置和无人飞行器的起飞位置获取无人飞行器在场景中未经过的区域,并且根据第一地图模型和无人飞行器在场景中未经过的区域生成目标位置;以及飞行控制模块,该飞行控制模块用于根据目标位置和第一地图模型生成导航路径,并根据导航路径控制无人飞行器飞行。
[0021]此外,在本发明的一个具体实施例中,第一建模装置具体包括:特征点获取模块,该特征点获取模块用于获取在各个采集时间点对应的场景的视频中的特征点;飞行轨迹生成模块,该飞行轨迹生成模块用于据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹;以及第一地图模型生成模块,该第一地图模型生成模块用于根据无人飞行器的飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型。
[0022]本发明实施例的第四方面提出一种地图模型的建模系统,该建模系统包括:无人飞行器、第一建模装置和服务器。其中,该无人飞行器包括:摄像机,该摄像机设置于无人飞行器之上,用于在各个采集时间点采集无人飞行器对应的场景的视频;激光扫描仪,该激光扫描仪设置于无人飞行器之上,用于在各个采集时间点对无人飞行器对应的场景进行激光扫描;飞行姿态记录装置,该飞行姿态记录装置设置于无人飞行器之上,用于记录在各个采集时间点的无人飞行器的飞行姿态参数。该第一建模装置连接于无人飞行器,用于获取在各个采集时间点对应的场景的视频中的特征点,并根据特征点生成无人飞行器的飞行轨迹,以及根据飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型。该服务器用于与无人飞行器进行通信,并根据无人飞行器的飞行姿态参数、第一地图模型和激光扫描数据生成第二地图模型。
[0023]其中,在本发明的该实施例中,通过控制无人飞行器自主飞行的方式获得场景的第一地图模型,并通过对场景进行激光扫描的方式并获得激光扫描数据,从而根据所述激光扫描数据和第一地图模型生成第二地图模型,从而建立高精度地图模型。
[0024]此外,在本发明的该实施例中,第一地图模型的精度低于第二地图模型的精度。
[0025]在本发明的一个具体实施例中,第一建模装置具体包括:特征点获取模块,该特征点获取模块用于获取在各个采集时间点对应的场景的视频中的特征点;飞行轨迹生成模块,该飞行轨迹生成模块用于据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹;以及第一地图模型生成模块,该第一地图模型生成模块用于根据无人飞行器的飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型。
[0026]此外,在本发明的一个具体实施例中,服务器具体包括:通讯模块和数据处理模块。其中,通讯模块,用于接收无人飞行器发送的飞行姿态参数、第一地图模型与激光扫描数据;数据处理模块,用于根据飞行姿态参数将第一地图模型与激光扫描数据进行拼接,并生成各个采集时间点对应的场景的点云数据,以及根据点云数据生成场景的第二地图模型。
【专利附图】

【附图说明】[0027]图1是根据本发明实施例的自主导航方法的流程图;
[0028]图2是根据本发明实施例的自主导航方法的根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹的流程图;
[0029]图3是根据本发明实施例的自主导航方法的根据第一地图模型对无人飞行器进行自主导航的流程图;
[0030]图4是根据本发明实施例的建模方法的流程图;
[0031]图5是根据本发明实施例的建模方法的根据飞行姿态参数、第一地图模型和激光扫描数据生成第二地图模型的流程图;
[0032]图6是根据本发明实施例的自主导航系统的结构示意图;以及
[0033]图7是根据本发明实施例的建模系统的结构示意图。
【具体实施方式】
[0034]下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
[0035]在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底” “内”、“外”、“顺时针”、“逆时针”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
[0036]此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
[0037]在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
[0038]在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。
[0039]下面参照附图来描述根据本发明实施例提出的无人飞行器的自主导航方法及系统和能够构建高精度地图模型的地图建模的方法及系统。
[0040]图1是根据本发明实施例的自主导航方法的流程图。如图1所示,本发明实施例的无人飞行器的自主导航方法包括:[0041 ] 步骤SI I,控制无人飞行器起飞,并在各个采集时间点采集无人飞行器对应的场景的视频。优选地,在本发明实施例中,如果无人飞行器具有单目摄像机,则可以人工控制方式控制无人飞行器起飞,并在控制无人飞行器起飞一段时间之后转入自主飞行模式,如果无人飞行器具有双目摄像机,则以无人飞行器可以自主飞行方式控制无人飞行器起飞。
[0042]步骤S12,获取在各个采集时间点对应的场景的视频中的特征点。在本发明的一个实施例中,可使用多种算法从各个采集时间点对应的场景的视频中提取特征点,例如,FAST (Features from Accelerated Segment Test,快速角点检测)算法、SIFT (ScaleInvariant Feature Transform,尺度不变的特征变换)算法。当然需要说明的是上述两个算法仅为具体的示例,还可采用其他算法获取特征点。例如在场景中如果包含墙壁、桌子等物体的话,可通过上述算法将这些物体作为特征点提取出来。
[0043]步骤S13,根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹。优选地,在本发明的实施例中,各个采集时间点采集无人飞行器对应的场景的视频的采集频率可以为20帧/秒至40帧/秒。
[0044]步骤S14,根据无人飞行器的飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型。在本发明的实施例中,使用了 SLAM (Simultaneous Localization andMapping,即时定位与地图构建)算法,将各个位置坐标和初始位置拼接成飞行轨迹。飞行轨迹中的各个点都有对应的场景的视频,而在不同的点对应的场景的视频中,场景中的物体会以不同的视角呈现于这些场景的视频中,因此可以根据场景中物体的不同视角的视频图像完整地将场景中的物体的三维模型合成出来,进而构成第一地图模型。
[0045]步骤S15,根据第一地图模型对无人飞行器进行自主导航。
[0046]在本发明的该实施例中,利用在采集时间点采集无人飞行器对应的场景的视频,通过对视频的分析和识别进行自主导航,从而使得无人飞行器可以在室内场景中进行自主导航。
[0047]图2是根据本发明实施例的自主导航方法的根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹的流程图。
[0048]如图2所示,步骤S13具体包括:
[0049]步骤S131,将无人飞行器的起飞位置设为初始坐标。在本发明的实施例中,无人飞行器的初始坐标为三维空间坐标,例如取值为(0,O, 0)。
[0050]步骤S132,通过对比各个采集时间点对应的场景的视频中的特征点,以初始坐标为基准生成无人飞行器在各个采集时间点的各个位置坐标。由于初始坐标为三维空间坐标,因此相应地,在飞行过程中对应于该初始坐标的各个位置坐标也是三维空间坐标。
[0051]同时,这些三维空间坐标会在对应的视频的各个画面中存在二维投影位置。通过将各个采集时间点对应的场景的视频中的特征点作为参考目标,并对比各个位置坐标的二维投影位置之间的位置变化,进而可以以初始坐标为基准生成无人飞行器在各个采集时间点的各个位置坐标。由于无人飞行器会飞过整个场景,因此可以由该飞行器的飞行轨迹中各个点的坐标得出该场景中的各个物体的坐标。
[0052]在本发明的一个实施例中,无人飞行器被放置到办公大厦内,无人飞行器上安装有双目摄像机,根据双目摄像机的视频拍摄结果,无人飞行器自动控制起飞,同时利用机载的双目摄像机拍摄办公大厦内的实时视频画面。从实时视频画面中提取出相应的特征点,例如该办公大厦的墙体、桌椅和楼梯的几何边角和纹理区块等,将无人飞行器的起飞位置设置为初始坐标(O,O, O),同时,将特征点作为参考点,对比不同时刻无人飞行器的位置,进而由初始坐标逐一得出无人飞行器经过的各个位置的三维坐标。自主导航装置根据无人飞行器的起飞位置和经过的各个位置,判断无人飞行器未经过的区域,并制定相应飞行路径以使无人飞行器飞过该办公大厦的所有区域,即,使得办公大厦内所有的位置均可以对应无人飞行器的飞行过程中的一个位置的三维坐标。因此,当无人飞行器飞完办公大厦的所有区域后,可获得各个采集时间点对应的场景的视频中的特征点的三维坐标。然后根据各个采集时间点对应的场景的视频中的特征点的三维坐标,可以生成该办公大厦的第一地图模型。
[0053]步骤S133,根据各个位置坐标和初始坐标生成无人飞行器的飞行轨迹。优选地,在本发明的实施例中,各个采集时间点对应的场景的视频中的特征点的三维坐标计算过程可使用SFM(Structure-from-Motion,由运动恢复结构)算法。图3是根据本发明实施例的自主导航方法的根据第一地图模型对无人飞行器进行自主导航的流程图。
[0054]如图3所示,步骤S15具体包括:
[0055]步骤S151,根据第一地图模型获取无人飞行器的当前位置。
[0056]步骤S152,根据当前位置和无人飞行器的起飞位置获取无人飞行器在场景中未经过的区域。
[0057]步骤S153,根据第一地图模型和无人飞行器在场景中未经过的区域生成目标位置。在本发明的实施例中,根据未经过的区域生成的目标位置具有这样的特点,即无人飞行器由当前位置飞往目标位置可以经过所有的未经过的区域。
[0058]步骤S154,根据目标位置和第一地图模型生成导航路径,并根据导航路径控制无人飞行器飞行。在本发明的实施例中,控制无人飞行器飞行时,根据本发明实施例的自主导航方法不采用与现有地图进行比较的方式,该无人飞行器利用实时生成的第一地图模型计算出自身周围的边界区域,进而选择不属于边界的可飞行区域继续飞行。
[0059]图4是根据本发明实施例的建模方法的流程图。如图4所示,本发明实施例的地图模型的建模方法包括:
[0060]步骤S21,控制无人飞行器起飞。在本发明的该实施例中,如果无人飞行器具有单目摄像机,则以人工控制方式控制无人飞行器起飞,并在控制无人飞行器起飞一段时间之后转入自主飞行模式,如果无人飞行器具有双目摄像机,则以无人飞行器可以自主控制方式控制无人飞行器起飞。
[0061]步骤S22,在各个采集时间点采集无人飞行器对应的场景的视频,并对场景进行激光扫描以获取在各个采集时间点对应的场景的激光扫描数据。优选地,在本发明的该实施例中,各个采集时间点采集无人飞行器对应的场景的视频的采集频率可以为30帧/秒。
[0062]步骤S23,记录在各个采集时间点的无人飞行器的飞行姿态参数;获取在各个采集时间点对应的场景的视频中的特征点。在本发明的该实施例中,无人飞行器的飞行姿态是无人飞行器相对于初始位置的欧式变换,该飞行姿态参数由三个旋转角和三个位移量组成。
[0063]步骤S24,根据各个采集时间点对应的场景的视频中的特征点生成无人飞行器的飞行轨迹。[0064]步骤S25,根据无人飞行器的飞行轨迹和各个采集时间点对应的场景的视频生成第一地图模型。
[0065]步骤S26,根据无人飞行器的飞行姿态参数、第一地图模型和激光扫描数据生成第二地图模型。其中,在本发明的该实施例中,第二地图模型的精度高于第一地图模型的精度。
[0066]如图2所示,在本发明的该实施例中,通过控制无人飞行器自主飞行的方式获得场景的第一地图模型,并通过对场景进行激光扫描的方式并获得激光扫描数据,从而根据所述激光扫描数据和第一地图模型生成第二地图模型,从而建立高精度地图模型。
[0067]图5是根据本发明实施例的建模方法的根据飞行姿态参数、第一地图模型和激光扫描数据生成第二地图模型的流程图。
[0068]如图5所示,在本发明的一个具体实施例中,步骤S26具体包括:
[0069]步骤S261,将飞行姿态参数、第一地图模型与激光扫描数据发送给服务器。
[0070]步骤S262,根据飞行姿态参数将第一地图模型与激光扫描数据进行拼接,并生成各个采集时间点对应的场景的点云数据。优选地,在本发明的实施例中,在根据飞行姿态参数将第一地图模型与激光扫描数据进行拼接时,可先使用ICP算法计算出不同数据帧之间的相对位置关系,然后通过Pose Graph优化算法完成整体的拼接和优化。此外,在本发明的该实施例中,各个采集时间点对应的场景的点云数据包含空间点的三维坐标,通过对摄像机图像进行视角映射,该点云数据还可包含空间点的颜色信息。
[0071]步骤S263,根据点云数据生成场景的第二地图模型。在本发明的实施例中,通过点云三角化算法可以从点云数据计算出该场景内的三维表面网格,该三维表面网格本身即包含该场景内的三维几何结构和物体间的相对位置信息,即可作为该场景的高精度地图模型。
[0072]图6是根据本发明实施例的自主导航系统的结构示意图。
[0073]如图6所示,本发明实施例的无人飞行器10的自主导航系统包括:摄像机11,该摄像机11设置于无人飞行器10之上,用于在各个采集时间点采集无人飞行器10对应的场景的视频a ;第一建模装置20,用于获取在各个采集时间点对应的场景的视频a中的特征点b,并根据特征点b生成无人飞行器10的飞行轨迹C,以及根据飞行轨迹c和各个采集时间点对应的场景的视频a生成第一地图模型d ;以及自主导航装置30,用于根据第一地图模型d对无人飞行器10进行自主导航。
[0074]其中,在本发明的该实施例中,利用在采集时间点采集无人飞行器10对应的场景的视频a,通过对视频a的分析和识别进行自主导航,从而使得无人飞行器10可以在室内场景中进行自主导航。
[0075]在本发明的一个具体实施例中,自主导航装置30具体包括:当前位置获取模块31,该当前位置获取模块31用于根据第一地图模型d获取无人飞行器10的当前位置;目标位置生成模块32,该目标位置生成模块32用于根据无人飞行器10的当前位置和无人飞行器10的起飞位置获取无人飞行器10在场景中未经过的区域,并且根据第一地图模型d和无人飞行器10在场景中未经过的区域生成目标位置;以及飞行控制模块33,该飞行控制模块33用于根据目标位置和第一地图模型d生成导航路径,并根据导航路径控制无人飞行器10飞行。[0076]此外,在本发明的一个具体实施例中,第一建模装置20具体包括:特征点获取模块21,该特征点获取模块21用于获取在各个采集时间点对应的场景的视频a中的特征点b ;飞行轨迹生成模块22,该飞行轨迹生成模块22用于据各个采集时间点对应的场景的视频a中的特征点b生成无人飞行器10的飞行轨迹c ;以及第一地图模型生成模块23,该第一地图模型生成模块23用于根据无人飞行器10的飞行轨迹c和各个采集时间点对应的场景的视频a生成第一地图模型d。
[0077]图7是根据本发明实施例的建模系统的结构示意图。
[0078]如图7所示,根据本发明实施例的地图模型的建模系统包括:无人飞行器10、第一建模装置20和服务器40。其中,该无人飞行器10包括:摄像机11,该摄像机11设置于无人飞行器10之上,用于在各个采集时间点采集无人飞行器10对应的场景的视频a ;激光扫描仪12,该激光扫描仪12设置于无人飞行器10之上,用于在各个采集时间点对无人飞行器10对应的场景进行激光扫描;飞行姿态记录装置13,该飞行姿态记录装置13设置于无人飞行器10之上,用于记录在各个采集时间点的无人飞行器10的飞行姿态参数h。该第一建模装置20连接于无人飞行器10,用于获取在各个采集时间点对应的场景的视频a中的特征点b,并根据特征点b生成无人飞行器10的飞行轨迹C,以及根据飞行轨迹c和各个采集时间点对应的场景的视频a生成第一地图模型d。该服务器40用于与无人飞行器10进行通信,并根据无人飞行器10的飞行姿态参数h、第一地图模型d和激光扫描数据f生成第二地图模型e。
[0079]其中,在本发明的该实施例中,通过控制无人飞行器10自主飞行的方式获得场景的第一地图模型山并通过对场景进行激光扫描的方式并获得激光扫描数据f,从而根据所述激光扫描数据f和第一地图模型d生成第二地图模型e,从而建立高精度地图模型。
[0080]此外,在本发明的该实施例中,第一地图模型d的精度低于第二地图模型e的精度。
[0081 ] 在本发明的一个具体实施例中,第一建模装置20具体包括:特征点b获取模块,该特征点b获取模块用于获取在各个采集时间点对应的场景的视频a中的特征点b ;飞行轨迹c生成模块,该飞行轨迹c生成模块用于据各个采集时间点对应的场景的视频a中的特征点b生成无人飞行器10的飞行轨迹c ;以及第一地图模型d生成模块,该第一地图模型d生成模块用于根据无人飞行器10的飞行轨迹c和各个采集时间点对应的场景的视频a生成第一地图模型d。
[0082]此外,在本发明的一个具体实施例中,服务器40具体包括:通讯模块41和数据处理模块42。其中,通讯模块41,用于接收无人飞行器10发送的飞行姿态参数h、第一地图模型d与激光扫描数据f ;数据处理模块42,用于根据飞行姿态参数h将第一地图模型d与激光扫描数据f进行拼接,并生成各个采集时间点对应的场景的点云数据,以及根据点云数据生成场景的第二地图模型e。
[0083]在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行接合和组合。
[0084]尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
【权利要求】
1.一种无人飞行器的自主导航方法,其特征在于,包括: 控制无人飞行器起飞,并在各个采集时间点采集所述无人飞行器对应的场景的视频; 获取在所述各个采集时间点对应的所述场景的所述视频中的特征点; 根据所述各个采集时间点对应的所述场景的所述视频中的所述特征点生成所述无人飞行器的飞行轨迹; 根据所述无人飞行器的所述飞行轨迹和所述各个采集时间点对应的所述场景的所述视频生成第一地图模型;以及 根据所述第一地图模型对所述无人飞行器进行自主导航。
2.如权利要求1所述的方法,其特征在于,所述根据所述第一地图模型对所述无人飞行器进行自主导航具体包括: 根据所述第一地图模型获取所述无人飞行器的当前位置; 根据所述当前位置和所述无人飞行器的起飞位置获取所述无人飞行器在所述场景中未经过的区域; 根据所述第一地图模型和所述无人飞行器在所述场景中未经过的所述区域生成目标位置;以及 根据所述目标位置和所述第一地图模型生成导航路径,并根据所述导航路径控制所述无人飞行器飞行。
3.如权利要求1所述的方法,其特征在于,所述根据所述各个采集时间点对应的所述场景的所述视频中的所述特征点生成所述无人飞行器的飞行轨迹具体包括: 将所述无人飞行器的所述起飞位置设为初始坐标; 通过对比所述各个采集时间点对应的所述场景的所述视频中的所述特征点,以所述初始坐标为基准生成所述无人飞行器在所述各个采集时间点的各个位置坐标;以及根据所述各个位置坐标和所述初始坐标生成所述无人飞行器的所述飞行轨迹。
4.如权利要求1所述的方法,其特征在于,所述控制无人飞行器起飞具体包括: 如果所述无人飞行器具有单目摄像机,则以人工控制方式控制所述无人飞行器起飞;如果所述无人飞行器具有双目摄像机,则以无人飞行器自主控制方式控制所述无人飞行器起飞。
5.一种地图模型的建模方法,其特征在于,包括: 控制无人飞行器起飞; 在各个采集时间点采集所述无人飞行器对应的场景的视频,并对所述场景进行激光扫描以获取在所述各个采集时间点对应的所述场景的激光扫描数据; 记录在所述各个采集时间点的所述无人飞行器的飞行姿态参数; 获取在所述各个采集时间点对应的所述场景的所述视频中的特征点; 根据所述各个采集时间点对应的所述场景的所述视频中的所述特征点生成所述无人飞行器的飞行轨迹; 根据所述无人飞行器的所述飞行轨迹和所述各个采集时间点对应的所述场景的所述视频生成第一地图模型;以及 根据所述无人飞行器的所述飞行姿态参数、所述第一地图模型和所述激光扫描数据生成第二地图模型。
6.如权利要求5所述的方法,其特征在于,所述第二地图模型的精度高于所述第一地图模型的精度。
7.如权利要求5所述的方法,其特征在于,所述根据所述各个采集时间点对应的所述场景的所述视频中的所述特征点生成所述无人飞行器的飞行轨迹具体包括: 将所述无人飞行器的所述起飞位置设为初始坐标; 通过对比所述各个采集时间点对应的所述场景的所述视频中的所述特征点,以所述初始坐标为基准生成所述无人飞行器在所述各个采集时间点的各个位置坐标;以及根据所述各个坐标位置和所述初始坐标生成所述无人飞行器的所述飞行轨迹。
8.如权利要求5所述 的方法,其特征在于,所述控制无人飞行器起飞具体包括: 如果所述无人飞行器具有单目摄像机,则以人工控制方式控制所述无人飞行器起飞;如果所述无人飞行器具有双目摄像机,则以无人飞行器自主控制方式控制所述无人飞行器起飞。
9.如权利要求5所述的方法,其特征在于,所述根据所述飞行姿态参数、所述第一地图模型和所述激光扫描数据生成第二地图模型具体包括: 将所述飞行姿态参数、所述第一地图模型与所述激光扫描数据发送给服务器; 根据所述飞行姿态参数将所述第一地图模型与所述激光扫描数据进行拼接,并生成所述各个采集时间点对应的所述场景的点云数据;以及根据所述点云数据生成所述场景的第二地图模型。
10.一种无人飞行器的自主导航系统,其特征在于,包括: 摄像机,所述摄像机设置于所述无人飞行器之上,用于在各个采集时间点采集所述无人飞行器对应的场景的视频; 第一建模装置,用于获取所述在各个采集时间点对应的所述场景的所述视频中的特征点,并根据所述特征点生成所述无人飞行器的飞行轨迹,以及根据所述飞行轨迹和所述各个采集时间点对应的所述场景的所述视频生成第一地图模型;以及 自主导航装置,用于根据所述第一地图模型对所述无人飞行器进行自主导航。
11.如权利要求10所述的系统,其特征在于,所述自主导航装置具体包括: 当前位置获取模块,所述当前位置获取模块用于根据所述第一地图模型获取所述无人飞行器的当前位置; 目标位置生成模块,所述目标位置生成模块用于根据所述无人飞行器的当前位置和所述无人飞行器的起飞位置获取所述无人飞行器在所述场景中未经过的区域,并且根据所述第一地图模型和所述无人飞行器在所述场景中未经过的区域生成目标位置;以及 飞行控制模块,所述飞行控制模块用于根据所述目标位置和所述第一地图模型生成导航路径,并根据所述导航路径控制所述无人飞行器飞行。
12.如权利要求10所述的系统,其特征在于,所述第一建模装置具体包括: 特征点获取模块,所述特征点获取模块用于获取在所述各个采集时间点对应的所述场景的所述视频中的所述特征点; 飞行轨迹生成模块,所述飞行轨迹生成模块用于据所述各个采集时间点对应的所述场景的所述视频中的所述特征点生成所述无人飞行器的飞行轨迹;以及 第一地图模型生成模块,所述第一地图模型生成模块用于根据所述无人飞行器的所述飞行轨迹和所述各个采集时间点对应的所述场景的所述视频生成所述第一地图模型。
13.—种地图模型的建模系统,其特征在于,包括: 无人飞行器,所述无人飞行器包括: 摄像机,所述摄像机设置于所述无人飞行器之上,用于在各个采集时间点采集所述无人飞行器对应的场景的视频; 激光扫描仪,所述激光扫描仪设置于所述无人飞行器之上,用于在所述各个采集时间点对所述无人飞行器对 应的所述场景进行激光扫描; 飞行姿态记录装置,所述飞行姿态记录装置设置于所述无人飞行器之上,用于记录在所述各个采集时间点的所述无人飞行器的飞行姿态参数; 第一建模装置,所述第一建模装置连接于所述无人飞行器,用于获取所述在各个采集时间点对应的所述场景的所述视频中的特征点,并根据所述特征点生成所述无人飞行器的飞行轨迹,以及根据所述飞行轨迹和所述各个采集时间点对应的所述场景的所述视频生成第一地图模型;以及 服务器,所述服务器用于与所述无人飞行器进行通信,并根据所述无人飞行器的所述飞行姿态参数、所述第一地图模型和所述激光扫描数据生成第二地图模型。
14.如权利要求13所述的系统,其特征在于,所述第一地图模型的精度低于所述第二地图模型的精度。
15.如权利要求13所述的系统,其特征在于,所述第一建模装置具体包括: 特征点获取模块,所述特征点获取模块用于获取在所述各个采集时间点对应的所述场景的所述视频中的所述特征点; 飞行轨迹生成模块,所述飞行轨迹生成模块用于据所述各个采集时间点对应的所述场景的所述视频中的所述特征点生成所述无人飞行器的飞行轨迹;以及 第一地图模型生成模块,所述第一地图模型生成模块用于根据所述无人飞行器的所述飞行轨迹和所述各个采集时间点对应的所述场景的所述视频生成所述第一地图模型。
16.如权利要求13所述的系统,其特征在于,所述服务器具体包括:通讯模块和数据处理模块,其中 所述通讯模块,用于接收无人飞行器发送的所述飞行姿态参数、所述第一地图模型与所述激光扫描数据; 所述数据处理模块,用于根据所述飞行姿态参数将所述第一地图模型与所述激光扫描数据进行拼接,并生成所述各个采集时间点对应的所述场景的点云数据,以及根据所述点云数据生成所述场景的第二地图模型。
【文档编号】G05D1/10GK103941748SQ201410177990
【公开日】2014年7月23日 申请日期:2014年4月29日 优先权日:2014年4月29日
【发明者】倪凯, 王延可, 王亮, 陶吉, 余凯 申请人:百度在线网络技术(北京)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1