无人机影像定位定姿方法及无人机与流程

文档序号:15839980发布日期:2018-11-07 08:19阅读:571来源:国知局
无人机影像定位定姿方法及无人机与流程

本发明涉及无人机技术领域,尤其涉及一种无人机影像定位定姿方法及无人机。

背景技术

利用无人机快速获取感兴趣区域的影像已逐渐成为当前航空摄影测量发展的一个重要分支。与传统航空摄影测量影像相比,无人机获取的影像具有高空间分辨率、高时间分辨率等优点。

但是,受限于无人机系统的安全性及负载能力,无人机上通常搭载的是较廉价的非量测型相机,该类型相机具有如下特点:(1)像幅小,一般不超过一亿像素,因此影像数量特别巨大;(2)畸变量大,影像边缘处的畸变量可达200个像素以上,需要高次方程才能很好的表达;(3)一致性差,同型号的不同相机的畸变规律不同,难以用一套参数来适配同一个型号的所有相机。为此,海量无人机影像处理往往存在效率低下,畸变难以正确改正及处理结果不稳定等问题。



技术实现要素:

有鉴于此,本申请实施例提供一种无人机影像定位定姿方法及无人机,优化现有检校算法,减少操作员的干预,增强检校结果的可靠性。

本申请实施例第一方面提供了一种无人机影像定位定姿方法,包括:

获取影像和机载定姿定位系统数据;

使用相机内参对所述影像进行畸变纠正,得到无畸变影像,所述相机内参经过预置的检校方式进行高精度检校得到;

通过第一特征检测算法,提取所述无畸变影像的第一特征点及第一特征点的特征描述;

以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;

根据所述第一同名点信息和所述相机内参,利用随机抽样一致算法计算出所述第一影像和所述第二影像的相对位置和姿态;

通过角点检测算法提取所述无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个所述第二特征点的特征描述;

以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息;

利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性,其中,所述德洛内三角网的每个顶点为每张所述影像,顶点坐标为所述机载定姿定位系统数据的经纬度值,每条边具有唯一的权值;

将所述德洛内三角网,通过预设方式的区域增长分割为多个子图;

将每个所述子图进行增量式重建,得到所述影像的位置、姿态和稀疏的三维点云;

将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。

本申请实施例第二方面提供了一种无人机,包括:

相机、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现本申请实施例第一方面提供的无人机影像定位定姿方法。

本申请各实施例,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。

附图说明

图1为本申请实施例提供的无人机影像定位定姿方法的流程图;

图2为本申请实施例提供的无人机的硬件结构示意图;

图3为本申请实施例提供的无人机影像定位定姿装置的结构示意图。

具体实施方式

为更进一步阐述本申请为实现预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本申请的具体实施方式、结构、特征及其功效,详细说明如后。

请参阅图1,图1为本发明提供的无人机影像定位定姿方法的流程示意图。该方法包括:

s101、对无人机搭载的相机进行高精度检校,得到相机内参;

无人机在出厂前需对其搭载的相机按照预设的检校方式进行高精度检校,得到精确的相机内参,包括焦距、像主点和畸变参数。

具体地,对该相机进行高精度检校,得到相机内参可包括:

设置如下畸变模型公式:

δx=(x-x0)(k1r2+k2r4+k3r6)+p1|r2+2(x-x0)2]+2p2(x-x0)(y-y0)+α(x-x0)+β(y-y0)δy=(y-y0)(k1r2+k2r4+k3r6)+p2|r2+2(y-y0)2]+2p1(x-x0)(y-y0)

其中:δx,δy为像点改正值;x,y为像方坐标系下的像点坐标;x0,y0为像主点,k1、k2、k3、p1、p2、a、b为畸变参数。

进一步地,设置如下共线方程:

其中,f为焦距,x0,y0为像主点,a1、a2、a3、b1、b2、b3、c1、c2、c3为旋转矩阵中的元素,xs、ys、zs为线元素,x、y、z为已知物方点的三维坐标,x、y为对应的像方点坐标;

其中,s为自然数。

进一步地,相机的高精度检校需要在已经测量控制点坐标的实验场内进行,控制点坐标是人工实测的,具有非常高的测量精度,因此可以保证该相机内参是精确的。根据共线方程列出误差方程,通过最小二乘法计算出相机的精确的相机内参,该相机内参包括焦距、像主点和畸变参数。

具体地,令控制点为{p1…pn},控制点对应的像点则为{p1…pn},其中pi=(xi,yi,zi),pi=(xi,yi);其中,n和i均为自然数。

将相机的标称焦距作为f的初值,像主点x0,y0和畸变参数k1、k2、k3、p1、p2、a、b初始化为零;

根据前述共线方程列出每个控制点的方程,由于像主点和畸变参数均为零,共线方程可简化为如下:

利用直接线性变换(dlt,directlineartransformation)算法计算出旋转矩阵中的元素a1、a2、a3、b1、b2、b3、c1、c2、c3及线元素xs、ys、zs。其中,i和s均为自然数。

列出每个控制点误差方程如下:

其中,δxi,δyi为xi和yi对应的像点改正值。

高精度检校过程即寻找最小化目标函数的参数,如下所示:

利用最小二乘法对上述最小化目标函数进行求解,先将dlt算法计算得到的结果作为最小二乘法的初值,再迭代计算得到相机的精确的内参。

另外,当相机曝光数量每达到10万次或使用过程中有剧烈碰撞时,均需要返厂进行高精度检校。

s102、获取影像和机载定姿定位系统数据;

无人机进行正常作业,获取影像和机载定姿定位系统数据(pos,positioningandorientationsystem),影像和机载pos数据统称为飞行数据。

其中每张影像对应一个机载pos数据,此机载pos数据为无人机上的传感器记录的摄影时相机在空中的位置和姿态,其中位置即为经纬度。

需要说明的是,受限于传感器的测量精度,此位置和姿态精度一般都很差,不能直接使用。

s103、使用该相机内参对该影像进行畸变纠正,得到无畸变影像;

利用步骤s101中的精确的相机内参对飞行数据中的影像进行畸变纠正,得到无畸变影像。

具体地,针对飞行数据中的每张影像,可以得到拍摄该影像的相机所对应的精确的相机内参,包括焦距、像主点和畸变参数,相机内参作为已知量,可以根据根据步骤s101中的该畸变模型公式得到δx、δy,δx和δy分别是x、y的像点改正值;

令(x,y)和(xu,yu)分别表示畸变纠正前后对应的像素坐标,则

畸变纠正是从(xu,yu)计算出对应的(x,y)的过程,根据无畸变影像的每个像素位置(行列)计算对应的原始影像上的像素位置。对上述公式进行调整,得到改正公式:

其中(δxu,δyu)为(xu,yu)对应的像点改正值,基于步骤s101中的该畸变模型公式计算得到;其中,u为自然数。

进一步地,利用上述改正公式,可以得到无畸变影像上每个(xu,yu)对应的(x,y),一般情况下(x,y)为非整数值,采用双线性内插计算出对应的颜色值,该颜色值为rgb(即rgb颜色模式中红、绿、蓝通道)值,从而得到无畸变影像。

s104、通过第一特征检测算法,提取该无畸变影像的第一特征点及第一特征点的特征描述;

第一特征检测算优选orb(orientedfastandrotatedbrief)算法,orb算法可快速提取无畸变影像特征点及其特征描述。orb算法分为两部分,分别是特征点提取和特征点描述。特征提取是由fast(featuresfromacceleratedsegmenttest)算法发展来的,特征点描述是根据brief(binaryrobustindependentelementaryfeatures)特征描述算法改进的。orb特征是将fast特征点的检测方法与brief特征描述子结合起来,并在它们原来的基础上做了改进与优化。

s105、以机载定姿定位系统数据为空间约束,对提取的第一特征点和第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的第一同名点信息;

以步骤s102中的机载pos数据为空间约束,对步骤s104中提取的第一特征点及第一特征点的特征描述进行基于距离的匹配,得到两两影像间的第一同名点信息,此步骤为粗匹配过程。

同名点是地面上同一个点在不同影像上成的像点。

具体地,对所有影像构建德洛内(delaunay)三角网,delaunay三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载pos数据的经纬度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数。

进一步地,令匹配影像为a,待匹配的影像集合为b,集合b为{b1,b2,...bn},其中集合b中的影像与a的图距离均小于预设距离,该预设距离例如20,且已根据图距离排序;

匹配失败次数用nfail表示,令nfail=0,逐一将a与集合b中的影像bi进行匹配,如果a与bi的同名点数大于24,则将nfail置为零,否则将nfail加一,即执行nfail=nfail+1,当nfail大于预设数值时,例如12,匹配影像a的匹配过程结束,得到两两影像间的第一同名点的信息。

s106、根据该第一同名点信息和该相机内参,利用随机抽样一致算法计算出该第一影像和第二影像的相对位置和姿态;

利用两两影像间的同名点信息及精确的相机内参,通过随机抽样一致(ransac,randomsampleconsensus)算法计算出两两影像的相对位置和姿态,也即本质矩阵(essentialmatrix),此步骤为相对定向过程。

s107、通过角点检测算法提取该无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法获取每个第二特征点的特征描述;

具体地,利用harris算法提取该无畸变影像的角点,将提取的各角点作为特征点,提取的角点可以达到子像素级,相对于步骤s104中的orb算法提取的特征点精度更高。再利用surf(speededuprobustfeatures)算法计算每个角点作为的特征点的特征描述。

s108、以第一影像和第二影像的相对位置和姿态为核线约束,对第二特征点和第二特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的第二同名点的信息;

即,以该本质矩阵为核线约束,对步骤s107中提取的第二特征点和第二特征点的特征描述进行基于距离的匹配,得到两两影像间的第二同名点的信息,此步骤为高精度匹配过程。

具体地,如果影像a和影像b在粗匹配过程中有同名点,则对影像a和影像b进行精匹配,令影像a和影像b的特征点分别为{f0…fi…fn}和{g0…gj…gm},该特征点对应的特征描述分别为{a0…ai…an}和{b0…bj…bm},其中fi和gj为2维向量,ai和bj为256位的二进制串,fi与ai一一对应,gj与bj一一对应;

进一步地,利用该本质矩阵对特征点{f0…fi…fn}和{g0…gj…gm}进行核线对齐,对齐后的特征点为{f'0…f'i…f'n}和{g'0…g'j…g'm},从对齐后的第一影像特征点{f'0…f'i…f'n}中,任取第一影像的特征点一个特征描述ai,计算与其y方向差异小于预设数量像素,例如5个像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离为du和dv(du≤dv),如果du/dv小于预设比例,例如du/dv<0.8,则称gu为fi的最佳匹配特征;

进一步地,将影像a和影像b互换,重复上述精匹配过程,具体地,从对齐后的第二影像特征点{g'0…g'j…g'm}中,任取第二影像的特征点的一个特征描述bi,计算与其y方向差异小于预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv,其中,du≤dv,若du/dv小于所述预设比例,则称第一影像中的特征点gi为第二影像中的特征点fu的最佳匹配特征;先通过y方向约束,即在y方向计算选取范围,再对范围内的数据进行海明距离判断,可以提高特征的匹配速度。需要说明的是,前述核线对齐后的特征点是用于实现上述y方向约束的快速匹配的,匹配关系与该本质矩阵对特征点是一致的,最终的结果还是需要得到该本质矩阵对特征点的匹配关系。

如果fi与gj互为最佳匹配特征,则fi与gj为同名点,fi与gj的同名点信息为第二同名点信息。

其中,i、n、j、m均为自然数,并且,i<n;j<m;u、v、w均为自然数,并且,u<v<w。

s109、利用影像和机载定姿定位系统数据构建德洛内三角网,获取该德洛内三角网中第一影像和第二影像之间的边的权值,以得到第一影像和第二影像的相关性;

利用机载pos数据构建delaunay三角网,delaunay三角网的每个顶点代表每张影像,顶点坐标为对应影像的机载pos数据的经纬度值,每条边具有唯一的权值,该权值为此边的两个端点对应的两张影像的相关性r。

具体计算方式为:待计算相关性的影像为第一影像a和第二影像b,步骤s108中精匹配得到的同名点集合为{a0…ai…an}和{b0…bi…bn},其中ai和bi分别为第一影像a和第二影像b对应的同名点,第一影像a和第二影像b的本质矩阵为e,根据本质矩阵e和精匹配得到的该同名点坐标,也即该第二同名点的信息,通过前方交会法计算出该同名点的交会角。统计所有范围在预设角度范围内,例如(15°,75°)以内的该交会角数量nangle,则第一影像a和第二影像b的相关性r定义如下:

其中,e为自然常数e。

s110、从该德洛内三角网中,通过预设方式的区域增长得到各个子图;

设子图的最多顶点数为nmaxv,以贪心准则进行区域增长,当区域增长的子图顶点数量达到nmaxv时,则将该子图保存,然后开始新的区域增长,直到每个顶点都属于唯一子图。

具体地,遍历该delaunay三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和。选取权值最高的三角形作为起点,将该三角形加入到当前子图v中,采用贪心准则进行区域增长,即每次将权重最高的邻接三角形加入到当前子图v中,直到子图v的顶点数量到达nmaxv或三角网t中所有三角形均已处理完毕。进一步,将子图v从三角网t中剔除,如果三角网t不为空,则继续执行上述步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图v中,采用贪心准则进行区域增长,即每次将权重最高的邻接三角形加入到当前子图v中,直到该德洛内三角网为空,则子图分割完毕。

s111、针对每个子图进行增量式重建,得到影像的位置、姿态和稀疏的三维点云;

针对每个分割后的子图,进行增量式重建(incrementalstructurefrommotion),此过程不对相机的内参进行优化,只是得到影像的外方位元素和稀疏的三维点云,其中,外方位元素包括影像的位置和姿态,稀疏的三维点云为步骤s101中共线方程的x、y、z构成的,稀疏的三维点云与位置和姿态是相关的,在优化位置和姿态的同时,稀疏三维点云也会随之进行调整。

s112、按照预置方式合并子图,将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。

按照预置方式对子图进行合并,具体是将子图与邻近的顶点数量最少的子图合并,例如,令{v0,…vi…vn}为分割后的子图,如果一个子图vi的顶点数量小于预设顶点数量,例如当前子图的顶点数量小于32,则将子图与邻近的顶点数量最少的子图合并。

进行全局式重建(globaloptimizationstructurefrommotion),此过程先优化影像的外方位元素(即位置和姿态)及稀疏的三维点云,再将相机的内参加入到重建过程中一起优化,进而得到影像的准确的位置和姿态。

本发明实施例中,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。

图2为本申请实施例提供的无人机硬件结构示意图。该无人机包括:相机201、存储器202、处理器203及存储在存储器202上并可在处理器203上运行的计算机程序,处理器203执行该计算机程序时,实现前述图1所示实施例中描述的无人机影像定位定姿方法。

上述相机201、存储器202、处理器203,通过总线204连接。

存储器202可以是高速随机存取记忆体(ram,randomaccessmemory)存储器,也可为非不稳定的存储器(non-volatilememory),例如磁盘存储器。存储器202用于存储一组可执行程序代码,处理器203与存储器202耦合。

进一步地,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述各实施例中的无人机中。该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现前述图1所示实施例中描述的无人机影像定位定姿方法。进一步地,该计算机可存储介质还可以是u盘、移动硬盘、只读存储器(rom,read-onlymemory)、ram、磁碟或者光盘等各种可以存储程序代码的介质。

图3为本申请实施例提供的无人机影像定位定姿装置的结构示意图。本实施例提供的无人机影像定位定姿装置是上述图1所示实施例中的无人机影像定位定姿方法的执行主体,可运行于无人机中。该无人机影像定位定姿装置主要包括:

获取模块301,用于获取影像和机载定姿定位系统数据;

畸变纠正模块302,用于使用相机内参对该影像进行畸变纠正,得到无畸变影像,该相机内参经过预置的检校方式进行高精度检校得到;

第一提取模块303,用于通过第一特征检测算法,提取该无畸变影像的第一特征点及第一特征点的特征描述;

第一匹配模块304,用于以该机载定姿定位系统数据为空间约束,对该第一特征点和该第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;

计算模块305,用于根据该第一同名点信息和该相机内参,利用随机抽样一致算法计算出该第一影像和该第二影像的相对位置和姿态;

第二提取模块306,用于通过角点检测算法提取该无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个该第二特征点的特征描述;

第二匹配模块307,用于以该第一影像和该第二影像的相对位置和姿态为核线约束,对该第二特征点和该第二特征点的特征描述进行基于距离的匹配,得到该第一影像和该第二影像的第二同名点的信息;

相关性确认模块308,用于利用该影像和该机载定姿定位系统数据构建德洛内三角网,获取该德洛内三角网中该第一影像和该第二影像之间的边的权值,以得到该第一影像和该第二影像的相关性,其中,该德洛内三角网的每个顶点为每张该影像,顶点坐标为该机载定姿定位系统数据的经纬度值,每条边具有唯一的权值;

分割模块309,用于将该德洛内三角网,通过预设方式的区域增长分割为多个子图;

第一重建模块310,用于将每个该子图进行增量式重建,得到该影像的位置、姿态和稀疏的三维点云;

合并模块311,用于按照预置方式合并各该子图;

第二重建模块312,用于将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。

进一步地,畸变纠正模块302,还具体用于从每张该影像,得到该相机内参,该相机内参包括焦距、像主点和畸变参数;

根据该相机内参,调整该影像畸变纠正前后的坐标改正公式;

根据该影像进行畸变纠正前的坐标和该改正公式,计算得到该影像的畸变纠正后的坐标,并采用双线性内插计算出该畸变纠正后的坐标对应的颜色值,以得到该影像对应的无畸变影像。

第一匹配模块304,还具体用于对所有影像构建德洛内三角网,该德洛内三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载定姿定位系统数据的经纬度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数;

令匹配影像为a,待匹配的影像集合为b,集合b为{b1,b2,...bn},其中集合b中的影像与a的图距离均小于预设距离,且已根据图距离排序;u为自然数

匹配失败的次数用nfail表示,令nfail=0,逐一将a与集合b中的影像bi进行匹配,若a与bi的同名点数大于预设数量,则将nfail置为零,若a与bi的同名点数小于等于该预设数量,则将nfail加一;i为自然数,且i<n。

当nfail大于预设数值时,匹配结束,得到该第一影像和该第二影像间的第一同名点的信息。

第二匹配模块307,还具体用于令该第一影像的特征点为{f0…fi…fn},对应的特征点的特征描述为{a0…ai…an},该第二影像的特征点为{g0…gj…gm},对应的特征描述为{b0…bj…bm},其中,fi和gj为2维向量,ai和bj为256位的二进制串,fi与ai一一对应,gj与bj一一对应;i、n、j、m为自然数,i<n,j<m。

利用该第一影像和该第二影像的相对位置和姿态,对该第一影像的特征点和第二影像的特征点进行核线对齐,对齐后的该第一影像的特征点为{f'0…f'i…f'n},对齐后的该第二影像的特征点为{g'0…g'j…g'm};

从对齐后的第一影像特征点{f'0…f'i…f'n}中,任取该第一影像的特征点的一个特征描述ai,计算与其y方向差异小于预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,du≤dv,若du/dv小于预设比例,则称该第二影像中的特征点gu为该第一影像中的特征点fi的最佳匹配特征;

从对齐后的第二影像特征点{g'0…g'j…g'm}中,任取该第二影像的特征点的一个特征描述bi,计算与其y方向差异小于该预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,du≤dv,若du/dv小于该预设比例,则称该第一影像中的特征点gi为该第二影像中的特征点fu的最佳匹配特征;

确认互为最佳匹配特征的第一影像中的特征点fi和该第二影像中的特征点gj为同名点,对应的同名点信息为该第二同名点信息。

其中,i、n、j、m均为自然数,并且,i<n;j<m;u、v、w均为自然数,并且,u<v<w。

相关性确认模块308,还具体用于令待计算相关性的第一影像的同名点集合为{a0…ai…an},第二影像的同名点集合为{b0…bi…bn},其中,其中ai和bi分别为第一影像和第二影像对应的同名点;

根据该第一影像和该第二影像的相对位置和姿态,以及该第一影像和该第二影像对应的同名点坐标,通过前方交会法计算出该同名点的交会角;

统计所有在预设角度范围之内的该交会角的数量nangle,则该第一影像和该第二影像的相关性r的计算公式如下:

其中,e为自然常数e。

分割模块309,还具体用于遍历该德洛内三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和;选取权值最高的三角形作为起点,将该权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕;将当前子图从该德洛内三角网中剔除,如果该德洛内三角网不为空,则继续执行该选取权值最高的三角形作为起点,将该权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕的步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到该德洛内三角网为空,则该子图分割完毕。

合并模块311,具体用于将该当前子图与该当前子图邻近的顶点数量最少的子图合并,还具体用于若当前子图的顶点数量小于预设顶点数量,则将该当前子图与该当前子图邻近的顶点数量最少的子图合并。

本发明实施例中未尽细节,参见前述无人机影像定位定姿方法的实施例的描述,此处不再赘述。

本发明实施例中,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。

需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。

在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者装置中还存在另外的相同要素。

本领域技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁带,磁盘或光盘等。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1