一种自适应orb目标跟踪方法

文档序号:10489770阅读:231来源:国知局
一种自适应orb目标跟踪方法
【专利摘要】本发明提供了一种自适应ORB目标跟踪方法,对FAST特征不具备方向的问题,加入了FAST特征的方向信息,在特征点描述部分则采用基于像素点二进制位比较的BRIEF特征描述子,并改进了BRIEF描述子对图像噪声敏感和不具有旋转不变性的缺点,与SIFT算法相比,ORB算法不仅具有旋转不变性和抗噪声能力,同时运算速度比SIFT算法提高了两个数量级。本发明的自适应ORB目标跟踪方法充分利用了ORB算法的这一特性,并对ORB算法作出进一步改进,然后在此基础上提出了自适应ORB算法,进一步提高运算的速度和跟踪的准确性,更加符合实时跟踪的要求。
【专利说明】
一种自适应ORB目标跟踪方法
技术领域
[0001 ]本发明涉及一种自适应ORB目标跟踪方法,属于计算机视觉领域。
【背景技术】
[0002] 随着我国的经济不断发展,社会的不断进步,人口的流动量越来越大。庞大的人口 流动量给公共安全带来了极大的挑战,为了有效保障城市安全,越来越多的城市不断加大 公共场所的监控力度,其中,视频监控就是一个有效的途径。例如,在一个机场,大约要安装 2000多个摄像机。目前的监控技术主要是通过摄像机采集被监控场所的实时画面,然后将 通过显示设备将采集到的画面进行显示,最终要通过人工来观看监控视频以判断是否有突 发事件发生。这是一种被动的监控方式,同时,有研究表明,当人盯着屏幕超过10分钟,将有 90%的视频信息将被漏掉,这将使监控的效果大打折扣。为了提高监控效果,同时将监控操 作人员从繁杂而枯燥的"盯屏幕"任务解脱出来,就需要我们发展智能视频分析,尽量减少 人工干预。智能视频分析包括三个关键步骤:对感兴趣的运动目标进行检测,对检测到的目 标进行跟踪,最终对跟踪的目标进行行为分析。所以跟踪在整个智能视频分析中扮演着极 其关键重要的作用。
[0003] 近年来,在智能视频分析方面取得了很大的发展,有许多学者相继提出了各种行 之有效的方法,典型的有SIFT算法,Harris角点检测算法和SUSAN算法,它们都可以产生高 质量的特征点,例如,SIFT算法具有很好的尺度不变性和旋转不变性,同时对视角和光照变 化也具有一定的不变性。但是这些算法的计算量都很大,不利于一些实时跟踪的应用或者 在低功耗产品上的应用。针对以上算法的不足,有学者提出了例如FAST检测子、BRIEF描述 子等来减小计算量,但是,这些算法在减少运算量的同时,也带来了一些不足,例如:FAST特 征不具有方向性,而BRIEF描述子对图像噪声比较敏感,同时也不具有旋转不变性。

【发明内容】

[0004] 为了解决现有技术的不足,本发明提供了一种自适应ORB目标跟踪方法,对FAST特 征不具备方向的问题,加入了FAST特征的方向信息,在特征点描述部分则采用基于像素点 二进制位比较的BRIEF特征描述子,并改进了BRIEF描述子对图像噪声敏感和不具有旋转不 变性的缺点,与SIFT算法相比,ORB算法不仅具有旋转不变性和抗噪声能力,同时运算速度 比SIFT算法提高了两个数量级。本发明的自适应ORB目标跟踪方法充分利用了ORB算法的这 一特性,并对ORB算法作出进一步改进,然后在此基础上提出了自适应ORB算法,进一步提高 运算的速度和跟踪的准确性,更加符合实时跟踪的要求。
[0005] 本发明为解决其技术问题所采用的技术方案是:提供了一种自适应ORB目标跟踪 方法,包括以下步骤:
[0006] (1)对于动态视频的当前帧,框选目标区域,在目标区域内检测该帧的特征点并加 上方向信息:
[0007] (1.1)利用FAST算子对当前帧进行特征点检测,得到当前帧的所有FAST特征点;
[0008] (1.2)在检测到的FAST特征点中,利用HarriS角点检测算子挑选出HarriS角点响 应值最大的前N个FAST特征点,其中Harr i s角点相应函数为:
[0009] R = detM-k(traceM)2
[0010] 其中,M为矩阵:
[0011]
[0012] 对矩阵M(x,y)对角化得到:
[0013]
[0014] Ix(x,y)和
Iy(x,y)为坐标为(x,y)的像素点的灰度值I(x,y)的偏导数,w(x,y)为高 斯窗口函数,detM=A1A2,traceM=λ!+λ2,k为经验常数因子;
[0015] (1.3)利用图像金字塔产生多尺度特征;
[0016] (1.4)对N个FAST特征点分别加上方向信息,包括以下过程:
[0017] (1.4.1)对于一个FAST特征点,定义以该FAST特征点为中心的像素块的矩:
[0018]
[0019]其中,mij为像素块的矩,i和j分别是矩的阶数的系数;
[0020] (1.4.2)对于像素块,通过以下公式计算其亮度质心C:
[0021]
[0022] 其中,mm是像素块的0阶矩,πκ^Ρ_是像素块的1阶矩;
[0023] 设像素块的中心点为0,则中心点0到亮度质心C构成向量,则FAST特征点的方 向为Θ:
[0024] Θ =atan2(m〇i ,mio)
[0025] (2)对FAST特征点进行描述:
[0026] (2.1)对当前帧进行高斯模糊;
[0027] (2.2)生成BRIEF描述子,包括以下过程:
[0028] (2.2.1)在D X D的图像块区域定义一个τ测试: 1:/(Ρ1)</(Ρ2)
[0029] τ{1\Ρ\,Ρ2) = { : 0: ?[Ρ\)> ?(Ρ2)
[0030] 其中,I(Pl)表示点Pl(u,v)处的灰度值,Ι(Ρ2)表示点P2(p,q)处的灰度值,D为设 置值;
[0031] (2.2.2)在D X D的图像块区域中随机选出η对点PI i,P2i进行τ测试,得到长度为n的 二进制串,即BRIEF描述」
[0032] (2.3)对BRIEF描述子进行旋转,生成steered BRIEF描述子,包括以下过程:
[0033] (2.3.1)将随机选出的η对点Pli,P2i构建特征测试集,用2 X η矩阵表示:
[0034]
[0035] (2.3.2)利用FAST特征点的方向Θ对矩阵S进行旋转,得到矩阵Se:
[0036] Se = ReS
[0037]其中Re为旋转矩阵:
[0038]
[0039] . ο . Jj LBtiI ?a dr_lEF 描述子为:
[0040] gn(I;0):=fn(I) I (Pli,P2i)eS0
[00411 (2.4)利用贪婪搜索法从特征测试集中筛选出满足要求的steered BRIEF描述子 构成rBRIEF,包括以下过程:
[0042] (2.4.1)计算所有的steered BRIEF描述子与0.5的距离,并对其进行排序,利用排 序后的steered BRIEF描述子构建向量T;
[0043] (2.4.2)进行贪婪搜索:创建一个结果向量R,将向量T中的第一个steered BRIEF 描述子放入R中,并将其从T中提出,然后将T中的下一个steered BRIEF描述子取出来与R中 的所有steered BRIEF描述子进行比较,计算T中取出的steered BRIEF描述子与R中的所有 steered BRIEF描述子的相关性,如果相关性超过设定的阈值threshold,则将取出的 steered BRIEF描述子丢弃,否则将取出的steered BRIEF描述子放入R中;
[0044] (2.4.3)重复步骤(2.4.2)直到R中有η个steered BRIEF描述子,或则T中所有的 steered BRIEF描述子比较完毕;若R中有η个steered BRIEF描述子,则向量R中的steered BRIEF描述子即为rBRIEF描述子,则进入步骤(3),否则调高threshold,回到步骤(2.4.1)开 始重构向量T并重新进行贪婪搜索;
[0045] (3)进入下一帧,以下一帧作为当前帧对其重复步骤(1)和步骤(2)的过程,得到该 帧的FAST特征点及其rBRIEF描述子;
[0046] (4)计算前后两帧的FAST特征点的描述子之间的汉明距离,如果汉明距离在设定 的阈值范围内,则前后两帧的FAST特征点匹配成功,后一帧匹配成功的特征点所组成的区 域为跟踪区域;否则匹配失败;
[0047] (5)对跟踪区域内的FAST特征点进行统计以计算跟踪区域的重心,计算重心到每 一个FAST特征点的欧氏距离并求出其中的最大值,以重心为圆心,以欧氏距离最大值为半 径画圆,以该圆的外接矩形作为跟踪结果边界框;以后一帧的跟踪结果边界框划定的范围 作为对该帧的下一帧进行预判,将该范围作为下一帧的目标区域,返回步骤(3),直到完成 动态视频的所有前后两帧的匹配。
[0048]步骤(1.1)中利用FAST算子进行特征点检测,包括以下过程:
[0049] (1. 1.1)从当前帧选取一像素点P作为待检测的点,以像素点P为圆心、半径等于3 像素的离散化的Bresenhan圆上有16个像素点,从上方中间像素点开始顺时针对该16个像 素点进彳丁排序;
[0050] (1.1.2)将像素点P的灰度值Ip分别于第1个、第5个、第9个和第13个像素点的灰度 值进行比较,如果第1个、第5个、第9个和第13个像素点中至少有3个像素点的灰度值都大于 Ip+t,或者都小于IP-t,则继续将P的像素值与Bresenhan圆上其他像素点的灰度值进行比 较,否则将P点丢弃;如果包括第1个、第5个、第9个和第13个像素点在内,有z个连续的像素 点的灰度值都大于Ip+t,或者都小于Ip-t,则P为一个FAST特征点;其中t为设定的阈值。
[0051] z设置为9。
[0052] η 为 256。
[0053] 经验常数因子k取值0.04。
[0054]本发明基于其技术方案所具有的有益效果在于:本发明充分利用ORB算法具有旋 转不变性,运算速度快,跟踪效果好的特点,同时对ORB算法进行了改进,其改进主要体现在 (1)根据当前帧的跟踪结果预判下一帧的跟踪范围,然后在预判区域内进行特征点检测和 特征点描述,从而可以减少计算量,提高跟踪速度,同时在小范围内提取特征并进行匹配, 可以有效提高匹配的正确率,提高跟踪精度;(2)把当前帧的跟踪结果(包含特征点和描述 子的信息)保存起来作为下一帧跟踪模板的图像,节省了下一帧跟踪时对模板图像进行特 征点提取的耗时,从而缩短了跟踪时间;(3)提出了自适应的概念,其自适应性体现在跟踪 结果的边界框bounding box的大小可以根据每一帧中特征点的个数及其分布自行调整。例 如,当跟踪目标缩小时,特征点个数较少且分布较集中,边界框缩小,同时提高了抗干扰能 力。自适应主要是首先对跟踪区域内的特征点进行统计,计算其重心,然后求重心到每一个 特征点的欧式距离,并求出其最大值,以特征点的重心为圆心,最大距离为半径画圆,以该 圆的外接矩形作为跟踪结果边界框。
【附图说明】
[0055]图I FAST特征点检测原理示意图;
[0056]图2示出自适应原理图;
[0057]图3是本发明的流程图;
[0058]图4示出了本发明的方法与ORB算法的跟踪结果对比;
[0059] 图4a_4c是ORB的跟踪结果;
[0060]图4d_4f是本发明的方法的跟踪结果;
[0061 ]图5是本发明与ORB算法跟踪时间对比;
[0062]图6示出了本发明的方法与传统的LK、MSIFT跟踪算法对T50战机的跟踪结果对比; [0063]图6a_6c是LK光流的跟踪结果;
[0064] 图6d_6f是MSIFT算法的跟踪结果;
[0065]图6g_6 i是本发明的方法的跟踪结果;
[0066]图7示出了本发明的方法与传统的LK、MSIFT跟踪算法对T50战机的跟踪时间对比; [0067]图8示出了本发明的方法与传统的LK、MSIFT跟踪算法对DJI S1000飞行器的跟踪 结果对比;
[0068]图8a_8c是LK光流的跟踪结果;
[0069] 图8d_8f是MS IFT算法的跟踪结果;
[0070]图8g-8 i是本发明的方法的跟踪结果;
[0071]图9示出了本发明的方法与传统的LK、MSIFT跟踪算法对DJI S1000飞行器跟踪的 时间对比;
[0072]图10示出了本发明的方法与传统的LK、MSIFT跟踪算法对滑雪运动者的跟踪结果 对比;
[0073] 图IOa-IOc是LK光流的跟踪结果;
[0074] 图IOd-IOf是MSIFT算法的跟踪结果;
[0075]图I Og-10 i是本发明的方法的跟踪结果;
[0076]图11示出了本发明的方法与传统的LK、MSIFT跟踪算法对滑雪运动者的跟踪的时 间对比。
【具体实施方式】
[0077]下面结合附图和实施例对本发明作进一步说明。
[0078] 本发明提供了一种自适应ORB目标跟踪方法,参照图3,包括以下步骤:
[0079] (1)对于动态视频的当前帧,框选目标区域,在目标区域内检测该帧的特征点并加 上方向信息:
[0080] (1.1)利用FAST算子对当前帧进行特征点检测,得到当前帧的所有FAST特征点,参 照图1,包括以下过程:
[0081 ] (1. 1.1)从当前帧选取一像素点P作为待检测的点,以像素点P为圆心、半径等于3 像素的离散化的Bresenhan圆上有16个像素点,从上方中间像素点开始顺时针对该16个像 素点进彳丁排序;
[0082] (1.1.2)将像素点P的灰度值Ip分别于第1个、第5个、第9个和第13个像素点的灰度 值进行比较,如果第1个、第5个、第9个和第13个像素点中至少有3个像素点的灰度值都大于 Ip+t,或者都小于IP-t,则继续将P的像素值与Bresenhan圆上其他像素点的灰度值进行比 较,否则将P点丢弃;如果包括第1个、第5个、第9个和第13个像素点在内,有z个连续的像素 点的灰度值都大于Ip+t,或者都小于Ip-t,则P为一个FAST特征点;其中t为设定的阈值; [0083]比较1、5、9、13像素点能够加快检测速度;
[0084] (1.2)在检测到的FAST特征点中,利用Harris角点检测算子挑选出Harris角点响 应值最大的前N个FAST特征点,其中Harr i s角点相应函数为:
[0085] R = detM-k(traceM)2
[0086] 其中,M为矩阵:
[0087]
[0088]
[0089]
[0090] lxU,y)和lyU,y)艿坐称艿u,y)的傢累总的狄度但ux,y)的偏寺数,w(x,y)为高 斯窗口函数,detM=A1A2,traceM=λ!+λ2,k为经验常数因子;
[0091] (1.3)利用图像金字塔产生多尺度特征:
[0092]图像金字塔产生多尺度是现有技术,图像金字塔是一个图像集,集合中的所有图 像都源于同一个原始图像,而且是通过对原始图像连续降采样得到。要从金字塔第i层生成 第i+1层(用G1+1表示第i+1层,原始图像为第O层,用Go表示),先用高斯核对第i层进行卷积, 然后删除所有的偶数行和偶数列,这样得到第i+Ι层,新得到的图像大小会变为原来的四分 之一。通过对G〇(原始图像)不停迭代,就可以得到整个金字塔,ORB算法中,迭代八次,即:得 到8层金字塔;然后再在每一层图像上重复(1.1 )、( 1.2)步骤,从而构成多尺度特征;
[0093] (1.4)对N个FAST特征点分别加上方向信息,包括以下过程:
[0094] (1.4.1)对于一个FAST特征点,定义以该FAST特征点为中心的像素块的矩:
[0095]
[0096] 其中,mij为像素块的矩,i和j分别是矩的阶数的系数;
[0097] (1.4.2)对于像素块,通过以下公式计算其亮度质心C:
[0098]
[0099]其中,mm是像素块的0阶矩,πκη和m1Q是像素块的1阶矩;
[0100] 设像素块的中心点为〇,则中心点〇到亮度质心C构成向量,则FAST特征点的方 向为Θ:
[0101] Θ =atan2(m〇i ,mio)
[0102] atan2是正切函数的一个变种,对于任意不同时等于0的实参数X和y,atan2(x,y) 所表达的意思是坐标原点为起点,指向(X, y)的射线在坐标平面上与X轴正方向之间的角 度。当y>〇时,射线与X轴正方向的所得的角的角度指的是X轴正方向绕逆时针方向到达射线 旋转的角的角度;而当y〈〇时,射线与X轴正方向所得的角的角度指的是X轴正方向绕顺时针 方向达到射线旋转的角的角度;
[0103] (2)对FAST特征点进行描述:
[0104] (2.1)对当前帧进行平滑处理,即进行高斯模糊;
[0105] (2.2)生成BRIEF描述子,包括以下过程:
[0106] (2.2.1)在D X D的图像块区域定义一个τ测试:
[0107]
[0108] 其中,I(Pl)表示点Pl(u,v)处的灰度值,Ι(Ρ2)表示点P2(p,q)处的灰度值,D为设 置值;
[0109] (2.2.2)在D X D的图像块区域中随机选出η对点PI i,P2i进行τ测试,得到长度为n的 二进制串,即
[0110] PIi,P2i不是特征点,它们是在以FAST特征点为中心、S X S的区域中选出的,PIi, P2i构成一个点对,最终需要选出η个点对,实验证明,Pli,P2i按照它们到特征点的距离服从
[
i勺高斯分布选取效果最好。
[0111] (2.3)对BRIEF描述子进行旋转,生成steered BRIEF描述子,包括以下过程:
[0112] (2.3.1)将随机选出的η对点Pli,P2i构建特征测试集,用2 X η矩阵表示:
[0113]
[0114] (2.3.2)利用FAST特征点的方向Θ对矩阵S进行旋转,得到矩阵Se:
[0115] Se = ReS
[0116]其中Re为旋转矩阵:
[0117]
[0118] (2.3.3)生成steered BRIEF描述子为:
[0119] gn(I;0):=fn(I)|(Pli,P2i)eS9
[0120] (2.4)利用贪婪搜索法从特征测试集中筛选出满足要求的steered BRIEF描述子 构成rBRIEF,包括以下过程:
[0121] (2.4.1)计算所有的steered BRIEF描述子与0.5的距离,并对其进行排序,利用排 序后的steered BRIEF描述子构建向量T;
[0122] (2.4.2)进行贪婪搜索:创建一个结果向量R,将向量T中的第一个steered BRIEF 描述子放入R中,并将其从T中提出,然后将T中的下一个steered BRIEF描述子取出来与R中 的所有steered BRIEF描述子进行比较,计算T中取出的steered BRIEF描述子与R中的所有 steered BRIEF描述子的相关性,如果相关性超过设定的阈值threshold,则将取出的 steered BRIEF描述子丢弃,否则将取出的steered BRIEF描述子放入R中;
[0123] (2.4.3)重复步骤(2.4.2)直到R中有η个steered BRIEF描述子,或则T中所有的 steered BRIEF描述子比较完毕;若R中有η个steered BRIEF描述子,则向量R中的steered BRIEF描述子即为rBRIEF描述子,则进入步骤(3),否则调高threshold,回到步骤(2.4.1)开 始重构向量T并重新进行贪婪搜索;
[0124] (3)进入下一帧,以下一帧作为当前帧对其重复步骤(1)和步骤(2)的过程,得到该 帧的FAST特征点及其rBRIEF描述子;
[0125] (4)进行特征点匹配,由于特征点的描述子是一串二进制字符串,所以可以通过计 算rBRIEF描述子之间的汉明距离,如果汉明距离在设定的阈值范围内,则匹配成功,否则匹 配失败:计算前后两帧的FAST特征点的描述子之间的汉明距离,如果汉明距离在设定的阈 值范围内,则前后两帧的FAST特征点匹配成功,后一帧匹配成功的特征点所组成的区域为 跟踪区域;否则匹配失败;
[0126] (5)参照图2,为自适应过程:对跟踪区域内的FAST特征点进行统计以计算跟踪区 域的重心,计算重心到每一个FAST特征点的欧氏距离并求出其中的最大值,以重心为圆心, 以欧氏距离最大值为半径画圆,以该圆的外接矩形作为跟踪结果边界框;以后一帧的跟踪 结果边界框划定的范围作为对该帧的下一帧进行预判,将该范围作为下一帧的目标区域, 返回步骤(3),直到完成动态视频的所有前后两帧的匹配。
[0127] z设置为9。
[0128] η 为 256。
[0129] 经验常数因子k取值0.04。
[0130] 从图4对比中可以看出,本发明的跟踪准确率优于ORB算法的跟踪准确率;从图5的 对比中,可以看出本发明的跟踪所用的时间低于ORB算法所用的时间,即本发明的跟踪速度 高于ORB的跟踪速度;从图6、图8、图10中可以看出,对不同物体的跟踪,本发明的方法跟踪 的准确率均由于传统的LK、MSIFT算法的跟踪准确率;从图7、图9、图11中可以看出,本发明 跟踪所用的时间均低于传统的LK、MSIFT跟踪算法所用的时间,也即本发明的方法的跟踪速 度高于传统的LK、MSIFT跟踪算法的速度。综上,无论是与传统的LK、MSIFT跟踪算法相比,还 是跟ORB算法相比,本发明的跟踪准确率和跟踪速度均比较有优势,实现了又快又准的目 的。
【主权项】
1. 一种自适应ORB目标跟踪方法,其特征在于包括w下步骤: (1) 对于动态视频的当前帖,框选目标区域,在目标区域内检测该帖的特征点并加上方 向?胃息: (1.1) 利用FAST算子对当前帖进行特征点检测,得到当前帖的所有FAST特征点; (1.2) 在检测到的FAST特征点中,利用化rr i S角点检测算子挑选出化rr i S角点响应值 最大的前N个FAST特征点,其中化rr i S角点相应函数为: R=detM_k(traceM)2其中,Μ为矩阵:对矩阵M(x,y)对角化得到:11^,7)和^(^,7)为坐标为(^,7)的像素点的灰度值1(^,7)的偏导数,*(^,7)为高斯窗 口 函数,(1θ?Μ = λιλ2,?Γ3ΕθΜ = λι+λ2,k为经验常数因子; (1.3) 利用图像金字塔产生多尺度特征; (1.4) 对N个FAST特征点分别加上方向信息,包括W下过程: (1.4.1) 对于一个FAST特征点,定义W该FAST特征点为中屯、的像素块的矩:其中,ΠΗ功像素块的矩,巧Pj分别是矩的阶数的系数; (1.4.2) 对于像素块,通过W下公式计算其亮度质屯、C:其中,m日日是像素块的0阶矩,moi和mi日是像素块的1阶矩; 设像素块的中屯、点为0,则中屯、点0到亮度质屯、C构成向量^5^",现JFAST特征点的方向为 白: 白= atan2(m〇i,mio) (2) 对FAST特征点进行描述: (2.1) 对当前帖进行高斯模糊; (2.2) 生成BRI邸描述子,包括W下过程: (2.2.1) 在D X D的图像块区域定义一个τ测试:其中,ΚΡ1)表示点Pl(u,v)处的灰度值,ΚΡ2)表示点P2(p,q)处的灰度值,D为设置值; (2.2.2) 在0乂0的图像块区域中随机选出11对点口11,口2进行1巧聯,得到长度为11的二进 制串,旨化RIEF描述子(2.3)对BRI邸描述子进行旋转,生成steered BRIEF描述子,包括W下过程: (2.3.1) 将随机选出的η对点Pli,P2i构建特征测试集,用2 Xn矩阵表示:(2.3.2) 利用FAST特征点的方向目对矩阵S进行旋转,得到矩阵Se: 8θ = Κθ8 其中Re为旋转矩阵:(2.3.3) 生成steered BRIEF描述子为: 抑(I;目):=fn(I)|(Pli,P2i)eSe (2.4)利用贪婪捜索法从特征测试集中筛选出满足要求的steered BRIEF描述子构成 rBRIEF,包括W下过程: (2.4.1) 计算所有的steered BRIEF描述子与0.5的距离,并对其进行排序,利用排序后 的steered BRIEF描述子构建向量T; (2.4.2) 进行贪婪捜索:创建一个结果向量R,将向量T中的第一个steered BRIEF描述 子放入R中,并将其从T中提出,然后将T中的下一个steered BRIEF描述子取出来与R中的所 有steered BRIEF描述子进行比较,计算T中取出的steered BRIEF描述子与R中的所有 steered BRIEF描述子的相关性,如果相关性超过设定的阔值threshold,则将取出的 steered BRIEF描述子丢弃,否则将取出的steered BRIEF描述子放入R中; (2.4.3) 重复步骤(2.4.2)直到R中有η个steered BRIEF描述子,或则T中所有的 steered BRIEF描述子比较完毕;若R中有η个steered BRIEF描述子,则向量R中的steered BRIEF描述子即为巧RIEF描述子,则进入步骤(3),否则调高threshold,回到步骤(2.4.1)开 始重构向量T并重新进行贪婪捜索; (3) 进入下一帖,W下一帖作为当前帖对其重复步骤(1)和步骤(2)的过程,得到该帖的 FAST特征点及其巧RIEF描述子; (4) 计算前后两帖的FAST特征点的描述子之间的汉明距离,如果汉明距离在设定的阔 值范围内,则前后两帖的FAST特征点匹配成功,后一帖匹配成功的特征点所组成的区域为 跟踪区域;否则匹配失败; (5) 对跟踪区域内的FAST特征点进行统计W计算跟踪区域的重屯、,计算重屯、到每一个 FAST特征点的欧氏距离并求出其中的最大值,W重屯、为圆屯、,W欧氏距离最大值为半径画 圆,W该圆的外接矩形作为跟踪结果边界框;W后一帖的跟踪结果边界框划定的范围作为 对该帖的下一帖进行预判,将该范围作为下一帖的目标区域,返回步骤(3),直到完成动态 视频的所有前后两帖的匹配。2.根据权利要求1所述的自适应ORB目标跟踪方法,其特征在于:步骤(1.1)中利用FAST 算子进行特征点检测,包括W下过程: (1.1.1)从当前帖选取一像素点P作为待检测的点,W像素点P为圆屯、、半径等于3像素 的离散化的化e senhan圆上有16个像素点,从上方中间像素点开始顺时针对该16个像素点 进行排序; (1.1.2)将像素点P的灰度值Ip分别于第1个、第5个、第9个和第13个像素点的灰度值进 行比较,如果第1个、第5个、第9个和第13个像素点中至少有3个像素点的灰度值都大于IP+ t,或者都小于Ip-t,则继续将P的像素值与化esenhan圆上其他像素点的灰度值进行比较, 否则将P点丢弃;如果包括第1个、第5个、第9个和第13个像素点在内,有Z个连续的像素点的 灰度值都大于IpW,或者都小于Ip-t,贝化为一个FAST特征点;其中t为设定的阔值。3. 根据权利要求2所述的自适应ORB目标跟踪方法,其特征在于:Z设置为9。4. 根据权利要求1所述的自适应ORB目标跟踪方法,其特征在于:η为256。5. 根据权利要求1所述的自适应ORB目标跟踪方法,其特征在于:经验常数因子k取值 0.04。
【文档编号】G06T7/20GK105844663SQ201610156876
【公开日】2016年8月10日
【申请日】2016年3月21日
【发明人】罗大鹏, 张明东, 罗林波, 刘永文, 曾志鹏, 魏龙生, 马丽, 王勇
【申请人】中国地质大学(武汉)
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1