一种基于关键信息的无人机侦察视频检索方法与流程

文档序号:11864746阅读:来源:国知局

技术特征:

1.一种基于关键信息的无人机侦察视频检索方法,包括以下几个步骤:

第一步,无人机侦察视频关键信息提取

包括:无人机侦察视频特征提取、场景分割、关键帧提取、语义提取及场景信息统计;

第二步,将无人机侦察视频信息及其关键信息存储到数据库并进行维护;

包括:将第一步提取到的无人机侦察视频信息与提取到的无人机关键信息存储到数据库中,备份数据库中的各项数据并进行维护;

第三步,输入检索条件,进行视频检索。

2.根据权利要求1所述的一种基于关键信息的无人机侦察视频检索方法,所述的第一步具体包括:

步骤1.1,输入帧数为N的无人机侦察视频,提取无人侦察视频特征感知哈希矩,生成感知哈希矩集合Mphash与感知哈希距离集合Γd,具体步骤如下:

步骤1.1.1,输入帧数为N的无人机侦察视频,提取视频帧fi,生成二值图像若提取成功,对提取成功的视频帧进行判断,若为该视频的第一帧,则先设定为初始二值图I0,否则,进入步骤1.1.2,若提取失败,则表示该视频已提取完毕,视频提取工作结束;

步骤1.1.2,根据步骤1.1.1生成的二值图像计算得出其感知哈希矩εi,感知哈希矩εi是指感知哈希编码的二值图像的Hu矩组的一阶矩;

图像感知哈希矩获取方法如下:

1)去除图像的高频信息,使用最近邻插值法将原图像I变成尺寸为8×8的灰度图I′;

2)计算灰度图的像素平均灰度值gavrg

<mrow> <msub> <mi>g</mi> <mrow> <mi>a</mi> <mi>v</mi> <mi>r</mi> <mi>g</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mn>64</mn> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <mn>0</mn> <mo>,</mo> <mi>y</mi> <mo>=</mo> <mn>0</mn> </mrow> <mn>7</mn> </munderover> <mi>g</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>

其中:x,y分别表示图像的行与列,二维离散函数g(x,y)用于表示图像I′;

3)生成尺寸为8×8的二值图像IpHash,用二维离散函数f(x,y)表示:

<mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <msub> <mi>g</mi> <mrow> <mi>a</mi> <mi>v</mi> <mi>r</mi> <mi>g</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> <mi>g</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&GreaterEqual;</mo> <msub> <mi>g</mi> <mrow> <mi>a</mi> <mi>v</mi> <mi>r</mi> <mi>g</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>4)计算图像感知哈希矩εi

<mrow> <msub> <mi>m</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msup> <mi>x</mi> <mi>p</mi> </msup> <msup> <mi>y</mi> <mi>q</mi> </msup> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>&mu;</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mover> <mi>x</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> <mi>p</mi> </msup> <msup> <mrow> <mo>(</mo> <mi>y</mi> <mo>-</mo> <mover> <mi>y</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> <mi>q</mi> </msup> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <mover> <mi>x</mi> <mo>&OverBar;</mo> </mover> <mo>=</mo> <mfrac> <msub> <mi>m</mi> <mn>10</mn> </msub> <msub> <mi>m</mi> <mn>00</mn> </msub> </mfrac> <mo>,</mo> <mover> <mi>y</mi> <mo>&OverBar;</mo> </mover> <mo>=</mo> <mfrac> <msub> <mi>m</mi> <mn>01</mn> </msub> <msub> <mi>m</mi> <mn>00</mn> </msub> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>

<mrow> <msub> <mi>&eta;</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mo>=</mo> <mfrac> <msub> <mi>&mu;</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mrow> <msup> <msub> <mi>&mu;</mi> <mn>00</mn> </msub> <mi>&rho;</mi> </msup> </mrow> </mfrac> <mo>,</mo> <mi>&rho;</mi> <mo>=</mo> <mfrac> <mrow> <mo>(</mo> <mi>p</mi> <mo>+</mo> <mi>q</mi> <mo>)</mo> </mrow> <mn>2</mn> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>

ε=η2002 (7)

其中,M=N=8,p,q=0,1,2,...,M为x的最大取值,N为y的最大取值,p为x的阶数,q为y的阶数;

将步骤1.1.1生成的二值图像按行输出,得到一64位的编码pHashi,求取pHashi与pHashi-1的汉明距离

重复以上步骤直到视频帧提取结束后,得到感知哈希矩集合Mphash与感知哈希距离集合Γd,Mphash为视频提取到的所有感知哈希矩的集合Mphash={ε123,...,εi,...,εn},汉明距离为64位汉明编码pHashi与64位汉明编码pHashi-1对应位置的不同字符的个数;

步骤1.2,基于步骤1.1中得到的感知哈希距离Γd对无人机侦察视频进行场景分割,得到场景集合S={s1,s2,s3,...,sj,...,sm},具体步骤如下:

步骤1.2.1输入感知哈希距离集合Γd为视频提取到的所有汉明距离的集合,定义为感知哈希距离集合,使用Otsu法求取自适应分割阈值τphash,从时间维对视频进行分割,划分成若干个场景,设定第一个场景的开始帧为α1=1,依次比较与自适应分割阈值τphash,若且i-αj≥Smin,Smin一个场景包含的视频帧最小帧数,aj为第j个场景的开始帧,则将视频帧fi设定为场景边缘帧,即β1=i,得到场景S1=(α11);

步骤1.2.2将新的场景开始帧设定为αj=βj-1+1,重复步骤1.2.1中对的比较以及场景结束帧的判定,将视频最后一帧设定为场景的结束,得到m个场景,且βm=n,最终将视频分割成m个视频段,得到场景集合S={s1,s2,s3,...,sj,...,sm},其中sj=(αjj),m<n;αi、βi分别表示第j个场景的开始帧与结束帧序号;

步骤1.3无人机侦察视频关键帧提取,基于对图像感知哈希矩εi的分析,通过图像感知哈希矩εi衡量得到视频帧内容重要性λi

<mrow> <msub> <mi>&lambda;</mi> <mi>i</mi> </msub> <mo>=</mo> <mfrac> <msubsup> <mi>&epsiv;</mi> <mi>i</mi> <mo>&prime;</mo> </msubsup> <msubsup> <mi>&epsiv;</mi> <mi>max</mi> <mo>&prime;</mo> </msubsup> </mfrac> <mo>,</mo> <msubsup> <mi>&epsiv;</mi> <mi>i</mi> <mo>&prime;</mo> </msubsup> <mo>=</mo> <mn>1</mn> <mo>-</mo> <mfrac> <msub> <mi>&epsiv;</mi> <mi>i</mi> </msub> <msub> <mi>&epsiv;</mi> <mi>max</mi> </msub> </mfrac> </mrow>

其中εmax为视频提取到的感知哈希矩的最大值,εi为与视频帧fi对应的感知哈希矩,λi为与视频帧fi对应的视频帧内容重要性,对于每一场景,得到场景内的重要性集合{λ1,...,λt,...,λT},求取集合内的最大值λmax,λmax所对应的视频帧即为该场景的关键帧,其中t表示该场景中的第t帧,T为场景总帧数;由上述过程的计算得到λmax所对应的关键帧,最终得到视频的关键帧集合KF={kf1,kf2,kf3,......,kfm},kfi为第i个场景中视频帧内容重要性λi最大所对应的视频帧为该场景的关键帧,KF为m个场景的关键帧集合;

步骤1.4,对步骤1.3提取到的无人机侦察视频关键帧进行语义提取及场景信息统计,具体步骤如下:

步骤1.4.1对步骤1.3提取到的每个关键帧进行语义提取,每个关键帧对应一个语义标签,得到m个数据的关键帧语义集合KW={kw1,kw2,kw3,......,kwm};

步骤1.4.2按时间顺序求取每个语义标签所在的场景帧数占视频帧数的比例,若相邻场景关键帧的语义相同,则进行整合,最终以饼状图呈现每个语义标签所在的场景帧数占视频帧数的比例,顺时针方向表示视频的时序。

3.根据权利要求1所述的一种基于关键信息的无人机侦察视频检索方法,所述的第二步中,无人机侦察视频信息按照表一进行存储,具体为:

表一 无人机侦察视频信息存储表

4.根据权利要求1所述的一种基于关键信息的无人机侦察视频检索方法,所述的第二步中,无人机侦察视频关键信息按照表二进行存储,具体为:

表二 无人机侦察视频关键帧存储表

5.根据权利要求1所述的一种基于关键信息的无人机侦察视频检索方法,所述的第三步中,检索条件分别两种,根据不同的检索条件,视频检索具体为:

(1)检索条件为输入语义标签时,将输入的语义标签与数据库中的关键帧语义标签进行匹配,得到检索视频;

(2)检索条件为输入查询图像时,首先查询图像进行语义信息的提取与感知哈希距离τd的提取,然后根据数据库内存储的关键帧信息,根据其语义标签确定检索的图像范围,最后选取与查询图像感知哈希距离最小的关键帧,该关键帧所在的视频为最终视频。

当前第2页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1