一种广域环境下动态随机目标的识别、定位与跟踪系统的制作方法

文档序号:29910389发布日期:2022-05-06 01:13阅读:85来源:国知局
一种广域环境下动态随机目标的识别、定位与跟踪系统的制作方法

1.本发明涉及机器视觉和人工智能融合技术领域,特别涉及一种广域环境下动态随机目标的识别、定位与跟踪系统。


背景技术:

2.目前,目标识别、定位、跟踪是视觉检测技术领域的重要任务,是对视频序列中包含的动态目标进行识别定位,确定出目标区域,并生成目标的运动轨迹实现对目标的跟踪过程;目标识别、定位、跟踪技术在军事和民用方面都有着十分广泛的应用,军事方面包括无人飞行器、精确制导、空中预警、战场监视等;民用方面包括移动机器人、智能视频监控、智能交通系统、人机交互、虚拟现实等。目标跟踪是一个颇具挑战性的问题。在计算机视觉领域目标跟踪是一项重要工作。随着相机的普及,对自动视频分析与日俱增的需求引起人们对目标跟踪算法的浓厚兴趣。
3.但是,目前存在的视觉检测方法主要包括两种:1)首先建立目标模型或者提取目标特征,在后续帧中进行相似特征搜索逐步迭代实现目标定位;2)将目标模型和背景信息同时考虑在内,通过对比目标模型和背景信息的差异,将目标模型提取出来,从而得到当前帧中的目标位置;但是这两种方法都需要先确定检测目标之后才能在视频中检测出对应的目标,实现对目标的识别、定位、跟踪,无法实现对动态随机目标的识别、定位、跟踪,而且只能对一段视频范围内对应的局部场景中的目标进行识别,不能对广域环境下的大范围场景中的目标进行识别。
4.因此,本发明提出一种广域环境下动态随机目标的识别、定位与跟踪系统。


技术实现要素:

5.本发明提供一种广域环境下动态随机目标的识别、定位与跟踪系统,用以实现动态随机目标的识别、定位、跟踪,也实现了对广域环境下的大范围场景中的目标进行识别,面向动态随机多目标的实时识别算法可以摆脱了系统对海量数据遍历、专家系统、人机耦合、深度学习的依赖。本发明大大提供系统的智能化程度、实时性、准确性、鲁棒性和稳定性。技术可以广泛用于广域多目标数据采集与智能分析。产品可用于智能交通、智能制造、综合治理、公共安全、国防军事等多个领域。本发明是现有基于机器视觉与人工智能的技术与产品升级的主要手段之一。
6.本发明提供一种广域环境下动态随机目标的识别、定位与跟踪系统,包括:
7.目标识别模块,用于识别出广域范围内对应的所有视频中包含的第一目标;
8.目标筛选模块,用于确定待识别目标的识别条件,基于所述识别条件从所述第一目标中筛选出对应的第二目标;
9.识别校正模块,用于将广域范围内对应的所有视频进行关联,获得关联视频,基于所述关联视频对所述第一目标进行二次筛选,确定出对应的第三目标;
10.定位跟踪模块,用于对所述第三目标进行定位跟踪,获得对应的定位跟踪结果。
11.优选的,所述目标识别模块,包括:
12.对比单元,用于将广域范围内对应的所有视频中每一帧图像与对应范围内的背景图像进行比对,确定出广域范围内的所有第一差异图像区域,并将所述第一差异图像区域与时间轴融合确定出对应的第一识别结果;
13.分类单元,用于获取所述第一识别结果中每个时间点对应的所有第二差异图像区域,并按照预设分类列表将所述第二差异图像区域分类并编号,获得广域范围内对应的所有视频中包含的第一目标。
14.优选的,所述目标筛选模块,包括:
15.目标校正单元,用于基于所述广域范围内的场景关系和环境特征对所述第一目标进行校正,获得第一校正目标;
16.条件接收单元,用于接收用户输入的识别条件,基于所述识别条件确定出对应的识别特征;
17.第一筛选单元,用于基于所述识别特征从所述第一校正目标中筛选出对应的第二目标。
18.优选的,所述目标校正单元,包括:
19.判断子单元,用于判断所述第一目标对应的第一差异图像区域是否完整,若是,则将所述第一差异图像区域作为所述第一目标对应的完整图像区域;
20.第一校正子单元,用于当所述第一目标对应的第一差异图像区域完整时,则确定出所述第一差异图像对应的第一所属图像帧中除第一差异图像区域外的第一背景图像区域中的第一轮廓线,同时,确定出对应范围内的第一背景图像中的第二轮廓线,将所述第一轮廓线和所述第二轮廓线进行对比,确定出对应的第一畸变系数,基于所述第一畸变系数对所述完整图像区域进行校正,获得对应的第一校正图像,将所述第一校正图像作为所述第一目标的初步校正图像;
21.提取子单元,用于当所述第一目标对应的第一差异图像区域不完整时,则确定出所述第一所属视频对应场景的相邻场景对应的相邻视频,基于所述第一所属视频对应场景和所述相邻场景之间的空间关系,将所述第一所属视频与对应的相邻视频连接,获得对应的局部完整视频,基于所述局部完整视频确定出所述第一目标的剩余图像区域;
22.第二校正子单元,用于当所述第一目标对应的第一差异图像区域不完整时,则确定出所述第一差异图像对应的第二所属图像帧中除所述第一差异图像区域外的第二背景图像区域中的第三轮廓线,同时,确定出对应范围内的第二背景图像中的第四轮廓线,将所述第三轮廓线和所述第四轮廓线进行对比,确定出对应的第二畸变系数,基于所述第二畸变系数对所述第一差异图像进行校正,获得对应的第二校正图像;
23.第三校正子单元,用于确定出所述剩余图像区域对应的第三所属图像帧中除所述剩余图像区域外的第三背景图像区域中的第四轮廓线,同时,确定出对应范围内的第三背景图像中的第五轮廓线,将所述第四轮廓线和所述第五轮廓线进行对比,确定出对应的第三畸变系数,基于所述第三畸变系数对所述剩余图像区域进行校正,获得对应的第三校正图像;
24.组合子单元,用于将所述第二校正图像和所述第三校正图像进行组合,获得对应的第四校正图像,将所述第四校正图像作为所述第一目标的初步校正图像;
25.第一确定子单元,用于确定出所述初步校正图像中包含的每个像素点对应的视觉参数,并确定出所述初步校正图像中视觉参数的变化方向和变化梯度,将所述变化方向和所述变化梯度以及所述视觉参数作为对应的光学参数;
26.第三校正子单元,用于将所述光学参数作为所述第一所属视频对应场景内的环境特征,基于所述环境特征对所述完整图像区域进行逆向校正,获得对应的最终校正图像,将所述最终校正图像作为所述第一目标对应的第一校正目标。
27.优选的,所述条件接收单元,包括:
28.接收子单元,用于接收用户输入的识别条件语句;
29.检索子单元,用于基于预设的识别目标类别关键词列表从所述识别条件语句获得中检索出对应的识别目标类别;
30.解析子单元,用于将所述识别条件语句中包含的所述识别目标类别对应的字符剔除,基于预设的识别特征词库对所述识别条件语句进行依次检索,获得检索结果,基于所述检索结果将所述识别条件语句划分为多个子识别条件,基于所述子识别条件和所述识别目标类别在所述识别条件语句中的位置,确定出所述子识别条件和所述识别目标类别的所属关系;
31.生成子单元,用于基于所述识别目标类别和所述子识别条件以及所述所属关系,生成对应的识别条件树,将所述识别条件树作为对应用户输入的识别特征。
32.优选的,所述识别校正模块,包括:
33.视频关联单元,用于基于广域范围内每个视频对应的场景之间的位置关系,将广域范围内对应的所有视频进行关联,获得对应的关联视频;
34.特征提取单元,用于从所述关联视频中提取出所有第二目标的共性特征;
35.第二筛选单元,用于基于所述共性特征对所述第一目标进行二次筛选,确定出对应的第三目标。
36.优选的,所述视频关联单元,包括:
37.获取子单元,用于获取广域范围内对应场景的三维框架模型,并将每个视频对应的场景在所述三维框架模型中对应的局部模型进行一一对应;
38.第二确定子单元,用于确定每个视频对应的局部模型在所述三维框架模型中的具体位置,基于所述具体位置确定每个视频对应的场景之间的位置关系,基于所述位置关系确定对应视频之间的连接关系;
39.连接子单元,用于计算出每个视频的视频参数,基于所述视频参数计算出综合视频参数,基于所述综合视频参数对每个视频进行修正,获得对应的修正视频,基于所述连接关系将广域范围内对应的所有视频进行连接,获得对应的关联视频。
40.优选的,所述特征提取单元,包括:
41.第一提取子单元,用于从所述关联视频中确定出所述第二目标对应的第一目标图像区域的区域面积,基于所有第二目标对应的区域面积计算出对应的区域面积范围,将所述区域面积范围作为所有第二目标的第一共性特征;
42.第二提取子单元,用于从所述关联视频中确定出所述第二目标对应的第一目标图像区域中所有像素点对应的色度范围、亮度范围、对比度范围,基于所有第二目标对应的色度范围、亮度范围、对比度范围,计算出对应的综合色度范围、综合亮度范围、综合对比度范
围,将所述综合色度范围和所述综合亮度范围以及所述综合对比度范围作为所有第二目标的第二共性特征;
43.第三提取子单元,用于从所述关联视频中提取出所述第二目标对应的第一目标图像区域对应的方向梯度直方图特征,将所述方向梯度直方图特征作为所有第二目标的第三共性特征;
44.第四提取子单元,用于基于可变形部件模型对所述第二目标对应的第一目标图像区域滑动识别,获得对应的激励效果图,将所述激励效果图作为所有第二目标的第四共性特征;
45.第五提取子单元,用于从所述第二目标对应的第一目标图像区域中提取出对应的图像边缘与纹理特征、颜色矩阵特征、灰度共生矩阵特征,将所述方向梯度直方图特征和所述颜色矩阵特征以及所述灰度共生矩阵特征归一化后进行滤波,获得对应的第五共性特征;
46.其中,所述共性特征包括:第一共性特征、第二共性特征、第三共性特征、第四共性特征、第五共性特征。
47.优选的,所述定位跟踪模块,包括:
48.目标定位单元,用于在所述关联视频中定位出所述第三目标对应的第二目标图像区域;
49.目标跟踪单元,用于基于所述第二目标图像区域和所述关联视频中的图像序列,确定出所述第三目标的跟踪轨迹;
50.结果整合单元,用于基于所述第二目标图像区域和所述跟踪轨迹整合出对应第三目标的定位跟踪结果。
51.优选的,所述结果整合单元,包括:
52.第一融合子单元,用于将所述第二目标区域按照所述跟踪轨迹以及时间序列排序,获得所述第二目标对应的动态追踪结果;
53.第二融合子单元,用于将所述动态追踪结果与对应的背景图像融合获得对应的定位追踪结果。
54.本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
55.下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
56.附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
57.图1为本发明实施例中一种广域环境下动态随机目标的识别、定位与跟踪系统示意图;
58.图2为本发明实施例中一种目标识别模块示意图;
59.图3为本发明实施例中一种目标筛选模块示意图;
60.图4为本发明实施例中一种目标校正单元示意图;
61.图5为本发明实施例中一种条件接收单元示意图;
62.图6为本发明实施例中一种识别校正模块示意图;
63.图7为本发明实施例中一种视频关联单元示意图;
64.图8为本发明实施例中一种特征提取单元示意图;
65.图9为本发明实施例中一种定位跟踪模块示意图;
66.图10为本发明实施例中一种结果整合单元示意图;
67.图11为本发明实施例中又一种识别校正模块的工作流程示意图。
具体实施方式
68.以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
69.实施例1:
70.本发明提供了一种广域环境下动态随机目标的识别、定位与跟踪系统,参考图1,包括:
71.目标识别模块,用于识别出广域范围内对应的所有视频中包含的第一目标;
72.目标筛选模块,用于确定待识别目标的识别条件,基于所述识别条件从所述第一目标中筛选出对应的第二目标;
73.识别校正模块,用于将广域范围内对应的所有视频进行关联,获得关联视频,基于所述关联视频对所述第一目标进行二次筛选,确定出对应的第三目标;
74.定位跟踪模块,用于对所述第三目标进行定位跟踪,获得对应的定位跟踪结果。
75.该实施例中,广域范围通常跨及很大的物理范围,所覆盖的范围从几公里至几千公里。
76.该实施例中,广域范围内对应的所有视频即为在覆盖范围很大的物理范围内覆盖的摄像设备获取的视频。
77.该实施例中,第一目标即为广域环境中包含的所有可被识别的目标。
78.该实施例中,待识别目标即为用户想要识别出的目标。
79.该实施例中,识别条件即为基于用户想要识别出的目标的共性特征确定的用于识别出想要识别的目标的条件。
80.该实施例中,第二目标即为基于识别条件从第一目标中筛选出符合识别条件的目标。
81.该实施例中,关联视频即为将广域范围内所有视频按照空间连接关系连接获得的视频。
82.该实施例中,第三目标即为基于从第二目标中提取出的共性特征从关联视频中的第一目标进行二次筛选确定出的目标。
83.该实施例中,定位跟踪结果即为对第三目标进行定位跟踪获得的结果进行整合获得的结果。
84.以上技术的有益效果为:通过对局部视频中符合条件的目标进行初次筛选,通过提取出符合条件的目标的共性特征从连接好的视频中二次筛选出满足条件的目标,使得目标识别的结果更加准确,既实现动态随机目标的识别、定位、跟踪,也实现了对广域环境下
的大范围场景中的目标进行识别。面向动态随机多目标的实时识别算法可以摆脱了系统对海量数据遍历、专家系统、人机耦合、深度学习的依赖。本发明大大提供系统的智能化程度、实时性、准确性、鲁棒性和稳定性。技术可以广泛用于广域多目标数据采集与智能分析。产品可用于智能交通、智能制造、综合治理、公共安全、国防军事等多个领域。本发明是现有基于机器视觉与人工智能的技术与产品升级的主要手段之一。
85.实施例2:
86.在实施例1的基础上,所述目标识别模块,参考图2,包括:
87.对比单元,用于将广域范围内对应的所有视频中每一帧图像与对应范围内的背景图像进行比对,确定出广域范围内的所有第一差异图像区域,并将所述第一差异图像区域与时间轴融合确定出对应的第一识别结果;
88.分类单元,用于获取所述第一识别结果中每个时间点对应的所有第二差异图像区域,并按照预设分类列表将所述第二差异图像区域分类并编号,获得广域范围内对应的所有视频中包含的第一目标。
89.该实施例中,背景图像即为对应摄像设备的摄像范围内对应的原始场景图像。
90.该实施例中,第一差异图像区域即为将摄像设备获取的视频中的每一帧图像与对应的背景图像进行比对,确定出的差异图像区域。
91.该实施例中,第一识别结果即为将第一差异图像区域与时间轴融合确定出的结果。
92.该实施例中,第二差异图像区域即为第一识别结果中每个时间点对应的差异图像区域。
93.该实施例中,预设分类列表即为按照识别目标类别分类后获得的列表。
94.该实施例中,编号即为按照分类顺序进行随机编号。
95.以上技术的有益效果为:通过将局部获取的视频与对应的背景图像进行比对,确定出对应的差异图像区域,将广域范围内确定出的所有差异图像区域按照识别目标类别进行分类编号并与时间轴融合,使得识别结果更加直观,可以初步确定出广域环境内所有可被识别的目标,为后续精准筛选出符合条件的目标提供了基础。
96.实施例3:
97.在实施例2的基础上,所述目标筛选模块,参考图3和11,包括:
98.目标校正单元,用于基于所述广域范围内的场景关系和环境特征对所述第一目标进行校正,获得第一校正目标;
99.条件接收单元,用于接收用户输入的识别条件,基于所述识别条件确定出对应的识别特征;
100.第一筛选单元,用于基于所述识别特征从所述第一校正目标中筛选出对应的第二目标。
101.该实施例中,场景关系即为广域范围内对应的空间场景关系。
102.该实施例中,环境特征即为广域范围内对应的局部场景中的光照特征。
103.该实施例中,第一校正目标即为基于场景关系和环境特征对第一目标进行校正后获得的图像区域。
104.该实施例中,识别特征即为基于识别条件确定出的用户想要识别出的目标的共性
特征(即为图11中的第一目标特征参数)。
105.以上技术的有益效果为:通过基于场景关系和环境特征对第一目标进行校正,保证了后续识别结果的准确性,并且基于用户输入的识别条件从第一目标中进行筛选,实现根据用户需求筛选出满足要求的目标。
106.实施例4:
107.在实施例3的基础上,所述目标校正单元,参考图4,包括:
108.判断子单元,用于判断所述第一目标对应的第一差异图像区域是否完整,若是,则将所述第一差异图像区域作为所述第一目标对应的完整图像区域;
109.第一校正子单元,用于当所述第一目标对应的第一差异图像区域完整时,则确定出所述第一差异图像对应的第一所属图像帧中除第一差异图像区域外的第一背景图像区域中的第一轮廓线,同时,确定出对应范围内的第一背景图像中的第二轮廓线,将所述第一轮廓线和所述第二轮廓线进行对比,确定出对应的第一畸变系数,基于所述第一畸变系数对所述完整图像区域进行校正,获得对应的第一校正图像,将所述第一校正图像作为所述第一目标的初步校正图像;
110.提取子单元,用于当所述第一目标对应的第一差异图像区域不完整时,则确定出所述第一所属视频对应场景的相邻场景对应的相邻视频,基于所述第一所属视频对应场景和所述相邻场景之间的空间关系,将所述第一所属视频与对应的相邻视频连接,获得对应的局部完整视频,基于所述局部完整视频确定出所述第一目标的剩余图像区域;
111.第二校正子单元,用于当所述第一目标对应的第一差异图像区域不完整时,则确定出所述第一差异图像对应的第二所属图像帧中除所述第一差异图像区域外的第二背景图像区域中的第三轮廓线,同时,确定出对应范围内的第二背景图像中的第四轮廓线,将所述第三轮廓线和所述第四轮廓线进行对比,确定出对应的第二畸变系数,基于所述第二畸变系数对所述第一差异图像进行校正,获得对应的第二校正图像;
112.第三校正子单元,用于确定出所述剩余图像区域对应的第三所属图像帧中除所述剩余图像区域外的第三背景图像区域中的第四轮廓线,同时,确定出对应范围内的第三背景图像中的第五轮廓线,将所述第四轮廓线和所述第五轮廓线进行对比,确定出对应的第三畸变系数,基于所述第三畸变系数对所述剩余图像区域进行校正,获得对应的第三校正图像;
113.组合子单元,用于将所述第二校正图像和所述第三校正图像进行组合,获得对应的第四校正图像,将所述第四校正图像作为所述第一目标的初步校正图像;
114.第一确定子单元,用于确定出所述初步校正图像中包含的每个像素点对应的视觉参数,并确定出所述初步校正图像中视觉参数的变化方向和变化梯度,将所述变化方向和所述变化梯度以及所述视觉参数作为对应的光学参数;
115.第三校正子单元,用于将所述光学参数作为所述第一所属视频对应场景内的环境特征,基于所述环境特征对所述完整图像区域进行逆向校正,获得对应的最终校正图像,将所述最终校正图像作为所述第一目标对应的第一校正目标。
116.该实施例中,完整图像区域即为第一目标对应的差异图像区域完整时对应的图像区域。
117.该实施例中,第一所属图像帧即为当所述第一目标对应的第一差异图像区域完整
时,第一目标在视频中所属的图像帧。
118.该实施例中,第一背景图像区域即为当所述第一目标对应的第一差异图像区域完整时,第一所属图像帧中除第一目标对应的第一差异图像区域外的图像区域。
119.该实施例中,第一轮廓线即为当所述第一目标对应的第一差异图像区域完整时,第一背景图像区域中所有可识别出的轮廓线。
120.该实施例中,第一背景图像即为当所述第一目标对应的第一差异图像区域完整时,第一目标对应的视频的拍摄范围内对应的原始背景图像。
121.该实施例中,第二轮廓线即为当所述第一目标对应的第一差异图像区域完整时,第一背景图像中所有可识别出的轮廓线。
122.该实施例中,将所述第一轮廓线和所述第二轮廓线进行对比,确定出对应的第一畸变系数,包括:
123.将第一背景图像区域和第一背景图像统一于同一预设坐标下下,统计出第一轮廓线和第二轮廓线中不重合的像素点的总个数q1,同时,统计出第一轮廓线中的像素点总个数j1和第二轮廓线中的像素点总个数k1,则第一畸变系数即为:
[0124][0125]
例如,q1为1,j1为10,k1为10,则α1为0.1。
[0126]
该实施例中,第一畸变系数即为表征第一轮廓线和第二轮廓线相比时的畸变系数。
[0127]
该实施例中,第一校正图像即为基于第一畸变系数对完整图像区域进行校正后获得的图像。
[0128]
该实施例中,初步校正图像即为基于畸变系数对第一目标对应的图像区域进行初步校正后获得的图像。
[0129]
该实施例中,相邻场景即为与第一目标对应的第一所属视频对应的场景相邻的场景。
[0130]
该实施例中,相邻视频即为响铃场景对应的视频。
[0131]
该实施例中,局部完整视频即为基于第一所属视频对应场景和相邻场景之间的空间关系,将第一所属视频与对应的相邻视频连接获得的视频。
[0132]
该实施例中,剩余图像区域即为在局部完整视频中确定出的第一目标对应的剩余的图像区域。
[0133]
该实施例中,第二背景图像区域即为当所述第一目标对应的第一差异图像区域不完整时,第一差异图像对应的第二所属图像帧中除第一差异图像区域外的背景图像区域。
[0134]
该实施例中,第二所属图像帧即为当所述第一目标对应的第一差异图像区域部完整时,第一目标在视频中所属的图像帧。
[0135]
该实施例中,第三轮廓线即为第二背景图像区域中所有可识别出的轮廓线。
[0136]
该实施例中,第二背景图像即为当所述第一目标对应的第一差异图像区域不完整时,第一差异区域对应的视频的拍摄范围内对应的原始背景图像。
[0137]
该实施例中,第四轮廓线即为第二背景图像中所有可识别出的轮廓线。
[0138]
该实施例中,将所述第三轮廓线和所述第四轮廓线进行对比,确定出对应的第二
畸变系数,包括:
[0139]
将第二背景图像区域和第二背景图像统一于同一预设坐标下下,统计出第三轮廓线和第四轮廓线中不重合的像素点的总个数q2,同时,统计出第三轮廓线中的像素点总个数j2和第四轮廓线中的像素点总个数k2,则第二畸变系数即为:
[0140][0141]
例如,q2为1,j2为10,k2为10,则α2为0.1。
[0142]
该实施例中,第二校正图像即为基于第二畸变系数对第一差异图像进行校正后获得的图像。
[0143]
该实施例中,第三所属图像帧即为剩余图像区域所属的图像帧。
[0144]
该实施例中,第三背景图像区域即为剩余图像区域对应的第三所属图像帧中除剩余图像区域外的背景图像区域。
[0145]
该实施例中,第四轮廓线即为第三背景图像区域中所有可识别出的轮廓线。
[0146]
该实施例中,第三背景图像即为当所述第一目标对应的第一差异图像区域不完整时,剩余图像区域对应的视频的拍摄范围内对应的原始背景图像。
[0147]
该实施例中,第五轮廓线即为第三背景图像中所有可识别出的轮廓线。
[0148]
该实施例中,将所述第四轮廓线和所述第五轮廓线进行对比,确定出对应的第三畸变系数,包括;
[0149]
将第三背景图像区域和第三背景图像统一于同一预设坐标下下,统计出第五轮廓线和第六轮廓线中不重合的像素点的总个数q3,同时,统计出第五轮廓线中的像素点总个数j3和第六轮廓线中的像素点总个数k3,则第三畸变系数即为:
[0150][0151]
例如,q3为1,j3为10,k3为10,则α3为0.1。
[0152]
该实施例中,第三校正图像即为基于第三畸变系数对剩余图像区域进行校正后获得的图像。
[0153]
该实施例中,第四校正图像即为将第二校正图像和第三校正图像进行组合后获得的校正图像。
[0154]
该实施例中,视觉参数即包括:每个像素点对应的色度、亮度、对比度。
[0155]
该实施例中,确定出所述初步校正图像中视觉参数的变化方向和变化梯度即为用视觉参数变化函数表示视觉参数的变化方向和变化梯度。
[0156]
该实施例中,光学参数即为表征对应视频对应的场景内的光学特征的参数。
[0157]
该实施例中,基于所述环境特征对所述完整图像区域进行逆向校正即为将视觉参数低的像素点对应的视觉参数增高,将视觉参数高的像素点对应的视觉参数降低。
[0158]
该实施例中,最终校正图像即为对第一目标对应的图像区域进行初次校正和二次校正后获得的图像区域。
[0159]
以上技术的有益效果为:通过对第一目标对应的图像进行完整性判断、畸变校正、视觉参数校正、从而获得更为清晰的图像区域,为后续精准地识别出用户想要识别出的目
标提供了基础。
[0160]
实施例5:
[0161]
在实施例3的基础上,所述条件接收单元,参考图5,包括:
[0162]
接收子单元,用于接收用户输入的识别条件语句;
[0163]
检索子单元,用于基于预设的识别目标类别关键词列表从所述识别条件语句获得中检索出对应的识别目标类别;
[0164]
解析子单元,用于将所述识别条件语句中包含的所述识别目标类别对应的字符剔除,基于预设的识别特征词库对所述识别条件语句进行依次检索,获得检索结果,基于所述检索结果将所述识别条件语句划分为多个子识别条件,基于所述子识别条件和所述识别目标类别在所述识别条件语句中的位置,确定出所述子识别条件和所述识别目标类别的所属关系;
[0165]
生成子单元,用于基于所述识别目标类别和所述子识别条件以及所述所属关系,生成对应的识别条件树,将所述识别条件树作为对应用户输入的识别特征。
[0166]
该实施例中,识别条件语句即为用户输入的表征用户识别需求的语句。
[0167]
该实施例中,预设的识别目标类别关键词列表即为包含识别目标类别对应的关键词的列表。
[0168]
该实施例中,识别目标类别即为从识别条件语句中确定出的用户想要识别出的目标的识别目标类别。
[0169]
该实施例中,预设的识别特征词库即为包含识别特征对应的关键词的词库。
[0170]
该实施例中,检索结果即为基于预设的识别特征词库对识别条件语句进行依次检索获得的结果。
[0171]
该实施例中,子识别条件即为基于检索结果将识别条件语句划分获得的多个识别条件。
[0172]
该实施例中,所属关系即为子识别条件和识别目标类别之间的隶属关系。
[0173]
该实施例中,识别条件树即为基于识别目标类别和子识别条件以及所属关系生成的树。
[0174]
以上技术的有益效果为:通过对用户输入的识别条件语句进行识别,确定出对应的识别目标类别和每个识别目标类别隶属的识别特征确定出对应的识别条件树,确定出的识别条件树既包含了用户提供的识别条件,而且也表现了识别目标类别和识别特征之间的隶属关系,为后续进行识别筛选提供了极大的便利,基于识别条件树可以精准地表现出用户的识别需求。
[0175]
实施例6:
[0176]
在实施例1的基础上,所述识别校正模块,参考图6和11,包括:
[0177]
视频关联单元,用于基于广域范围内每个视频对应的场景之间的位置关系,将广域范围内对应的所有视频进行关联,获得对应的关联视频;
[0178]
特征提取单元,用于从所述关联视频中提取出所有第二目标的共性特征;
[0179]
第二筛选单元,用于基于所述共性特征对所述第一目标进行二次筛选,确定出对应的第三目标。
[0180]
该实施例中,位置关系即为每个视频对应的场景之间的空间位置关系。
[0181]
该实施例中,共性特征即为所有第二目标都有的特征(即第二目标特征参数)。
[0182]
该实施例中,第二筛选单元包括:
[0183]
图像特征匹配点提取单元,用于对第一目标对应的最终校正图像中的第一目标特征参数与第二目标特征参数进行匹配,确定出最终校正图像中与第二目标特征参数对应的第一特征匹配点;
[0184]
量化数据计算单元,用于基于第一特征匹配点在最终校正图像中对应的视觉数据进行量化计算,获得对应的第一视觉量化结果,同时,基于第一特征匹配点在第二目标特征参数中对应的视觉数据进行量化计算,获得对应的第二视觉量化结果;
[0185]
特征点筛选单元,用于将第一视觉量化结果和第二视觉量化结果进行匹配,从而在第一特征匹配点中筛选出第二特征匹配点;
[0186]
灰度相似度计算单元,用于基于第二特征匹配点在最终校正图像中对应的灰度值和第二特征匹配点在第二目标特征参数中对应的灰度值,计算出对应的灰度相似值,将灰度相似值小于相似阈值的第二特征匹配点删除,将剩余的第二特征匹配点作为第三特征匹配点;
[0187]
双目标特征筛选单元,用于确定出第三特征匹配点在最终校正图像中对应的第六共性特征和第三特征匹配点在第二目标特征参数中对应的第七共性特征;
[0188]
相似性度量函数计算单元,用于基于第六共性特征和第七共性特征计算出对应的相似性度量结果,基于相似性度量结果对第三特征匹配点进行再次筛选,确定出对应的第四特征匹配点(第三特征匹配点对应的共性特征即为第三目标特征参数),基于第四特征匹配点确定出对应的第三目标。
[0189]
以上技术的有益效果为:通过将广域范围内对应的所有视频进行关联可以获得覆盖广域范围内所有场景的视频,从关联视频中提取第二目标的共性特征,可以将所有视频进行关联综合分析提取,使得识别结果更加准确,更精准的符合用户的识别需求。
[0190]
实施例7:
[0191]
在实施例6的基础上,所述视频关联单元,参考图7和11,包括:
[0192]
获取子单元,用于获取广域范围内对应场景的三维框架模型,并将每个视频对应的场景在所述三维框架模型中对应的局部模型进行一一对应;
[0193]
第二确定子单元,用于确定每个视频对应的局部模型在所述三维框架模型中的具体位置,基于所述具体位置确定每个视频对应的场景之间的位置关系,基于所述位置关系确定对应视频之间的连接关系;
[0194]
连接子单元,用于计算出每个视频的视频参数,基于所述视频参数计算出综合视频参数,基于所述综合视频参数对每个视频进行修正,获得对应的修正视频,基于所述连接关系将广域范围内对应的所有视频进行连接,获得对应的关联视频。
[0195]
该实施例中,三维框架模型即为表征广域范围内对应场景的三维结构的模型。
[0196]
该实施例中,局部模型即为每个视频对应的场景在三维框架模型中对应的部分。
[0197]
该实施例中,确定每个视频对应的局部模型在所述三维框架模型中的具体位置,基于所述具体位置确定每个视频对应的场景之间的位置关系,基于所述位置关系确定对应视频之间的连接关系,具体包括:确定每个视频对应的局部模型在所述三维框架模型中的具体位置,并基于对应具体位置的模型数据确定出广域范围内每个视频对应的视频场景数
据空间向量,获得视频场景数据1空间向量、视频场景数据2空间向量、
………
、视频场景数据n-1空间向量、视频场景数据n空间向量,基于广域范围内每个视频对应的视频场景对应的空间向量确定出广域范围内每个视频对应的场景之间的位置关系。
[0198]
该实施例中,基于所述连接关系将广域范围内对应的所有视频进行连接,获得对应的关联视频,具体包括:
[0199]
图像分割单元,用于将所述视频中包含的视频帧进行分割,获得每个视频帧对应的多个图像分割区域;
[0200]
图像分割区域定位单元,用于定位所述图像分割区域,确定所述图像分割区域在对应视频帧中的图像位置;
[0201]
目标图像区域矫正单元,用于对所述图像分割区域进行局部矫正,获得对应的矫正图像分割区域;
[0202]
目标图像区域关联解析单元,用于将矫正图像分割区域与对应实际视频场景进行关联,确定出每个实际视频场景对应的矫正图像分割区域,基于实际视频空间的空间向量将所述矫正图像分割区域进行连接,获得对应的关联视频。
[0203]
该实施例中,计算出每个视频的视频参数,包括:
[0204][0205]
式中,β为当前视频的视频参数,i为当前视频的第i帧图像,n为当前视频中的图像帧总帧数,j为当前帧图像中的第j个像素点,m为当前帧图像中的像素点的总个数,tan-1
即为反正切函数,s
ij
为当前视频的第i帧图像中第j个像素点对应的色度值,s为标准色度值,d
ij
为当前视频的第i帧图像中第j个像素点对应的亮度值,d为标准亮度值,f
ij
为当前视频的第i帧图像中第j个像素点对应的对比度值,f为标准对比度值;
[0206]
例如,n为1,m为3,s
11
为10,d
11
为10,f
11
为10,s
12
为10,d
12
为10,f
12
为10,s
13
为10,d
13
为10,f
13
为10,s为20,d为20,f为20,则β为0.46。
[0207]
该实施例中,基于所述视频参数计算出综合视频参数:即为将所有视频对应的视频参数的平均值作为综合视频参数。
[0208]
该实施例中,基于所述综合视频参数对每个视频进行修正即为将每个视频的视频参数设置为综合视频参数。
[0209]
该实施例中,修正视频即为基于综合视频参数对每个视频进行修正后获得的视频。
[0210]
以上技术的有益效果为:通过对应场景之间的连接关系将每个视频进行连接,并通过视频参数的校正使得连接的视频更加融合,为后续筛选出准确的识别目标提供了基础。
[0211]
实施例8:
[0212]
在实施例6的基础上,所述特征提取单元,参考图8和11,包括:
[0213]
第一提取子单元,用于从所述关联视频中确定出所述第二目标对应的第一目标图像区域的区域面积,基于所有第二目标对应的区域面积计算出对应的区域面积范围,将所述区域面积范围作为所有第二目标的第一共性特征;
[0214]
第二提取子单元,用于从所述关联视频中确定出所述第二目标对应的第一目标图像区域中所有像素点对应的色度范围、亮度范围、对比度范围,基于所有第二目标对应的色度范围、亮度范围、对比度范围,计算出对应的综合色度范围、综合亮度范围、综合对比度范围,将所述综合色度范围和所述综合亮度范围以及所述综合对比度范围作为所有第二目标的第二共性特征;
[0215]
第三提取子单元,用于从所述关联视频中提取出所述第二目标对应的第一目标图像区域对应的方向梯度直方图特征,将所述方向梯度直方图特征作为所有第二目标的第三共性特征;
[0216]
第四提取子单元,用于基于可变形部件模型对所述第二目标对应的第一目标图像区域滑动识别,获得对应的激励效果图,将所述激励效果图作为所有第二目标的第四共性特征;
[0217]
第五提取子单元,用于从所述第二目标对应的第一目标图像区域中提取出对应的图像边缘与纹理特征、颜色矩阵特征、灰度共生矩阵特征,将所述方向梯度直方图特征和所述颜色矩阵特征以及所述灰度共生矩阵特征归一化后进行滤波,获得对应的第五共性特征;
[0218]
其中,所述共性特征包括:第一共性特征、第二共性特征、第三共性特征、第四共性特征、第五共性特征。
[0219]
该实施例中,在特征提取之前基于图像去噪单元对关联视频中的视频帧进行图像去噪,基于图像增强单元对去噪后的关联视频进行图像增强,基于颜色色空间转换单元对图像增强后的关联视频进行颜色空间转换。
[0220]
该实施例中,第一目标图像区域即为第二目标对应的图像区域。
[0221]
该实施例中,基于所有第二目标对应的区域面积计算出对应的区域面积范围,包括:
[0222]
确定出第二目标对应的区域面积最大值s
max
和区域面积最小值s
min
,则对应的区域面积范围为[s
min
,s
max
]。
[0223]
该实施例中,第一共性特征即为通过第二目标对应的区域面积确定出的第二目标的共性特征。
[0224]
该实施例中,基于所有第二目标对应的色度范围、亮度范围、对比度范围,计算出对应的综合色度范围、综合亮度范围、综合对比度范围,包括:
[0225]
确定出第二目标对应的色度最大值s
max
和色度最小值s
min
,第二目标对应的亮度最大值d
max
和亮度最小值d
min
,第二目标对应的对比度最大值f
max
和对比度最小值f
min
,则对应的综合色度范围为[s
min
,s
max
],综合亮度范围为[d
min
,d
max
],综合对比度范围为[f
min
,f
max
]。
[0226]
该实施例中,第二共性特征即为通过第二目标对应的色度范围、亮度范围、对比度阀内确定出的第二目标的共性特征。
[0227]
该实施例中,方向梯度直方图特征即为从第一目标图像区域对应的方向梯度直方图中提取出的特征。
[0228]
该实施例中,第三共性特征即为通过第二目标对应的方向梯度直方图特征确定出的第二目标的共性特征。
[0229]
该实施例中,可变形部件模型由三部分组成:(1)一个较为粗糙的,覆盖整个目标
的全局根模版(或叫做根滤波器);(2)几个高分辨率的部件模版(或叫做部件滤波器);(3)部件模版相对于根模版的空间位置。
[0230]
该实施例中,激励效果图即为基于可变形部件模型对第一目标图像区域滑动识别获得的效果图。
[0231]
该实施例中,第四共性特征即为通过第二目标对应的激励效果图确定出的第二目标的共性特征。
[0232]
该实施例中,第五提取子单元包括:
[0233]
图像边缘与纹理提取单元,用于从第二目标对应的第一目标图像区域中提取出对应的图像边缘与纹理特征;
[0234]
图像hog特征单元,用于从第二目标对应的第一目标图像区域中提取出对应的方向梯度直方图特征(hog特征);
[0235]
颜色矩阵特征提取单元,用于从第二目标对应的第一目标图像区域中提取出对应的颜色矩阵特征;
[0236]
灰度共生矩阵特征提取单元,用于从第二目标对应的第一目标图像区域中提取出对应的灰度共生矩阵特征;
[0237]
特征提取归一化及滤波单元,用于将第二目标对应的第一目标图像区域中提取出对应的图像边缘与纹理特征、颜色矩阵特征、灰度共生矩阵特征归一化后进行滤波,获得的第二目标的共性特征。
[0238]
该实施例中,第五共性特征即为将从第二目标对应的第一目标图像区域中提取出对应的图像边缘与纹理特征、颜色矩阵特征、灰度共生矩阵特征归一化后进行滤波,获得的第二目标的共性特征(即为第二目标共同特征参数1、第二目标共同特征参数2、
………
、第二目标共同特征参数n-1、第二目标共同特征参数n)。
[0239]
以上技术的有益效果为:通过就第二目标的区域面积、视觉参数、方向梯度直方图特征、可变形部件模识别获得的效果图提取出的第二目标的共性特征,为后续精准地识别出目标提供了基础。
[0240]
实施例9:
[0241]
在实施例8的基础上,所述定位跟踪模块,参考图9,包括:
[0242]
目标定位单元,用于在所述关联视频中定位出所述第三目标对应的第二目标图像区域;
[0243]
目标跟踪单元,用于基于所述第二目标图像区域和所述关联视频中的图像序列,确定出所述第三目标的跟踪轨迹;
[0244]
结果整合单元,用于基于所述第二目标图像区域和所述跟踪轨迹整合出对应第三目标的定位跟踪结果。
[0245]
该实施例中,第二目标图像区域即为第三目标对应的图像区域。
[0246]
以上技术的有益效果为:将确定出的第三目标对应的第二目标图像区域和关联视频中的图像序列确定出的跟踪轨迹整合获得第三目标的定位跟踪结果,使得定位跟踪结果更加直观充分。
[0247]
实施例10:
[0248]
在实施例9的基础上,所述结果整合单元,参考图10,包括:
[0249]
第一融合子单元,用于将所述第二目标区域按照所述跟踪轨迹以及时间序列排序,获得所述第二目标对应的动态追踪结果;
[0250]
第二融合子单元,用于将所述动态追踪结果与对应的背景图像融合获得对应的定位追踪结果。
[0251]
该实施例中,动态追踪结果即为将第二目标区域按照跟踪轨迹和时间序列排序获得的结果。
[0252]
该实施例中,定位跟踪结果即为将动态追踪结果和背景图像融合后获得的结果。
[0253]
以上技术的有益效果为:将第二步目标图像区域按照跟踪轨迹和时间序列排序获得动态追踪结果,再将动态追踪结果和背景图像融合获得完整的定位追踪结果,使得获得的定位追踪结果既表征了目标的动态过程也体现了目标的运动轨迹,同时也体现了目标运动过程中与背景的相对位置。
[0254]
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1