一种基于物联网的园区智能监控数据的高效管理方法与流程

文档序号:33159849发布日期:2023-02-04 00:24阅读:31来源:国知局
一种基于物联网的园区智能监控数据的高效管理方法与流程

1.本发明涉及数据处理技术领域,具体涉及一种基于物联网的园区智能监控数据的高效管理方法。


背景技术:

2.为了实现园区的集中化和网格化发展,需要对园区内的智能监控数据进行实时监控与管理,实现以视频监控数据为依据完成智慧安防和智慧运营的目的。视频实时监控作为园区智能数字化管理系统中的一个子系统,所占存储容量非常大,需要压缩视频来方便存储和传输,最大限度去除冗余,实现对园区智能监控数据的高效管理。而园区中会存在大量人员流动,在压缩存储园区监控数据时,识别每个行人合适的关键帧进行存储能够大大减少存储空间,提高存储效率。
3.目前一般通过mpeg算法完成视频压缩,选取关键帧作为参考图像进行存储,其他图像只存储与参考图像的差异。但是在行人较多导致存在大量遮挡的情况下,该方法得到的关键帧参考性不强,利用该方法进行监控视频压缩会损失较多关键信息,存储质量较差。


技术实现要素:

4.为了解决现有技术中视频压缩损失较多关键信息导致存储质量较差的技术问题,本发明提供一种基于物联网的园区智能监控数据的高效管理方法,所采用的技术方案具体如下:获取园区内任一监控视角下的监控视频作为待存储视频,对待存储视频进行行人追踪,对追踪到的每个行人的检测框添加标识;所述待存储视频包括至少三帧监控图像;当同一标识的检测框丢失后再次出现时,根据检测框丢失前一帧监控图像中的检测框与再次出现时的检测框的质心坐标补充丢失过程中的检测框,将补充所有丢失过程后的同一标识的所有检测框记为该标识的目标框;将每两个相邻目标框进行关键点匹配得到至少两个关键点对,根据每个关键点对连线的斜率获取对应两个相邻目标框的匹配角度,将所有目标框对应的匹配角度依据时序分段;将目标框映射至hsv颜色空间中,并提取每个目标框的颜色质心坐标,获取每一段中所有目标框的参考颜色质心坐标以及参考匹配角度,基于每个目标框的颜色质心坐标与所述参考颜色质心坐标之间的差异、匹配角度与所述参考匹配角度之间的差异以及匹配角度的频率获取对应目标框的关键程度;以关键程度最大的目标框作为该标识的关键目标框,在每个目标框中筛选出代表关键点并获取代表关键点与关键目标框中相匹配的关键点之间的坐标关系,将所述关键目标框和对应所有目标框的坐标关系作为该标识对应行人的监控数据进行压缩。
5.进一步的,所述根据检测框丢失前一帧监控图像中的检测框与再次出现时的检测框的质心坐标补充丢失过程中的检测框,包括:
获取检测框丢失前一帧监控图像中的检测框与再次出现时的检测框的质心坐标差异,以及帧数差异,以质心坐标差异与帧数差异的比值作为丢失过程中相邻两帧监控图像对应的坐标移动距离,计算丢失过程中每帧监控图像与丢失前一帧监控图像之间相差的帧数与坐标移动距离的乘积作为对应的丢失距离,由每帧监控视频对应的丢失距离加上检测框丢失前一帧监控图像中的检测框的质心坐标得到该帧监控视频的检测框质心,依据检测框质心将对应的检测框补充完整。
6.进一步的,所述匹配角度的获取过程为:对于每两个相邻目标框,获取每个关键点对之间的连线的斜率,将所有斜率的取值范围均匀划分等级,并获取每个等级的频率,将频率最高的等级中的频率中点的斜率对应的角度作为所述匹配角度。
7.进一步的,所述将所有目标框对应的匹配角度依据时序分段,包括:将同一标识对应的所有匹配角度组成一个角度序列,利用时间序列分段算法对所述角度序列进行断点检测,对所述角度序列初步分段,然后对初步分段的每段匹配角度进行线性拟合,利用动态规划选取最优断点,以最优断点对所述角度序列分段,得到至少两段角度子序列。
8.进一步的,所述颜色质心坐标的提取过程为:将所有目标框对应的h分量、s分量和v分量分别均匀划分等级,并依据划分的等级构建每个目标框的颜色直方图,提取颜色直方图的质心,以颜色直方图的质心的h分量、s分量和v分量组成所述颜色质心坐标。
9.进一步的,所述参考颜色质心坐标的获取方法为:依据划分的等级构建所有目标框的综合颜色直方图,提取综合颜色直方图的质心,以综合颜色直方图的质心对应目标框的颜色质心坐标作为所述参考颜色质心坐标。
10.进一步的,所述参考匹配角度的获取方法为:获取每段角度子序列中的质心所对应的匹配角度作为所述参考匹配角度。
11.进一步的,所述关键程度的获取方法为:计算目标框的颜色质心坐标与所述参考颜色质心坐标之间的欧氏距离作为颜色差异值;计算目标框的匹配角度与参考匹配角度的差值绝对值,以匹配角度的频率作为差值绝对值的系数得到姿态差异值;将所述颜色差异值的归一化结果与所述姿态差异值的归一化结果加权求和,以预设值减去加权求和结果得到所述关键程度。
12.进一步的,所述代表关键点的筛选方法为:基于关键点的像素值与邻域像素值的差值获取对应关键点的极值性,在每个目标框中依据极值性的数值从大到小筛选四个关键点作为对应目标框的代表关键点。
13.进一步的,所述坐标关系的获取方法为:获取每个代表关键点在关键目标框中相匹配的关键点记为对应的代表匹配点,计算每个代表关键点的坐标与对应的代表匹配点的坐标之间的距离向量作为所述坐标关系。
14.本发明至少具有如下有益效果:首先对待存储视频进行行人追踪,追踪到每个行人不同时刻下的检测框,并添加标识,令同一标识下的检测框均代表同一个行人;当同一标识的检测框丢失后再次出现,基于丢失前以及再次出现的检测框的质心坐标获取丢失过程中的检测框,得到补充所有丢失
过程后的同一标识的所有检测框记为目标框,通过丢失前后的检测框的质心坐标将丢失过程的检测框补充出来,一定程度上预测了丢失过程中该行人的路线;通过每两个相邻目标框的匹配关系获取匹配角度,反映了该行人在每两帧监控图像下的路线变化程度,然后依据时序将所有目标框的匹配角度分段,分段进行后续处理,减少单次计算量,提高处理效率;通过每个目标框的颜色质心坐标与参考颜色质心坐标之间的差异、匹配角度与参考匹配角度之间的差异以及匹配角度的频率获取对应目标框的关键程度,颜色质心坐标与参考颜色质心坐标之间的差异代表了目标框之间的颜色差异,匹配角度与参考匹配角度之间的差异代表了目标框之间的姿态差异,匹配角度的频率代表了对应目标框在所在段内的普遍程度,三者相互结合得到的关键程度表征目标框的代表性;选取关键程度最大的目标框作为关键目标框,即以代表性最强的目标框作为同一标识的代表,然后获取其他目标框与关键目标框的坐标关系来表征对应的目标框,将关键目标框以及其他所有目标框的坐标关系作为同一标识对应行人的监控数据进行存储,将最具代表性的关键目标框提取出来,然后令其他目标框以关键目标框作为参考进行变换得到坐标关系来代表对应的目标框,共同组成同一标识对应行人的监控数据,存储获取的监控数据而非原监控视频能够大大减少存储空间,提高存储效率,同时最具代表性的目标框的筛选保证了存储的准确性,在监控数据高效压缩的同时,保证压缩数据能够准确代表监控视频,保留关键信息,存储质量好。
附图说明
15.为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
16.图1为本发明一个实施例提供的一种基于物联网的园区智能监控数据的高效管理方法的步骤流程图;图2为本发明一个实施例提供的某一帧行人监控图像;图3为本发明一个实施例提供的图2的下一帧行人监控图像;图4为本发明一个实施例提供的图3的下一帧行人监控图像。
具体实施方式
17.为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于物联网的园区智能监控数据的高效管理方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
18.除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
19.下面结合附图具体的说明本发明所提供的一种基于物联网的园区智能监控数据的高效管理方法的具体方案。
20.请参阅图1,其示出了本发明一个实施例提供的一种基于物联网的园区智能监控
数据的高效管理方法的步骤流程图,该方法包括以下步骤:步骤s001,获取园区内任一监控视角下的监控视频作为待存储视频,对待存储视频进行行人追踪,对追踪到的每个行人的检测框添加标识;待存储视频包括至少三帧监控图像。
21.园区的监控视频中环境是不变的,作为静止的背景,不需要过多关注,在进行压缩时可以忽略,只对运动的前景部分进行存储以减少存储量,提高存储效率。由于车辆在进入园区时需要停在停车场内,运动的前景中大部分为行人,因此在进行园区的监控视频管理时,更多关注园区内的行人。
22.在园区内的各个区域布置摄像头,与多个传感器装置通过无线网络连接,搭建物联网视频监控系统,实时监控各区域的人员流动情况。每个摄像头位置固定,采集的监控范围固定,选取任意一个监控摄像头的监控视频作为待存储视频,由于监控视频需要实时存储,因此根据园区内实时存储的时间段确定待存储视频的长度,例如某园区内的监控视频10分钟存储一次,则获取的任意一个摄像头下的监控视频时长为10分钟,即待存储视频为该摄像头下最新10分钟的监控视频,包括多帧监控图像,监控图像的数量依据摄像头采集频率确定。待存储视频包括至少三帧监控图像,能够包括行人检测框出现一次、丢失一次以及再次出现的情况。
23.园区的监控视频中存在大量人员的流动,现有技术可以完成多目标追踪,得到前景部分中多个目标的运动情况,在本发明实施例中利用yolov3和deepsort算法实现对待存储视频中行人的检测和追踪,检测到的行人会有专属的标识id,用不同标号的检测框标注出来,该检测框一般为矩形,也可以为其他唯一确定的形状。yolov3和deepsort算法为目标检测和追踪的常用方法,在本实施例中不再赘述具体过程。
24.同一个行人的矩形框的标识为同一个id。
25.步骤s002,当同一标识的检测框丢失后再次出现时,根据检测框丢失前一帧监控图像中的检测框与再次出现时的检测框的质心坐标补充丢失过程中的检测框,将补充所有丢失过程后的同一标识的所有检测框记为该标识的目标框。
26.同一标识的检测框未受到遮挡时,检测框的大小几乎没有变化,但是人员较多或者多个行人统一移动时,可能会出现遮挡现象,导致某些行人目标丢失,会出现某个标识的检测框从出现到丢失到再次出现的现象,例如图2所示的某一帧行人监控图像中,5号检测框和7号检测框共同出现,如图3所示的图2的下一帧行人监控图像中,5号检测框内的行人和7号检测框内的行人水平位置重合,由于5号检测框内的行人的大范围遮挡,7号检测框内的行人未被准确检出,5号检测框丢失,如图4所示的图3的下一帧行人监控图像中,7号检测框再次出现。deepsort算法可以通过级联匹配和确认新路径,让其在遮挡消失的右侧帧中重新被检出。当同一标识的检测框再次出现时,说明两次出现之间的过程中该标识的检测框丢失。
27.丢失的检测框可以基于轨迹的连续性补充:获取检测框丢失前一帧监控图像中的检测框与再次出现时的检测框的质心坐标差异,以及帧数差异,以质心坐标差异与帧数差异的比值作为丢失过程中相邻两帧监控图像对应的坐标移动距离,计算丢失过程中每帧监控图像与丢失前一帧监控图像之间相差的帧数与坐标移动距离的乘积作为对应的丢失距离,由每帧监控视频对应的丢失距离加上检
测框丢失前一帧监控图像中的检测框的质心坐标得到该帧监控视频的检测框质心,依据检测框质心将对应的检测框补充完整。
28.例如标识id为k的检测框在第t帧监控图像中出现后丢失,直到第帧监控图像中才再次出现,便要对中间的帧监控图像建立目标框补充模型。由于在行人距离摄像头的变动不大,矩形框大小变化忽略不计,只考虑水平位置的变化,因此构建的目标框补充模型如下:其中,表示第t+i帧监控图像中标识id为k的检测框的质心横坐标,表示第t帧监控图像中标识id为k的检测框的质心横坐标,第t帧监控图像即为丢失前一帧监控图像,i表示丢失过程中监控图像的索引,表示第帧监控图像标识id为k的检测框的质心横坐标,表示第t帧监控图像和第帧监控图像之间的质心坐标差异,表示第t帧监控图像和第帧监控图像之间的帧数差异,表示丢失过程中相邻两帧监控图像对应的坐标移动距离。
29.同一个标识的检测框代表同一个行人,短时间内行人的运动是均匀的,因此以检测框丢失前一帧以及再次出现时的监控图像中检测框的质心横坐标的差异来将丢失的检测框补充完整,以第t帧监控图像和第帧监控图像之间的质心坐标差异表征行人移动的距离,除以两帧之间相差的帧数,作为平均两帧监控图像之间的坐标移动距离。对于丢失过程中的第i帧监控图像来说,与第t帧监控图像相比每增加一帧,增加一次坐标移动距离,即与相比增加了的丢失距离,加上该丢失距离得到对应监控图像中检测框的质心横坐标。而丢失过程为第t+1帧监控图像至第帧监控图像,因此i的取值范围为1到。
30.得到丢失过程中每帧监控图像中检测框的质心横坐标之后,依据检测框质心将检测框补充完整。由于同一行人在移动过程中的行走习惯固定,步子大小和走路姿势的差异十分细微,因此对应的检测框大小变化不大,可选的,以第t帧监控图像的检测框大小作为丢失过程中第t+i帧监控图像的检测框的尺寸。也可以将持续出现的前t帧监控图像的检测框大小计算平均值作为丢失过程中第t+i帧监控图像的检测框的尺寸。在确定质心点和检测框尺寸后,将对应的检测框补充完整。
31.在对行人追踪的所有标识id的目标框进行补充后,对于某个行人,从该行人出现在监控视角画面内的那一刻,到该行人离开监控视角画面边界的那一刻,在监控视角内的所有位置都得到了标注,对应检测框的变化是连续的,不会出现中途失踪的情况,更符合行动轨迹连续的特点,也方便根据运动的连续性完成高效压缩。
32.某个行人在监控视角下的检测框,可能出现不止一次的丢失情况,均按照丢失前一帧监控图像和再次出现时的监控图像中的检测框的坐标来补充丢失过程中的检测框,所有丢失过程中的检测框均补充完成后,得到该行人在对应监控视角下的完整路径,所有的检测框记为目标框。
33.获得每个行人在该监控视角下的目标框之后,得到了每个行人关键目标框选取的
基础,后续在所有目标框内选取关键目标框,以实现高效压缩、高效管理的目的。
34.步骤s003,将每两个相邻目标框进行关键点匹配得到至少两个关键点对,根据每个关键点对连线的斜率获取对应两个相邻目标框的匹配角度,将所有目标框对应的匹配角度依据时序分段。
35.同一行人的目标框按照时间顺序传输可以描绘该行人移动时的动态过程,相邻目标框之间变化少、关联性强,利用sift关键点的匹配情况来度量姿态的相似度,完成关键点的匹配。对于提取的所有目标框,按照时序从第一个目标框开始,相邻的目标框以前一个目标框作为模板,以该相邻的目标框作为待匹配目标框,利用sift算法完成匹配。例如,对于第二个目标框来说,以第一个目标框作为模板,以自身作为待匹配目标框,利用sift算法完成匹配,得到多个相互匹配的关键点对;同样的,对于第三个目标框来说,以第二个目标框作为模板,以自身作为待匹配目标框,利用sift算法完成匹配,得到多个相互匹配的关键点对;以此类推,直至最后一个目标框匹配完成。与摄像头距离不同时,同一个行人所呈现的目标框会有大小上的变化,而sift算法在一定程度上不受尺度、亮度和视角变化的干扰,可以很好地完成目标框图像之间的匹配。
36.例如,某个行人在该监控视角下共有20个目标框,则可以得到19次匹配,每次匹配得到多个关键点对。
37.对于每两个相邻目标框,获取每个关键点对之间的连线的斜率,将所有斜率的取值范围均匀划分等级,并获取每个等级的频率,将频率最高的等级中的频率中点的斜率对应的角度作为匹配角度。
38.每两个相邻目标框进行匹配时得到多个关键点对,将相互匹配的关键点对连线,得到每条连线的斜率,获取所有斜率的最大值和最小值构成对应的取值范围,在本发明实施例中将该取值范围均匀划分为5个等级,并获取每个等级中斜率的频率求和作为该等级的频率,构建斜率等级的分布直方图,获取频率最高的等级,将该等级中的频率中点对应的角度作为对应的相邻两个目标框之间的匹配角度。19次匹配得到19个匹配角度。
39.若该行人在相邻目标框之间的姿态变化不大,则关键点的连线大部分平行,斜率相同或相近,该斜率所在等级频率较高,说明姿态相似性强。
40.将同一标识对应的所有匹配角度组成一个角度序列,利用时间序列分段算法对角度序列进行断点检测,对角度序列初步分段,然后对初步分段的每段匹配角度进行线性拟合,利用动态规划选取最优断点,以最优断点对角度序列分段,得到至少两段角度子序列。
41.同样以19次匹配为例,由19个匹配角度构成角度序列,该角度序列中的匹配角度是依据匹配角度的先后顺序排列的,即是按照时序排列的。利用时间序列分段算法对序列进行断点检测,得到多个断点,每两个相邻断点之间为分成的一段,先用单变量线性回归来拟合每一段,再用动态规划来全局最大化断点检测效果,选取最优断点,以最优断点对角度序列分段,得到至少两段角度子序列。
42.需要说明的是,时间序列分段算法和动态规划均为现有技术,时间序列分段算法通过捕捉时序数据中的断点判断时序数据的变化趋势,以此作为分段依据;再利用动态规划选取最优决策得到最优断点,依据最优断点对角度序列分段,即每相邻两个最优断点之间的匹配角度为同一段。而角度序列是按照时序排列的,即依据时序上的变化趋势将角度序列分段。
43.其中进行分段时,设置所有段的综合误差的阈值为0.8,该阈值可以根据实际情况进行调整,当综合误差小于阈值时,停止分段。综合误差为每段中的匹配角度与单变量线性回归拟合后的拟合匹配角度之间的残差平均值。
44.步骤s004,将目标框映射至hsv颜色空间中,并提取每个目标框的颜色质心坐标,获取每一段中所有目标框的参考颜色质心坐标以及参考匹配角度,基于每个目标框的颜色质心坐标与参考颜色质心坐标之间的差异、匹配角度与参考匹配角度之间的差异以及匹配角度的频率获取对应目标框的关键程度。
45.将角度序列分段之后,每段角度子序列中的匹配角度代表了该行人的姿态趋势相同或相近,行人在不同段之间的姿态存在差异。对于每段角度子序列,考虑到行人的皮肤暴露情况和着装一致情况都体现在目标框的颜色信息中,利用外观的相似性筛选关键目标框。将目标框映射到颜色特性更好的hsv空间上,每个像素点都具有对应的h分量、s分量和v分量。
46.将所有目标框对应的h分量、s分量和v分量分别均匀划分等级,并依据划分的等级构建每个目标框的颜色直方图,提取颜色直方图的质心,以颜色直方图的质心的h分量、s分量和v分量组成颜色质心坐标。
47.由于人眼对于h分量的识别灵敏性更强,因此将h分量的等级划分更多,即h分量、s分量和v分量分别均匀划分等级时,h分量的划分等级数要大于s分量和v分量的划分等级数,在本发明实施例中将h分量均匀划分为12个等级,s分量和v分量分别均匀划分为5个等级。将范围为0-255的颜色映射到12
×5×
5的范围内。依据划分的等级构建每个目标框的颜色直方图,提取颜色直方图的质心,获取直方图质心为现有技术,以颜色直方图质心的h分量、s分量和v分量代表每个目标框的颜色信息,因此以颜色直方图的质心的h分量、s分量和v分量组成颜色质心坐标,例如第z个目标框的颜色质心坐标记为。
48.依据划分的等级构建所有目标框的综合颜色直方图,提取综合颜色直方图的质心,以综合颜色直方图的质心对应目标框的颜色质心坐标作为参考颜色质心坐标。
49.构建所有目标框的综合颜色直方图,提取综合颜色直方图的质心,以综合颜色直方图的质心对应目标框的颜色质心坐标作为参考颜色质心坐标,代表所有目标框的综合颜色信息。
50.获取每段角度子序列中的质心所对应的匹配角度作为参考匹配角度。在每段角度子序列中提取质心,该质心对应的匹配角度作为参考角度,记为。
51.计算目标框的颜色质心坐标与参考颜色质心坐标之间的欧氏距离作为颜色差异值;计算目标框的匹配角度与参考匹配角度的差值绝对值,以匹配角度的频率作为差值绝对值的系数得到姿态差异值;将颜色差异值的归一化结果与姿态差异值的归一化结果加权求和得到关键程度。
52.以第z个目标框为例,计算颜色差异值:,即计算目标框的颜色质心坐标与参考颜色质心坐标之间的欧氏距离,作为颜色差异值。颜色差异值代表了目标框的颜色信息与综合颜色信息之间的差异。
53.计算目标框的匹配角度与参考匹配角度的差值绝对值,以匹配角度的
频率作为差值绝对值的系数得到姿态差异值。匹配角度的频率即为匹配角度对应斜率的频率。匹配角度与参考匹配角度之间的差异越大,姿态相似性越小,即行人姿态变化越大,得到的姿态差异值越大。
54.将颜色差异值的归一化结果与姿态差异值的归一化结果加权求和,以预设值减去加权求和结果得到关键程度:其中,表示第z个目标框的关键程度,表示颜色差异值的归一化结果的权重,表示颜色差异值的归一化结果,表示归一化函数;表示姿态差异值的归一化结果的权重,表示姿态差异值的归一化结果,由于姿态差异值是依据角度之间的差异获取的,因此以180度作为分母完成归一化。1为本实施例中的预设值。
55.颜色差异值越小,目标框的颜色信息与综合颜色信息之间的差异越小,外观相似性越大;姿态差异值越小,匹配角度与参考匹配角度之间的差异越小,姿态相似性越大;通过参数来协调比例分配,颜色差异值和姿态差异值越小,该目标框与其他目标框之间的外观和姿态越相似,该目标框越有代表性,关键程度越大。
56.作为一个示例,本发明实施例中权重的经验值为0.6,在其他实施例中还可以根据实际情况进行调整。
57.步骤s005,以关键程度最大的目标框作为该标识的关键目标框,在每个目标框中筛选出代表关键点并获取代表关键点与关键目标框中相匹配的关键点之间的坐标关系,将关键目标框和对应所有目标框的坐标关系作为该标识对应行人的监控数据进行压缩。
58.以关键程度最大的目标框作为该标识的关键目标框,关键程度代表了目标框的代表性,因此选取最具代表性的目标框作为关键目标框,完整存储关键目标框作为对应标识下的行人的代表性状态。然后构建其他目标框与关键目标框之间的对应关系作为其他目标框的代表。
59.以关键目标框作为模板,其他目标框通过sift算法完成与关键目标框的匹配,得到多个关键点对。对于每个其他目标框来说,选取部分具备代表性的像素点来表征目标框即可,由于四点即可确定一个平面,因此在本实施例中在每个目标框中选取四个最具代表性的关键点作为代表关键点表征对应的目标框。
60.基于关键点的像素值与邻域像素值的差值获取对应关键点的极值性,在每个目标框中依据极值性的数值从大到小筛选四个关键点作为对应目标框的代表关键点。
61.由于sift中的关键点是根据极值性选出的,极值性即为像素点与邻域像素点之间的像素值差异,像素点与对应的邻域像素点之间的像素值差异越大,极值性越强,因此在每个目标框中依据极值性的数值从大到小筛选四个关键点作为对应目标框的代表关键点。其中极值性的计算为获取关键点的像素值与每个邻域像素值的差值,所有邻域像素点对应的差值的平均值即为该关键点的极值性。
62.四点可确定一个平面,只要保存这四个关键点与关键目标框中对应关键点之间的坐标对应关系,便可求得透视变换矩阵,将其他目标框与关键目标框对应起来,重构前景目标图像的描述方式,能够大大提高视频的压缩率。
63.获取每个代表关键点在关键目标框中相匹配的关键点记为对应的代表匹配点,计算每个代表关键点的坐标与对应的代表匹配点的坐标之间的距离向量作为坐标关系。
64.距离向量既有距离又有方向能够准确定位代表关键点在关键目标框内的对应位置。
65.当需要解压缩时,只需要获得四对关键点的坐标对应关系,便可恢复行人在前进过程中的其他目标框。由于在某个行人的运动过程中,各连续帧中图像的变化小,这种方法可以较大程度地减少帧间的冗余量。
66.综上所述,获取园区内任一监控视角下的监控视频作为待存储视频,对待存储视频进行行人追踪,对追踪到的每个行人的检测框添加标识;待存储视频包括至少三帧监控图像;当同一标识的检测框丢失后再次出现时,根据检测框丢失前一帧监控图像中的检测框与再次出现时的检测框的质心坐标补充丢失过程中的检测框,将补充所有丢失过程后的同一标识的所有检测框记为该标识的目标框;将每两个相邻目标框进行关键点匹配得到至少两个关键点对,根据每个关键点对连线的斜率获取对应两个相邻目标框的匹配角度,将所有目标框对应的匹配角度依据时序分段;将目标框映射至hsv颜色空间中,并提取每个目标框的颜色质心坐标,获取每一段中所有目标框的参考颜色质心坐标以及参考匹配角度,基于每个目标框的颜色质心坐标与参考颜色质心坐标之间的差异、匹配角度与参考匹配角度之间的差异以及匹配角度的频率获取对应目标框的关键程度;以关键程度最大的目标框作为该标识的关键目标框,在每个目标框中筛选出代表关键点并获取代表关键点与关键目标框中相匹配的关键点之间的坐标关系,将关键目标框和对应所有目标框的坐标关系作为该标识对应行人的监控数据进行压缩。本发明在监控数据高效压缩的同时,保证压缩数据能够准确代表监控视频,保留关键信息,存储质量好。
67.需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
68.本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
69.以上所述实施例仅用以说明本技术的技术方案,而非对其限制;对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的范围,均应包含在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1