一种基于Tiny-Darknet的场景识别分类方法与流程

文档序号:20513908发布日期:2020-04-24 18:51阅读:893来源:国知局
一种基于Tiny-Darknet的场景识别分类方法与流程

本发明涉及视频检测技术领域,尤其是涉及一种基于tiny-darknet的场景识别分类方法。



背景技术:

近年来,安防监控行业的发展迅速,从原先的模拟制式监控转变成数字网络高清监控,清晰度上得到很大的提升。但是不同的场景环境下,需要应用不同监控设备参数,场景状态发生改变,也需要重新配置设备参数;但是不了解设备参数的使用者往往得不到最优质的视频监控画面。

传统的视频监控设备参数配置都是技术人员在现场安装时,根据安装的场景选择。这种方法比较简单,在正常情况下也没有问题,但是一旦设备的监控环境因为外力原因发生改变,如室外环境下出现大雾天气、强光照射等,之前的配置已不再适用变化的场景,从监控效果方面来看,会产生效果漏洞。随着视频监控技术的发展和广泛应用,根据监控设备获取的视频画面进行场景识别,可以快速、高效、可靠、实时的对设备的参数配置进行自适应调整,保证获取最优的监控效果。常用的方法主要是根据传统的图像处理算法提取图像特征进行场景分类。这种方法一方面只能适用于静态场景,即在同一场景下监控画面每一帧图像之间无明显差别,这明显不适用流动性强的场景;另一方面,这种方法在应用于监控设备中,占用内存较大,无法满足实时性或者低端监控设备的要求。为了解决这两类问题,也有学者从优化图像特征提取算法的角度去提升效果,但是只是在特定的场景下效果明显,普适性不强。



技术实现要素:

有鉴于此,本发明旨在提出一种基于tiny-darknet的场景识别分类方法,通过场景分类识别技术,预先为用户配置好各个场景下的设备参数,设备根据监控的场景切换使用相应的配置,大大提高设备的使用性能。

为达到上述目的,本发明的技术方案是这样实现的:

一种基于tiny-darknet的场景识别分类方法,包括以下步骤,

s1.构建分类模型的训练样本集;

s2.搭建基于tiny-darknet网络的的深度学习框架;

s3.配置训练参数,训练分类模型;

s4.获取设备监控图像信息;

s5.分类场景图像;

s6.判断场景变化;

s7.完成场景识别参数配置。

进一步的,步骤s1中构建分类模型的训练样本集时,从监控设备实际应用的各个场景,网上公开的数据集获取多个不同的场景的图像,并对这些图像旋转多个角度、调整对比度和锐化处理得到新的图像,原图像和新图像共同组成分类模型的训练样本集。

进一步的,步骤s1中,将训练样本集随机分为训练集和测试集。

进一步的,步骤s2中搭建基于tiny-darknet网络的深度学习框架时,对tiny-darknet网络进行裁剪,将神经网络生成的特征图以blob结构的形式进行前向传播和反向传播。

进一步的,所述tiny-darknet网络中,包含15个卷积层,6个池化层,1个全连接层,裁剪后全连接层输出8种结果,每种结果代表一种场景。

进一步的,步骤s3中配置训练参数,训练分类模型时,先设置训练网络模型的超参数,设置初始学习率,进行迭代训练,每隔固定的迭代次数,将学习率降低,直至最终输出loss值下降至预设临界值以下,训练完成后,获取分类场景图像的模型。

进一步的,步骤s4中获取设备监控图像信息时,直接从待监测场景的监控设备中,获取监控视频画面的图像帧。

进一步的,步骤s5中,将步骤s4中获取的图像信息送至预先训练好的分类模型进行处理,得到分类结果。

进一步的,所述分类结果包括图像所属类别和置信度。

进一步的,根据分类结果的置信值,设置一个阈值,置信度低于阈值,忽略分类结果。

进一步的,步骤s6中,根据分类结果与之前配置参数的场景类别对比,判断场景是否发生变化,若变化,则根据变化的类别标签自动切换到所属类别的参数配置;若无变化,则结束,进行下一帧对比。

进一步的,步骤s7中,综合分析连续的多个场景监控设备的视频帧图像,确定所属的场景类别,根据连续多帧的分类,判断场景属性有无发生改变,完成场景识别参数配置。

相对于现有技术,本发明所述的一种基于tiny-darknet的场景识别分类方法具有以下优势:

本发明一种基于tiny-darknet的场景识别分类方法普适性强、深度学习,检测精准,设备安装的位置无任何限制,只需要保证模型的训练集中包含所属设备的图像信息即可;以tiny-darknet卷积神经网络,为基础,进一步优化网络结构,占用内存小,实时性高,同时分类精准,满足实际应用需求。

附图说明

构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:

图1为本发明实施例所述的一种基于tiny-darknet的场景识别分类方法流程示意图。

具体实施方式

下面将参考附图并结合实施例来详细说明本发明。

如图1所示,一种基于tiny-darknet的场景识别分类方法,包括以下步骤:

s1.构建分类模型的训练样本集;

s2.搭建基于tiny-darknet网络的的深度学习框架;

s3.配置训练参数,训练分类模型;

s4.获取设备监控图像信息;

s5.分类场景图像;

s6.判断场景变化;

s7.完成场景识别参数配置。

步骤s1中构建分类模型的训练样本集时,从监控设备实际应用的各个场景,网上公开的数据集获取大量的不同的场景的图像,并对这些图像旋转多个角度、调整对比度和锐化处理得到新的图像,原图像和新图像共同组成分类模型的训练样本集。

步骤s1中,将训练样本集按比例随机分为训练集和测试集。

步骤s2中搭建基于tiny-darknet网络的深度学习框架时,对tiny-darknet网络进行裁剪,将神经网络生成的特征图以blob结构的形式进行前向传播和反向传播。

所述tiny-darknet网络中,包含15个卷积层,6个池化层,1个全连接层,裁剪后全连接层输出8种结果,每种结果代表一种场景。

步骤s3中配置训练参数,训练分类模型时,先设置训练网络模型的超参数,设置初始学习率,进行迭代训练,每隔固定的迭代次数,将学习率降低,直至最终输出loss值下降至预设临界值以下,训练完成后,获取分类场景图像的模型。

步骤s4中获取设备监控图像信息时,直接从待监测场景的监控设备中,获取监控视频画面的图像帧。

步骤s5中,将步骤s4中获取的图像信息送至预先训练好的分类模型进行处理,得到分类结果。

所述分类结果包括图像所属类别和置信度。

根据分类结果的置信值,设置一个阈值,置信度低于阈值,忽略分类结果。

步骤s6中,根据分类结果与之前配置参数的场景类别对比,判断场景是否发生变化,若变化,则根据变化的类别标签自动切换到所属类别的参数配置;若无变化,则结束,进行下一帧对比。

步骤s7中,综合分析连续的多个场景监控设备的视频帧图像,确定所属的场景类别,根据连续多帧的分类,判断场景属性有无发生改变,完成场景识别参数配置。

本实施例的工作过程如下:

s1.构建分类模型的训练样本集。从监控设备实际应用的各个场景,网上公开的数据集获取大量的不同的场景的图像,并对这些图像以顺时针、逆时针各旋转15度,对比度0.8,锐化0.8进行数据增强,从而得到大量的训练样本数据集,并将训练样本集以随机10:1的方式分为训练集及测试集,以caffe作为深度学习框架,并将训练集和测试集转换成caffe能识别的lmdb格式;

s2.搭建基于tiny-darknet网络的的深度学习框架。为满足不同性能的监控设备的使用,需要保证网络模型占用的内存足够小,进一步裁剪tiny-darknet网络,网络中包含了15个卷积层,6个池化层,1个全连接层,将神经网络生成的特征图以blob结构的形式进行前向传播和反向传播,全连接层输出8类结果,这8类结果代表的场景包括backlight,difficult,fog,indoor,traffic,vegetation,shelter,multitemperature;

s3.配置训练参数,训练分类模型。设置训练网络模型的超参数,设置初始学习率为0.01,并且每隔固定的迭代次数,将学习率降为原来的1/10,总共降3次,训练的总迭代次数一般设置为总样本数量的10倍。模型训练根据bp(反向传播)算法,利用sgd(随机梯度下降)算法进行迭代训练,使网络训练最终输出的loss值下降至预设临界值0.06以下。训练完成后,获取分类场景图像的模型;

s4.获取设备监控图像信息。从待监测场景的监控设备中,直接获取监控视频画面的图像帧;

s5.分类场景图像。将步骤s4中获取的图像信息送入步骤s3中预先训练好的模型进行处理,并输出分类结果。模型输出的分类结果包括图像所属的类别和置信度;

s6.判断场景变化。根据步骤s5中得到的分类结果与之前配置参数的场景类别是否发生变化,若变化,则根据变化的类别标签自动切换到所属类型的参数配置;若无变化,则结束,进行下一帧;根据分类结果的置信值,设置一个阈值,置信度低于阈值,忽略分类结果;

s7.综合分析连续的各个场景监控设备的视频帧图像,确定所属的场景识别结果。根据连续多帧的分类结果,判断场景属性有无发生改变,完成场景识别参数配置。

所述步骤s3中loss值的计算方法如下公式所示。训练网络的loss为分类损失,主要计算预测分类的概率的对数值。

其中yj是一个1*t的向量,里面含有t个值,而且只有一个值是1,其它t-1个值都是0,真实标签对应的那个值是1,f(zj)为范围在(0,1)区间的一组映射实数,反映的预测分类的概率值:

在反向传播时:

反向传播时对输入的zj进行求导得:

本发明已经实际应用于以下场景,并实际测试统计准确率可以达到98%以上:

室内场景。窗户会对阳光的紫外线会有一定的阻碍作用,所有室内颜色和室外不尽相同,同时对比度等也有所不同。

交通场景。交通场景对车运动拖影有比较高的要求,需要调节快门速度。

遮挡场景。对于有遮挡的场景,红外/白光反光会造成内同步失准。

雾气场景。雾气场景会造成整体画面偏白、不通透,需要开启透雾。

植被场景。对于绿色场景需要保证绿色植物的色彩。

宽动态场景。人脸设备在宽动态场景下需要提升比较多的亮度才能满足对内部人脸的识别需求,监控设备在宽动态场景下需要开启宽动态满足监控更宽范围的需求。

混合色温场景。混合色温对于整体白平衡的调节有很大的影响。

复杂细节动态场景。泳池、天空等细节特别多,对码流影响特别大,需要加大码流或者降低清晰度

以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1