一种基于轮廓提取的火灾视频图像分析方法与流程

文档序号:17245649发布日期:2019-03-30 08:48阅读:399来源:国知局
一种基于轮廓提取的火灾视频图像分析方法与流程

本发明属于图像处理和计算机视觉领域,提供一种基于轮廓提取的火灾视频图像分析算法,本质上是图像分割的问题。



背景技术:

在当今社会中,火灾一直是人类面临的主要灾害之一。严重的火灾事故不仅会造成大量的人员伤亡,还会危及生命。近年来,消防安全领域也有了长足的进步,然而重特大火灾事故还是时有发生。因而,避免火灾不仅需要在火灾发生前及时监测、预警火灾事故,还需要在火灾发生后精准地调研分析火灾发生的原因。

传统的火灾事故调查主要以现场勘查并收集证据为主要手段,在进行火灾原因认定时,往往根据现场残留的火灾痕迹、残留物并结合证人询问笔录,通过逻辑推理得到认定结论。这种传统火灾原因调查方法具有很大的主观性和局限性。随着数字图像处理技术的发展,安防监控设备已经遍布了各大场所,这些监控视频图像已经可以客观具体地反映现场情况,对认定火灾原因发挥了良好的作用。但是由于一些客观元素限制,比如火灾发生在夜间,那么只通过监控视频,火调人员无从确定起火的具体位置。目前仍然没有很好的复原夜间火灾场景的方法。



技术实现要素:

为了便于火灾调查人员实现火灾场景复原,本发明提出一种基于轮廓提取的火灾视频图像分析方法,本发明的技术方案如下:

一种基于轮廓提取的火灾视频图像分析方法,包括下列的步骤:

1)对白天场景监控视频进行灰度化处理:根据图像各通道的采样值进行加权平均,将三通道的彩色图像转换为单通道的灰度图像;

2)对灰度图像进行滤波去噪:将原始数据与高斯平滑模板作卷积,得到较为模糊的原始图像,去除会干扰到边缘检测的高频噪声信息;

3)计算灰度图像的亮度梯度:利用sobel算子与灰度图像作平面卷积,从横向和纵向计算每像素点亮度函数的梯度值近似值,得到灰度图像的亮度梯度;

4)进行边缘细化处理,将每个像素点与梯度方向上的邻近两个像素点比较,保留局部最大值;

5)筛选、跟踪并连接边缘:设置高低两个阈值,通过高阈值筛选出图像中的重要边缘段,再通过低阈值在梯度方向上跟踪剩余边缘部分,然后通过对整幅图像扫描,连接边缘段;

6)进行图像混合叠加操作,将白天场景轮廓图像与黑夜场景的视频图像通过像素线性加权来叠加,从而实现白天场景在夜晚视频的复原。

附图说明

图1本发明的算法流程图

图2为白天场景的监控视频图像

图3为夜晚场景的监控视频图像

图4为白天场景在夜晚视频的复现图像

具体实施方式

考虑到视频场景的轮廓储存了图像的重要信息,这些信息最能体现火灾场景的结构属性,因此本发明提出一种基于轮廓提取的火灾视频图像分析算法,通过图像分割,将白天的场景轮廓提取出来复现到夜晚的监控视频上,定位起火的具体位置。由于轮廓是图像边缘检测的重要特征条件,因此实现场景轮廓提取,需要用到边缘检测算法。

边缘检测是图像处理和计算机视觉中的基本问题,目的是标识出数字图像中亮度变化明显的点,定位出图像轮廓的位置。通过边缘检测算法可以得到视频场景中边界线条的层级关系和围绕关系,实现场景边界轮廓的提取。在轮廓提取的后续操作中,利用图像混合叠加算法,将提取出的轮廓线条叠加到夜晚的监控视频图像上,从而实现火灾场景的复原并辅助定位起火位置,为火灾成因认定奠定基础。

本发明的基于轮廓提取的火灾视频图像分析算法,技术方案如下:

1)首先对输入的三通道彩色视频图像进行灰度化处理,将彩色图像转化为灰度图像。彩色图像的每个像素点拥有r、g、b三个分量,每个分量的取值范围都是从0到255,给计算机后续处理操作带来了负担。而灰度图像虽然只有一个通道,但是与彩色图像一样仍然可以反映图像的整体和局部色度亮度分布特征,这就大大降低了算法的时间复杂度。以rgb格式为例,常用的图像灰度化方法有:

gray=(r+g+b)/3

gray=0.299r+0.587g+0.114b

2)其次通过高斯模糊对灰度图像进行滤波去噪。高斯滤波就是对整幅图像进行加权平均的过程,每个像素点的值都是由本身和领域内其他像素加权平均后得到。“模糊”是指通过高斯低通滤波,将亮度值“平滑化”。由于噪声也集中于高频信号,很容易被识别为伪边缘。所以应用高斯模糊可以去除噪声的干扰,但是要注意模糊半径的选择,过大或漏掉一些弱边界信息。

3)接着计算灰度图像的亮度梯度。利用sobel算子(索贝尔算子,主要用于图像处理中的边缘检测)与图像作平面卷积,可以分别得出横向和纵向的高度差分近似值,如果以a为原始图像,以gx和gy为横向和纵向边缘检测的图像灰度值,g表示横纵方向灰度值的结合算法,代表该点灰度值大小,公式如下:

梯度角度θ范围从弧度-π到π,然后把它近似到四个方向,分别代表水平,垂直和两个对角线方向(一般为0°,45°,90°,135°),落在每个区域的梯度角给一个特定值,代表四个方向之一。

4)然后对得到的一群梯度边缘进行细化处理。通过非极大值抑制算法,针对水平、垂直、两个对角线四个方向,将每个像素点与梯度方向上的邻近两个像素点比较,保留局部最大梯度值。非极大值抑制比较的相邻两个像素的规则为:对于0°,比较左边和右边;45°,比较右上和左下;90°,比较上边和下边;135°,比较左上和右下。

5)通过阈值来确定边缘位置,筛选、跟踪并连接边缘。为了减少假边缘,采用双阈值法,设置高低两个阈值,高阈值为200,低阈值为50。如果边缘像素高于高阈值,则视为边界点,这样可以使图像含有较少的假边缘,但是由于阈值过高,产生的图像边缘很可能不闭合,因此还需要设置一个低阈值。在高阈值图像中把边缘连成轮廓,每当到达轮廓端点时,跟踪端点周围8邻域像素点中满足低阈值的点,再将此点纳入新的边缘,直到整个边缘轮廓闭合。

6)最后,保存原视频的帧率保存每一帧轮廓边缘图像,并与对应黑夜场景的监控视频图像进行混合线性叠加,从而实现白天场景在夜晚视频的复原。图像线性混合数学原理:

g(x)=(1-a)f(x)+aq(x)

其中,a的取值范围为0到1,随着a的改变,两幅图像的透明度也不断变化,在本发明中,为了不改变轮廓线条的原始效果,将其权值设为1。f(x)和q(x)为参与混合的两幅图像,g(x)表示输出图像,通过对两幅图像中对应的每个像素值进行线性加权得到最后的叠加图像。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1