一种火灾监测方法及系统的制作方法

文档序号:10725597阅读:473来源:国知局
一种火灾监测方法及系统的制作方法
【专利摘要】本发明公开了一种火灾监测方法及系统,涉及监控领域,应用于火灾监测系统,所述系统包括:摄像头和远程处理器,所述方法包括:所述远程处理器获取所述摄像头采集的待监测区域的视频画面;所述远程处理器根据预设条件在视频画面中标记出目标区域;所述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动目标的运动轨迹的每一帧图像;所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图像上,生成视频摘要。本发明的目的在于提供一种火灾监测方法及系统,以提高火警监测的效果。
【专利说明】
一种火灾监测方法及系统
技术领域
[0001] 本发明涉及监控领域,具体而言,涉及一种火灾监测方法及系统。
【背景技术】
[0002] 视频监控已成为现代社会安防领域中十分重要的技术手段,但是视频监视的信息 冗余性和感兴趣信息查找的低效性问题也在阻碍着视频智能监控技术的有效应用。
[0003] 例如在现有的采用摄像头对火灾监测领域,需要工作人员实时盯着监控屏幕,一 个监控视频可能长达数十甚至数百小时,而工作人员真正关注的仅仅是某个极易发生火灾 的地方,而其余的信息对工作人员来说属于冗余信息,极易分散工作人员的注意力,导致火 灾监测效率过低,监测效果不佳。

【发明内容】

[0004] 本发明的目的在于提供一种火灾监测方法及系统,以解决上述的问题。
[0005] 第一方面,本发明实施例提供的一种火灾监测方法,应用于火灾监测系统,所述系 统包括:摄像头和远程处理器,所述方法包括: 所述远程处理器获取所述摄像头采集的待监测区域的视频画面; 所述远程处理器根据预设条件在视频画面中标记出目标区域; 所述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像; 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图像 上,生成视频摘要。
[0006] 结合第一方面,本发明实施例还提供了第一方面的第一种可能实施方式,其中,所 述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动目标的 运动轨迹的每一帧图像,包括: 根据高斯混合模型算法的前景预测算法获取目标区域的多个运动目标,获取所找到的 运动目标的运动轨迹的每一个图像帧并保存。
[0007] 结合第一方面,本发明实施例还提供了第一方面的第二种可能实施方式,其中,所 述远程处理器根据预设条件在视频画面中标记出目标区域之后,所述方法还包括: 所述远程处理器根据预设规则将目标区域的分割成多个镜头,获取每个镜头的关键 帧; 所述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像,包括: 所述远程处理器根据预设算法追踪每个所述镜头的运动目标,提取每个所述运动目标 的运动轨迹的每一帧图像; 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图像 上,生成视频摘要,包括: 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的镜头的关 键帧上,生成视频摘要。
[0008] 结合第一方面的第二种可能实施方式,本发明实施例还提供了第一方面的第三种 可能实施方式,其中,所述远程处理器根据预设规则将目标区域的分割成多个镜头,包括: 所述远程处理器通过基于RGB的颜色直方图算法判断在时间轴上相邻的两个帧之间的 相似度是否小于预设的第一阈值,若是,判定两帧属于不同的两个镜头; 在所判定为属于不同的两个镜头的两帧之间设置镜头边界; 根据所设置的多条镜头边界将所述目标区域的视频分割成多个分割镜头。
[0009] 结合第一方面的第二种可能实施方式,本发明实施例还提供了第一方面的第四种 可能实施方式,其中,所述的获取每个镜头的关键帧,包括: 将所述每个镜头的第一帧定义为关键帧。
[0010]第二方面,本发明实施例提供了一种火灾监测系统,包括:摄像头和远程处理器, 所述远程处理器包括: 获取单元,用于获取所述摄像头采集的待监测区域的视频画面; 标记单元,用于根据预设条件在视频画面中标记出目标区域; 追踪单元,用于根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像; 摘要生成单元,用于将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图 像上,生成视频摘要。
[0011] 结合第二方面,本发明实施例还提供了第二方面的第一种可能实施方式,其中,所 述追踪单元包括: 第一计算子单元,用于根据高斯混合模型算法的前景预测算法获取目标区域的多个运 动目标,获取所找到的运动目标的运动轨迹的每一个图像帧并保存。
[0012] 结合第二方面,本发明实施例还提供了第二方面的第二种可能实施方式,其中,所 述远程处理器还包括: 分割单元,用于在所述远程处理器根据预设条件在视频画面中标记出目标区域之后, 根据预设规则将目标区域的分割成多个镜头,获取每个镜头的关键帧; 所述追踪单元还用于根据预设算法追踪每个所述镜头的运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像; 所述摘要生成单元,还用于将每个运动目标的所有帧图像叠加至所述运动目标对应的 镜头的关键帧上,生成视频摘要。
[0013] 结合第二方面,本发明实施例还提供了第二方面的第三种可能实施方式,其中,所 述分割单元包括: 第二计算子单元,用于通过基于RGB的颜色直方图算法判断在时间轴上相邻的两个帧 之间的相似度是否小于预设的第一阈值,若是,判定两帧属于不同的两个镜头; 设置子单元,用于在所判定为属于不同的两个镜头的两帧之间设置镜头边界; 划分子单元,用于根据所设置的多条镜头边界将所述目标区域的视频分割成多个分割 镜头。
[0014] 结合第二方面,本发明实施例还提供了第二方面的第四种可能实施方式,其中,所 述的获取每个镜头的关键帧,包括: 将所述每个镜头的第一帧定义为关键帧。
[0015] 本发明实施例获取目标区域的运动目标,提取每个所述运动目标的运动轨迹的每 一帧图像,将所述运动目标的运动轨迹的每一帧图像都保存,将每个帧保存后就获得目标 区域的运动目标的视频信息,再将所述运动目标的运动轨迹叠加到当前分割镜头的关键帧 上,合成视频摘要。因此,与现有技术的监控视频中还有大量的非关注区域的视频信息相 比,能更精确的找到感兴趣的视频,并且也减少了视频的大小,使工作人员把更多的注意力 放在关注区域,减少注意力分散。
[0016] 本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得 显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说 明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
【附图说明】
[0017] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所 需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施 例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获 得其他的附图。通过附图所示,本发明的上述及其它目的、特征和优势将更加清晰。在全部 附图中相同的附图标记指示相同的部分。并未刻意按实际尺寸等比例缩放绘制附图,重点 在于示出本发明的主旨。
[0018] 图1示出了本发明实施例提供的一种火灾监测方法的方法流程图。
【具体实施方式】
[0019] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完 整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于 本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他 实施例,都属于本发明保护的范围。
[0020] 视频监控已成为现代社会安防领域中十分重要的技术手段,但是视频监视的信息 冗余性和感兴趣信息查找的低效性问题也在阻碍着视频智能监控技术的有效应用。
[0021] 例如在现有的采用摄像头对火灾监测领域,需要工作人员实时盯着监控屏幕,一 个监控视频可能长达数十甚至数百小时,而工作人员真正关注的仅仅是某个极易发生火灾 的地方,而其余的信息对工作人员来说属于冗余信息,极易分散工作人员的注意力,导致火 灾监测效率过低,监测效果不佳。
[0022] 为解决上述困难,如图1,本发明实施例提供了一种火灾监测方法,应用于火灾监 测系统,所述系统包括:摄像头和远程处理器,所述方法包括: S11:获取所述摄像头采集的待监测区域的视频画面; S12:根据预设条件在视频画面中标记出目标区域; S13:根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动目标的运动 轨迹的每一帧图像; S14:将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图像上,生成视频 摘要。
[0023]其中,所述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每 个所述运动目标的运动轨迹的每一帧图像,包括: 根据高斯混合模型算法的前景预测算法获取目标区域的多个运动目标,获取所找到的 运动目标的运动轨迹的每一个图像帧并保存。
[0024]现有的对运动目标监测效果比较好的就是使用背景减除算法,这个算法之要将当 前画面减去所构建的视频场景背景就可以得到相应的运动目标。在构建视频背景场景的算 法中,其中高丝混合模型以及LBP纹理模型算法都能够取得很理想的算法。在本发明实施例 中,使用的运动监测的算法就是基于高斯混合模型算法, 下面对这个算法做详细的介绍。
[0025] 在高斯混合模型中,其默认条件就是在视频帧的每个像素点的颜色值在时间轴上 是符合高斯分布。并且由于局部场景的波动从而导致一个像素中的颜色值是会符合多分 布,建立在这个条件之下,那么才利用这个模型完成对视频的背景构建。其主要步骤如下: (1) 模型定义 假设将视频帧中的某个像素点时间的观测值记为,对于给定点在不同时刻的一系列观 测值,可以看作是一个与其他点独立的统计随机过程,则可用个高斯分布表示: 其中,。的取值由计算性能等因素决定,经过大量的实验证明,的取值为3至7是最合理 的。则时刻点的概率分布为: 其中,为时刻第个高斯分布的权值,它反映该高斯分布出现的比例,且;是时刻第个均 值为、协方差为的概率密度函数: (2) 模型更新 如果当前像素值与某一高斯分布均值满足,则认为匹配成功,在经过大量实验证明,D 取值2.5效果是最好的。如果有多个匹配,则选择最好的一个。匹配成功时,调整各个分布的 权重值: 其中,为学习率,其值在之间,越大,权值更新的越快,否则反之;对于匹配的分布,为1, 其余不匹配的分布为0,这样可以导致匹配的分布权重值增加,减少不匹配分布权重值。
[0026] 对于与当前像素相匹配的模型,其参数将做如下更新: 其中,为另一个学习率,其值为,为高斯概率密度函数。而对于没有匹配的分布,其参数 保持不变。
[0027] (3)前景监测 根据值按由大到小对个高斯分布进行排序,排序越前的高斯分布,越适合描述背景。一 般选取满足前个高斯分布被当成是对背景的描述: 其中,是背景模型比例阈值,如果设置较小,GMM将退化为单高斯分布模型;如果值较 大,则可以为动态背景建立多个高斯分布的混合模型来模拟。通过大量实验证明,的经验值 可取0.6,此时的效果相对来说是最好的。
[0028] 提取出运动目标后,然后是运动目标的运动轨迹的获取。
[0029] 运动目标跟踪,就是在图像序列中去找到与所需要的跟踪目标区最为相似的位 置。在本文中,所需要跟踪的目标就是在上一节通过运动监测出来的运动目标,而目标跟踪 就简单一句就是在图像序列将这运动目标定位出来。在运动目标跟踪是,要解决两个问题: 一是将运动目标的模型有效表达出来;二是选择哪种目标特征去进行匹配。在如今运动目 标跟踪的算法中,主要可分为相识度适量法以及搜索算法,这两种算法中一个是利用帧匹 配以及背景匹配的方法去寻找跟踪目标,但是所涉及的问题都是处理冗余信息比较多,所 以在本发明实施例中所选取的目标跟踪算法就是对收索范围进行优化的均值漂移法 (meanshif t算法),其算法的主要想法就是通过计算目标区域和候选区域内像素的特征值 完成对目标和候选区域的模型,接着使用相识度函数去计算目标模型和候选区域的相识 度。选择相识度最大的候选模型去建立相应的Meanshift向量,并且在重复着个过程,由于 均值漂移算法本身就有收敛性这一特点,经过数次迭代,该算法能够找到运动目标的真实 位置,从而达到跟踪运动目标。
[0030] 通过运动监测确定目标在感兴区域出现的空间位置以及区域,假设在这个区域中 存在着8个像素,并用i = ?-η表示每个像素的位置。将目标区域进行颜色空间进行均 匀划分,就可以得到皿个等同的数值间构成的直方图,则目标模型的%队形的概率密度可 以由公式23表示,其中u :,.m。
[0031] 在上述公式中,其_表示将这个区域像素以目标中心归一化后的位子,其中 属于目标的中心坐标。i是代表的核函数,在本文中选择的是Epanechikov函数, 表示属于A颜色区间的直方图的值,s是作为直方图的颜色索引,而- 4主要 的作用就是判断今是否属于u这个单元,其中值只能为1或者〇,最后一个参数G:是作为归一 化系数。
[0032] 在对第I帧进行目标匹配的时候,是需要根据第-彳的中心位置匕为收索窗口的 中心,从而得到候选目标的中心坐标L在得到目标中心坐标坐标之后,对其整个区域的直 方图。
[0033] 在这个目标区域中,其像素坐标用=4^表示,其预选区域像素的概率密度 函数为
其中^是作为核函数的尺度的大小,即窗口的大小,决定候选区域的每个像素的权重 分布。
[0034] 相似度来表示候选区域和跟踪目标的接近程度,在本文中,选取了Bhattacharyya 系数函数作为描述候选区域和目标的相似程度,其定义如以下公式。
[0035] 将第U帧的中心位置%作为第t帧的收索窗口的初始位置的中心,然后在第:t帧 帧中周围去寻找使得相识度值最大的候选区域。
[0036] Meanshift 迭代过程 在均值漂移的迭代过程,同时也是寻找目标的收索过程,为了是滅P#最大,将 Bhattacharyya系数函数进行泰勒展开,可以得到如下公式。
[0037] 在以上公式中,只有第二项的值会随着?变化而变化,在选择相识度极大化的过程 就是由候选区域向真实区域靠近的过程,其主要是一开Meanshift的迭代方程去完成的,其 迭代方程的公式如下所示。
[0038] 在上述公式中在不断迭代的过程中,就是从4开始不断向寻找颜 色变化比较的区域,然后朝着那个位置移动,知道其两者的具体小于所设定的阈值,那么迭 代结束,其现在处的位置就是在当前帧的目标的位置。
[0039] 其中,所述远程处理器根据预设条件在视频画面中标记出目标区域之后,所述方 法还包括: 所述远程处理器根据预设规则将目标区域的分割成多个镜头,获取每个镜头的关键 帧; 所述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像,包括: 所述远程处理器根据预设算法追踪每个所述镜头的运动目标,提取每个所述运动目标 的运动轨迹的每一帧图像; 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图像 上,生成视频摘要,包括: 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的镜头的关 键帧上,生成视频摘要。
[0040] 基于RGB颜色空间的镜头监测 RGB的颜色空间的基本理论就是将所有颜色都是由红、绿、蓝三种基色的线性组个合 成的。这种定义的颜色空间相当于以红、绿、蓝为基的一个三维空间中,而作为这个三维空 间的每个基的取值范围只能是_:,之间。而且在这个颜色空间中,现实中的颜色直接 差异和颜色空间山对应的距离不能够成为一种线性关系。
[0041] 根据RGB颜色空间对突变镜头进行监测,其建立的原始模型:在颜色空间中,将其 分为_个子区间,其中作为瓜帧中属于第丨:个颜色区间的像素总数目,那么在孤帧 和β帧之间的距离表示如下:
计算出两帧之间的距离,在经过提前设定的阈值作为比较从而得到是否为镜头边界。 在另一种处理方法中就是计算两帧的颜色直方图去判定两帧之间的相似度从而去判定是 否为镜头边界。对于两针相似度计算方法主要是由如下公式所示:
在上述公式中,其中%.?为两帧图像得到的直方图之后归一化比例值,其中对应的 计算分别为:
其中4,,:?分别为视频帧A、B两幅图像得到直方图并且归一化的结果。
[0042]通过计算出两帧图像直方图的相似度,然后根据给定的阈值作比较,若是相似度 大于阈值则可判定不是镜头边界,反之可以判定这两帧之间为镜头边界。
[0043]将所述每个镜头的第一帧定义为关键帧。
[0044] 本发明实施例获取目标区域的运动目标,提取每个所述运动目标的运动轨迹的每 一帧图像,将所述运动目标的运动轨迹的每一帧图像都保存,将每个帧保存后就获得目标 区域的运动目标的视频信息,再将所述运动目标的运动轨迹叠加到当前分割镜头的关键帧 上,合成视频摘要。因此,与现有技术的监控视频中还有大量的非关注区域的视频信息相 比,能更精确的找到感兴趣的视频,并且也减少了视频的大小,使工作人员把更多的注意力 放在关注区域,减少注意力分散。
[0045] 在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以 通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分, 仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可 以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨 论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接 耦合或通信连接,可以是电性,机械或其它的形式。
[0046] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显 示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个 网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目 的。
[0047] 另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以 是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
[0048] 所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以 存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说 对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计 算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个 人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。 而前述的存储介质包括:U盘、移动硬盘、只读存储器(R0M,Read-0nly Memory)、随机存取存 储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0049] 需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实 体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存 在任何这种实际的关系或者顺序。而且,术语"包括"、"包含"或者其任何其他变体意在涵盖 非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要 素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备 所固有的要素。在没有更多限制的情况下,由语句"包括一个……"限定的要素,并不排除在 包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0050] 以上所述,仅为本发明的【具体实施方式】,但本发明的保护范围并不局限于此,任何 熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵 盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
【主权项】
1. 一种火灾监测方法,其特征在于,应用于火灾监测系统,所述系统包括:摄像头和远 程处理器,所述方法包括: 所述远程处理器获取所述摄像头采集的待监测区域的视频画面; 所述远程处理器根据预设条件在视频画面中标记出目标区域; 所述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像; 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图像 上,生成视频摘要。2. 根据权利要求1所述的火灾监测方法,其特征在于,所述远程处理器根据预设算法追 踪所述目标区域的多个运动目标,提取每个所述运动目标的运动轨迹的每一帧图像,包括: 根据高斯混合模型算法的前景预测算法获取目标区域的多个运动目标,获取所找到的 运动目标的运动轨迹的每一个图像帧并保存。3. 根据权利要求1所述的火灾监测方法,其特征在于,所述远程处理器根据预设条件在 视频画面中标记出目标区域之后,所述方法还包括: 所述远程处理器根据预设规则将目标区域的分割成多个镜头,获取每个镜头的关键 帧; 所述远程处理器根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像,包括: 所述远程处理器根据预设算法追踪每个所述镜头的运动目标,提取每个所述运动目标 的运动轨迹的每一帧图像; 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图像 上,生成视频摘要,包括: 所述远程处理器将每个运动目标的所有帧图像叠加至所述运动目标对应的镜头的关 键帧上,生成视频摘要。4. 根据权利要求3所述的火灾监测方法,其特征在于,所述远程处理器根据预设规则将 目标区域的分割成多个镜头,包括: 所述远程处理器通过基于RGB的颜色直方图算法判断在时间轴上相邻的两个帧之间的 相似度是否小于预设的第一阈值,若是,判定两帧属于不同的两个镜头; 在所判定为属于不同的两个镜头的两帧之间设置镜头边界; 根据所设置的多条镜头边界将所述目标区域的视频分割成多个分割镜头。5. 根据权利要求3所述的火灾监测方法,其特征在于,所述的获取每个镜头的关键帧, 包括: 将所述每个镜头的第一帧定义为关键帧。6. -种火灾监测系统,其特征在于,包括:摄像头和远程处理器,所述远程处理器包括: 获取单元,用于获取所述摄像头采集的待监测区域的视频画面; 标记单元,用于根据预设条件在视频画面中标记出目标区域; 追踪单元,用于根据预设算法追踪所述目标区域的多个运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像; 摘要生成单元,用于将每个运动目标的所有帧图像叠加至所述运动目标对应的背景图 像上,生成视频摘要。7. 根据权利要求6所述的火灾监测系统,其特征在于,所述追踪单元包括: 第一计算子单元,用于根据高斯混合模型算法的前景预测算法获取目标区域的多个运 动目标,获取所找到的运动目标的运动轨迹的每一个图像帧并保存。8. 根据权利要求6所述的火灾监测系统,其特征在于,所述远程处理器还包括: 分割单元,用于在所述远程处理器根据预设条件在视频画面中标记出目标区域之后, 根据预设规则将目标区域的分割成多个镜头,获取每个镜头的关键帧; 所述追踪单元还用于根据预设算法追踪每个所述镜头的运动目标,提取每个所述运动 目标的运动轨迹的每一帧图像; 所述摘要生成单元,还用于将每个运动目标的所有帧图像叠加至所述运动目标对应的 镜头的关键帧上,生成视频摘要。9. 根据权利要求8所述的火灾监测系统,其特征在于,所述分割单元包括: 第二计算子单元,用于通过基于RGB的颜色直方图算法判断在时间轴上相邻的两个帧 之间的相似度是否小于预设的第一阈值,若是,判定两帧属于不同的两个镜头; 设置子单元,用于在所判定为属于不同的两个镜头的两帧之间设置镜头边界; 划分子单元,用于根据所设置的多条镜头边界将所述目标区域的视频分割成多个分割 镜头。10. 根据权利要求8所述的火灾监测系统,其特征在于,所述的获取每个镜头的关键帧, 包括: 将所述每个镜头的第一帧定义为关键帧。
【文档编号】G06K9/46GK106096496SQ201610360552
【公开日】2016年11月9日
【申请日】2016年5月28日
【发明人】张维秀
【申请人】张维秀
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1