一种基于视觉标签识别的物品防盗检测方法

文档序号:9826401阅读:163来源:国知局
一种基于视觉标签识别的物品防盗检测方法
【技术领域】
[0001] 本发明属于图像处理技术领域,涉及计算机视觉,特别是涉及图像特征提取和图 像特征匹配,通过设定图像之间特征点的匹配点对个数来进行物品防盗检测。 技术背景
[0002] 物品防盗是视频监控系统的核心功能,传统的基于视频的物品防盗检测方法通常 是对视频序列进行背景建模和运动分割,需要对多帧图像进行分析,不仅运算速度比较慢, 而且可靠性低。当需要监控的物品发生部分遮挡,或视频采集的图像发生光照变化时,传统 的方法不能对物体进行准确的识别。
[0003] 根据提取特征信息的区域,低层视觉特征可以分为全局特征和局部特征。全局特 征使用简单有效,但是对图像的局部区域不能进行很好的描述,匹配正确率有限。局部特征 一般首先通过特征检测方法定位图像的特征点,再根据特征点的局部信息生成局部特征向 量描述符,由提取的多个局部特征向量描述符表示图像。一个好的局部特征描述符应该具 有很强的不变性和可区分性,比如使用比较多的SIFT特征,对图像旋转、尺度缩放、平移保 持不变性,对光照变化、仿射变换具有一定的适应性,鲁棒性比较好。因此对视频图像提取 局部特征,能够一定程度保证遮挡、光照变化等情况下的匹配正确率。
[0004] 本发明通过对需要监控的物品提取局部特征,建立视觉标签数据库,利用视频提 取的帧图像和数据库图像进行局部特征匹配,进行物品防盗检测。

【发明内容】

[0005] 本发明在于针对已有技术的不足,以及商业应用,提出一种基于视觉标签识别的 物品防盗检测方法,通过视频提取的帧图像和数据库图像进行局部特征匹配进行防盗检 测,提高检测的速度、可靠性以及准确性。
[0006] 为实现上述功能,本发明的方法包括如下步骤: (1)对需要检测的物体提取局部特征,建立视觉标签数据库,用于特征匹配。
[0007] (2)视频流固定时间间隔提取一帧图像。
[0008] (3)对图像提取相同的局部特征,与视觉标签数据库的特征文件进行匹配,并去除 错误的匹配点对。
[0009] (4)设定匹配点对个数的阈值,若计算匹配点对大于阈值,则正常;若小于阈值,则 进行报警提示。
[0010] 本方法对传统方法进行改进,其优点主要表现在以下几个方面: (1)不需要序列信息,只需采集单帧图像就可以进行物品防盗检测,能保证检测速度。
[0011] (2)采用局部不变特征匹配,在物体发生部分遮挡,光照变化条件下也可以进行准 确的检测与识别,保证检测的准确度。
【附图说明】
[0012] 图1是本发明的系统框图。
【具体实施方式】
[0013] 下面对本发明技术方法进行进一步详细描述,应该指出的是,所描述的实施例仅 旨在便于对本发明的理解,而对其不起任何限定作用。
[0014] 本发明包括如下步骤: 步骤1,建立监控物品视觉标签数据库。
[0015] (1. 1)采集需要监控的物品不同角度、不同光照条件下的多张图像。
[0016] (1. 2)视觉标签数据库为物品的特征描述子集合。
[0017] 步骤2,对采集图像提取局部特征(包括但不限于SIFT特征),并将提取的局部特 征保存为文件。
[0018] (2. 1)构建尺度空间,图像的尺度空间L(x, y, σ )定义为原始图像I (X,y)与一个 可变尺度的2维高斯函数G(x,y,〇)卷积运算: L(x, y, 〇 ) = G(x, y, σ ) *1 (x, y) 二维空间高斯函数为:
(x,y)为空间坐标,σ表示尺度。利用高斯差分DoG金字塔在尺度空间有效地检测稳 定的关键点,在某一尺度上,通过对两个相邻高斯尺度空间的相减,得到DoG的响应值图像 D(x,y,〇)并进行局部最大值搜索,在空间位置和尺度空间定位局部特征点。
[0019] (2. 2)检测DoG尺度空间极值点,每一个像素点和所有的相邻点进行比较,当大于 (或小于)图像空间和尺度空间的所有相邻点时,为极值点。比较范围为3X3的立方体,检 测点和同尺度的8个相邻点,以及上下相邻尺度的9X2个点,总共26个点比较,确保在二 维图像空间和尺度空间都检测到极值点。
[0020] (2. 3)极值点精确定位,通过对尺度空间DoG函数进行曲线拟合以精确确定关键 点的位置和尺度,同时去除低对比度的关键点和不稳定的边缘响应点,增强匹配稳定性,提 高抗噪声性能。
[0021] (2. 4)方向赋值,为了实现图像旋转不变性,利用关键点领域像素的梯度直方图的 分布特性进行方向赋值。(x,y)处梯度的模值和方向的公式如下所示,L所用的尺度σ为 关键点所在的尺度:
进行方向赋值,首先计算每个关键点邻域高斯图像的梯度,利用直方图进行邻域像素 梯度方向和模值的统计,直方图的峰值是该关键点邻域梯度的主方向。
[0022] (2. 5)关键点描述,为确保旋转不变性,以特征点为中心,将坐标轴旋转为关键点 的主方向。在关键点周围取16X16的邻域,并划分为4X4的子区域,在每个子区域计算梯 度直方图,形成一个具有8个方向梯度强度信息的种子点。每个关键点采用4 X 4个种子点, 形成128维的特征向量。
[0023] (2. 6)将图像的特征描述子保存为文件,为视觉标签数据库。
[0024] 步骤3,对监控视频固定时间间隔提取一帧图像。
[0025] (3. 1)考虑图像的处理速度,确定时间间隔。
[0026] (3. 2)对视频提取的一帧图像提取相同的局部特征。
[0027] 步骤4,将视频图像提取的局部特征与视觉标签数据库的特征文件进行匹配,计算 匹配点对个数。
[0028] (4. 1)采用关键点特征向量的欧式距离作为两幅图像关键点的相似性度量。
[0029] (4. 2)取视频图像中的某个关键点,找出与视觉标签数据库某个特征文件欧氏距 尚最近的如两个关键点。
[0030] (4. 3)在这两个关键点中,如果最近的距离除以次近的距离小于设定的比例阈值 ratio,则接受这一对匹配点。ratio取值可以在0. 4-0. 6之间。
[0031] (4. 4)计算视频图像与视觉标签数据库特征文件的匹配点对个数。
[0032] 步骤5,利用去除错误匹配点对算法RANSAC去除错误的匹配点数,记录特征匹配 点个数。
[0033] (5. 1)两幅图像的SIFT特征向量构成数据集,随机抽选4个匹配点对构成RANSAC 样本,并且根据匹配点对计算变换矩阵Μ。
[0034] (5. 2)根据计算的变换矩阵Μ和误差度量函数计算数据集中满足Μ的一致集 Consensus,并返回元素个数。
[0035] (5. 3)若返回一致集的元素个数大于当前一致集,则更新当前最优一致集。
[0036] (5. 4)更新当前错误概率p,如果p大于最小错误概率阈值则继续进行迭代,直到 P小于最小错误概率。
[0037] (5. 5)记录去除错误匹配对点之后的匹配个数。
[0038] 步骤6,比较匹配点对个数和阈值。
[0039] (6. 1)设定匹配点对个数的阈值,若计算匹配点对大于阈值,则正常。
[0040] (6. 2)若小于阈值,则进行报警提示。
【主权项】
1. 一种基于视觉标签识别的物品防盗检测方法,其特征在于,第一,不需要序列信息, 只需要采集单帧图像就可以进行物品防盗检测,第二,采用局部不变特征匹配,在物体发生 部分遮挡或光照变化条件下也可以进行准确的检测和识别,解决了传统方法中需要对视频 序列进行背景建模和运动分割的可靠性较低以及部分遮挡和光照变化等条件下无法进行 准确物体识别的问题。2. 包括如下步骤: 对需要检测的物体提取局部特征,建立视觉标签数据库,用于特征匹配; 视频流固定时间间隔提取一帧图像; 对图像提取相同的局部特征,与视觉标签数据库的特征文件进行匹配,并去除错误的 匹配点对; 设定匹配点对个数的阈值,若计算匹配点对大于阈值,则正常;若小于阈值,则进行报 警提示。
【专利摘要】本发明公开了一种基于视觉标签识别的物品防盗检测方法,通过视频提取帧图像和数据库进行局部特征匹配防盗检测,提高速度、可靠性及准确性。该方法克服了传统视频物品防盗检测方法对视频序列进行背景建模和运动分割的低可靠性及复杂环境条件下识别物体的准确性问题。实现步骤:(1)对检测物体提取局部特征,建立视觉标签数据库(2)视频流固定间隔提取帧图像(3)提取相同的局部特征,与视觉标签数据库进行匹配并去除错误的匹配点对(4)判断匹配点数是否超过阈值。本发明不需要序列信息,只需单帧图像就可进行物品防盗检测,提高检测速度;局部不变特征匹配可在物体部分遮挡或光照变化条件下进行检测与识别,保证检测准确度。
【IPC分类】G06T7/00, G06K9/00
【公开号】CN105590086
【申请号】CN201410651379
【发明人】李静, 赵磊, 黄韵, 聂永峰, 傅俊锋, 李增胜
【申请人】西安三茗科技有限责任公司
【公开日】2016年5月18日
【申请日】2014年11月17日
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1