一种基于动作子空间与权重化行为识别模型的行为识别方法

文档序号:6609428阅读:156来源:国知局
专利名称:一种基于动作子空间与权重化行为识别模型的行为识别方法
技术领域
本发明涉及的是一种基于动作子空间与权重化行为识别模型的行为识别方法。
背景技术
人类行为识别有着广泛的应用前景,如视频监控和监测、对象视频摘要、智能接口、人机交互、体育视频分析、视频检索等。吸引了越来越多计算机视觉研究者的关注。通常,行为识别涉及两个重要问题。其一是如何从原始视频数据中提取有用的运动信息,其二是如何建立运动参考模型,使训练和识别方法能有效地处理空间和时间尺度变化的类内类似行为。行为识别可以利用各种线索,例如,关键姿势、光流、局部描述符、运动轨迹或特征跟踪、轮廓等。但是使用关键帧缺乏运动信息。根据光流或兴趣点的行为识别在平滑的表面,运动奇异性和低质量的视频情况下是不可靠的。由于人体外表和关节出现大的变化,特征跟踪也并非容易实现。由于人类行为是一种时空行为,时空模型(如Hidden Markov Models, HMMs及其变种)已被广泛用于人体动作建模。然而,该生成模型通常使用了强烈的独立性假设,这使得它很难适应多种复杂的特征或观测中的远距离依赖关系。由Lafferty提出的条件随机场模型(CRFs)避免观察之间的独立性假设,同时将复杂的特征和远距离依赖关系融合进模型中。参考文献[I]S. Wang,Q. Ariadna,L. P. Morency,et al. Hidden conditional random fieldsfor gesture recognition[C]. CVPR, US New York, 2006, 2 :1521-1527.[2] Z. ff. Wang, S. Z. Li , S. Z. Su , et al. A quickly-speed runningwatermarkingalgorithm based on quantum evolutionary algorithm[J]. Journal ofOptoelectronics Laser,2010,21(5) :737-742.[3]G. V. Veres, L. Gordon, J. N. Carter, et al. What image information isimportant in silhouette-based gait recognition [C]·CVPR, US -Washington, DC,2004,2 :776-782.[4]Y. Dedeoglu, B. U. Toreyin, U. Giidiikbay, et al. Silhouette-based methodforobject classification and human action recognition in video[C]. ECCV2006fforkshop on HCI, Austria Graz,2006 :64-77.[5]L. wang,d. suter. Recognizing Human Activities from Silhouettes MotionSubspace and Factorial Discriminative Graphical Model[C]· US-Minneapolis, MN,CVPR,2007 l-8.[6]C. Schuldt, I. Laptev, and B. Caputo. Recognizing human actions a localSVM approach [C]. ICPR, UK Cambridge, 2004, 3 :32-36.
[7] N. Nguyen, D. Phung, S. Venkatesh, et al. Learning and detectingactivities from movement trajectories using the hierarchical hidden Markovmodels[C], CVPR, US San Diego, CA,2005,2 :955-960.[8] J. Ben-Arie, Z. Wang, P. Pandit, et al. Human activity recognition usingmultidimensional indexing[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence,2002,24(8) :1091-1104.[9]A.Bobick and J.Davis, The recognition of human movement usingtemporal templates[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence,2001,23(3) :257-267.[10]L. Gorelick, M. Blank, E. Shechtman, et al. Action as space-timeshapes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(12) :2247-2253.[11]M. Brand, N. Oliver and A. Pentland. Coupled hidden Markov models forcomplexaction recognition [C]. CVPR, US San Juan, PR,1997 :994-999.[12]C. Sutton, A. McCallum, K. Rohanimanesh. Dynamic conditional randomfields :Factorized probabilistic models for labeling and segmenting sequencedata[J] · Journal of Machine Learning Research,2007,8 :693-723.[13]B. Scholkopf,A. Smola,and K. Muller. Nonlinear component analysis as akernel eigenvalue problem[J]. Neural Computation,1998,10 (5) :1299-1319.[14] J. C. Niebles, H. C. Wang, F. F. Li. Unsupervised learning of human actioncategories using spatial-temporal words[J]. International Journal of ComputerVision,2008,79(3) :299-318.[15] A. Veeraraghavan, R.Chellappa,and A. K. Roy-Chowdhury, The functionspace of an activity [C]. CVPR, US New York,2006,I :959-966.

发明内容
本发明在此基础上提出了具有联合判别学习能力的基于动作子空间与权重化行为识别模型的行为识别方法。使用KPCA来发现关节动作空间的内在结构,并利用权重化条件随机场从简单的轮廓观察中识别人类行为。实验结果证明了提出方法的有效性和鲁棒性。本发明的技术方案如下一种基于动作子空间与权重化行为识别模型的行为识别方法,包括以下步骤A1,输入待测试的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;A2,提取运动目标的轮廓并对轮廓特征进行相应表示;A3,利用KPCA算法在核引导子空间中对高维特征实现非线性降维,在低维空间中进行行为轨迹的映射;A4,利用行为识别模型即WCRF模型进行行为识别。所述的行为识别方法,所述步骤A2具体方法为,等距划分每个轮廓图像为hXw个互不重叠的子块;然后用Ni = b(i)/mv, i = 1,2,…,hXw计算每个子块的归一化值,其中,b(i)是第i个分块的前景像素数目,mv是所有b(i)的最大值;在空间中,第t帧的轮廓描述符是ft = [N1, N2, ···, NhXw]T,整个视频相应表示为
权利要求
1.一种基于动作子空间与权重化行为识别模型的行为识别方法,其特征在于,包括以下步骤:A1,输入待测试的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;A2,提取运动目标的轮廓并对轮廓特征进行相应表示;A3,利用KPCA算法在核引导子空间中对高维特征实现非线性降维,在低维空间中进行行为轨迹的映射;A4,利用行为识别模型即WCRF模型进行行为识别。
2.根据权利要求I所述的行为识别方法,其特征在于,所述步骤A2具体方法为,等距划分每个轮廓图像为hXw个互不重叠的子块;然后用Ni = b(i)/mv, i = 1,2,…,hXw计算每个子块的归一化值,其中,b(i)是第i个分块的前景像素数目,mv是所有b(i)的最大值;在Sihxw空间中,第t帧的轮廓描述符是ft = [N1, N2,…,Nhxw]τ,整个视频相应表示为vf = {f1; f2, ... fT}。
3.根据权利要求I所述的行为识别方法,其特征在于,所述步骤A3具体方法为,设k是一个半正定核函数,通过式(I)定义两个向量5,和勺之间的非线性关系。
4.根据权利要求I所述的行为识别方法,其特征在于,所述步骤Α4中所述的WCRF模型,利用下述方法进行行为建模设S1,,是L链的WCRF中链I在时间t的变量,隐状态的分布定义为
全文摘要
本发明公开了一种基于动作子空间与权重化行为识别模型的行为识别方法,包括以下步骤A1,输入待测试的行为视频序列,利用动态背景检测方法或静态背景检测方法来检测背景图像,利用减背景方法来获取前景图像;A2,提取运动目标的轮廓并对轮廓特征进行相应表示;A3,利用KPCA算法在核引导子空间中对高维特征实现非线性降维,在低维空间中进行行为轨迹的映射;A4,利用行为识别模型即WCRF模型进行行为识别。实验结果表明,提出的框架不仅能够准确地识别随时间、区域内外人员变化的人类行为,而且对噪声和其它影响因素鲁棒性强。
文档编号G06K9/62GK102938070SQ201210345589
公开日2013年2月20日 申请日期2012年9月11日 优先权日2012年9月11日
发明者王智文, 刘美珍, 夏冬雪, 蔡启先, 李绍滋, 唐新来, 罗功坤, 阳树洪, 廖志高 申请人:广西工学院, 王智文
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1