一种多视角多状态的步态识别方法

文档序号:6431865阅读:162来源:国知局
专利名称:一种多视角多状态的步态识别方法
技术领域
本发明属于模式识别技术领域,具体涉及一种多视角多状态的步态识别方法。
背景技术
步态即人的行走方式。人在行走过程中上肢、下肢关节处呈现有规律的变化,这种变化反映了个体独有的运动方式,能够有效进行身份识别。通过对步态的分析,我们可以得到身份、性别、种族等多种有用信息。最近几十年来,大量的监控摄像头已经被安装于银行、商场、地铁站、监狱等场所, 这些安全敏感场合迫切需要一种智能化的预警手段。人工的监控手段已经不符合当前的安全需要,因为这不仅耗费大量的人力财力,而且监控人员的生理视觉疲劳也使得安全预警的目的很难达到。理想的智能监控系统应该能够自动的分析摄像机采集到的图像数据,在恶性事件尚未发生前进行预警,最大限度的减少人员伤害和经济损失。比如,发生恶性事件时立即确定场景内所有人的身份信息,对犯罪嫌疑人进行跨区域跟踪,出现通缉犯时及时报告等。这就要求监控系统不仅能判断人的数量、位置和行为,而且还需要分析这个人的身份特征信息。而人脸、指纹、虹膜等生物特征受到分辨率低、需主动配合、要求特殊采集设备等因素的影响,在智能视频监控中往往不能达到好的效果。由于步态是一种可以从远距离获取的难于隐藏和伪装的生物特征,其识别技术已经成为计算机视觉与模式识别中一个重要研究方向。在监控场景中进行步态识别时,最大的难点在于视角变化所带来的影响。由于监控摄像头的位置差异和人行走方向的改变,视角问题是步态识别无法逃避的问题。从目前的研究来看,很多识别方法在固定视角下可以取得很好的性能,却在视角变化较大时无法适用。并且,如果获取的行人的视频较短,导致不能获取完整的步态周期时,很多已有方法性能也会大大降低甚至失效。

发明内容
针对现有技术在多视角步态识别问题上需要在待识别的视角下有完整的步态周期,而在很多监控场景中无法获取到如此长的行走视频,步态识别很难在实际应用中推广; 且对整个周期的特征进行分析会丢掉很多局部信息,难以对步态运动的变化过程进行准确描述,识别率低等缺点,为了解决现有技术的问题,本发明的提供一种多视角多状态的步态识别方法。一种多视角多状态的步态识别方法,其特征在于具体包括以下几个步骤步骤一对训练集里多个已知视角的多段步态视频进行轮廓提取和时间同步,对不同视角下的多状态模型进行参数估计,建立表象期望值、视角、状态和身份之间的投影关系;(1)对训练集里每一个人在不同视角下的行走视频,顺次通过前景检测、形态学滤波和归一化处理,提取每一个人各视角下的人体步态轮廓序列;
(2)采用局部线性嵌入、互相关系数分析和序列平移的方法,将获得的各个视角的人体步态轮廓序列进行时间上的同步;(3)在训练集中选择一个视角作为基础视角,根据该基础视角的所有人的人体步态轮廓序列,建立一个包含状态间的转移参数和各状态的表象参数的多状态模型来表征该基础视角下的步态特性;状态间的转移参数表征各状态之间的转移关系,各状态的表象参数表征各状态下表现出来的步态特征;各个视角下的多状态模型选择隐马尔可夫-混合高斯模型,其状态间的转移参数用维数为状态数的转移概率矩阵表示,各状态的表象参数用混合高斯模型表示,使用波氏估计算法得到基础视角下的状态间的转移参数和各状态的表象参数,得到多状态模型;(4)建立训练集里除基础视角以外其他所有视角的多状态模型,其状态间的转移参数直接由基础视角下多状态模型中的状态间的转移参数复制得到,对于各状态的表象参数,先采用步骤一(3)中基础视角下的多状态模型对基础视角的所有人体步态轮廓序列进行维特比解码求出人体步态轮廓序列中各帧的状态,按照各帧状态的不同,将基础视角下的所有人体步态轮廓序列分成若干子序列,分割后的每个子序列内的所有帧拥有同一状态,然后将步骤一 O)中时间同步后的其他所有视角下的所有人体步态轮廓序列依照基础视角下的分割产生各状态的子序列进行分割,再以这些其他所有视角下的各状态的子序列为样本,用混合高斯模型的期望最大化算法估计出其他所有视角下的各状态的表象参数, 根据状态间的转移参数和各状态的表象参数,得到除基础视角以外其他所有视角的多状态模型;(5)由步骤一 C3)和步骤一(4)中获得的各个视角下的多状态模型,用维特比解码得到各个视角下的所有人体步态轮廓序列各帧的状态,获得每一个人的各视角下的各状态的表象期望值,并在表象期望值、视角、状态和身份这四个维度的张量空间中进行奇异值分解,得到表象期望值、视角、状态、身份之间的投影关系;所述的表象期望值、视角、状态、身份之间的投影关系的建立是将整个训练集表示为张量积形式G,其中,S是由张量奇异值分解得到的张量核,Ufeature, Ustance, Uview, UpCTS。n分别是表象期望值、视角、状态和身份这四个维度的投影矩阵G = SX !Ufeature X 2Ustance X 3Uview X 4UpersonS = Gx,UTf t X9 UTt χ, Ut x,Ut
Lw ι τ」ι feature 2 stance 3 view 4 person步骤二对原型集里每一个人的一段或多段人体步态轮廓序列进行视角估计,将提取的步态特征输入到估计视角下的步骤一得到的多状态模型,从表象期望值、视角、状态、身份之间的投影关系获得身份信息;(1)从原型集里每一个人的所有行走视频中提取出一个或多个待识别人体步态轮廓序列,由步骤一获得的各个视角的多状态模型计算后验概率,对于每个人体步态轮廓序列按最大后验概率策略选出模型后验概率最大的视角,作为各人体步态轮廓序列的估计视角,待识别人体步态轮廓序列的提取过程与步骤一(1)相同;(2)根据原型集里各个人体步态轮廓序列以及步骤一获得的各人体步态轮廓序列的估计视角下的多状态模型,对各人体步态轮廓序列提取出各人体步态轮廓序列的估计视角下的各状态的表象期望值,各状态的表象期望值的提取过程与步骤一( 相同;(3)根据步骤二( 提取出的原型集里每一个人的一个或多个视角、一个或多个状态的表象期望值,以及步骤一(5)中获得的表象期望值、视角、状态、身份之间的投影关系计算出原型集中所有人的身份向量,身份向量的计算过程是将原型集中每一个人的一个或多个视角、一个或多个状态的表象期望值形成一个待识别张量P,将其向第4维度身份维度上展开得到与P数据量相同、维度组合不同的中间变量P4,用Cstanre只含有1和0的单位向量组成的矩阵表示此人现有的所有状态,用Cvirat只含有1和0的单位向量组成的矩阵表示此人现有的所有视角;将^、Ufeature x2 CrstanceUstance X3 Cv^tZiw在第4维度上求逆,再乘上中
间变量 P4 得到身份向量Mpersan = pA xI (S xI U feature X2 ClanceU stance X3 CLWUVleJ+4 ;步骤三对测试集里多个人的一段或多段的人体步态轮廓序列进行视角估计,将提取的步态特征输入到步骤一训练得到的多视角下的多状态模型,从训练集中的表象期望值、视角、状态、身份之间的投影关系获得身份信息,与原型集里已有的所有身份向量进行比对,得到是原型集中的哪一个人;(1)从测试集里每一个人的所有行走视频中提取出一个或多个待识别人体步态轮廓序列,由步骤一获得的训练集中的各个视角的多状态模型计算后验概率,对于每个人体步态轮廓序列按最大后验概率策略选出模型后验概率最大的视角,作为各人体步态轮廓序列的估计视角,待识别人体步态轮廓序列的提取过程与步骤一(1)相同,视角估计过程与步骤二 (1)相同;(2)根据测试集里各个人体步态轮廓序列以及步骤一获得的各序列的估计视角下的多状态模型,对各人体步态轮廓序列提取出各序列的估计视角下的该状态的表象期望值,各状态的表象期望值的提取过程与步骤一( 相同;(3)根据步骤三(2)提取出的测试集里每一个人的一个或多个视角、一个或多个状态的表象期望值,与步骤一中获得的表象期望值、视角、状态、身份之间的投影关系计算出测试集中的身份向量将测试集中每一个行人的一个或多个视角、一个或多个状态的表象期望值堆砌成一个待识别张量Q,将其向第4维度身份维度上展开得到与M数据量相同、维度组合方式不同的中间变量(^;用队^^只含有1和0的单位向量组成的矩阵表示此人现有的所有状态;Dvirat只含有1和0的单位向量组成的矩阵表示此人现有的所有视角;Dvi 和Dstanre的组成与步骤二 O)中的Cview和Cstanre相同;将 ^xI Ufeature X2 DlanceUstance X3在第4维度上求逆,再乘上A求得身份向量I·;一 = Q4 X1 (S X1 Ufeature x2 DlanceUstance X3 DtviJJvwX对测试集的每一个人,将得到的身份向量与原型集的所有身份向量计算欧式距离,并用最近邻法在原型集里找出最佳匹配项,若与最佳匹配项的距离大于阈值,则视为在原型集里没有此人,否则将找到的最佳匹配项作为最终识别结果,身份向量的计算过程与步骤二⑶相同,得到了测试集的所有人的身份向量,若此人已被包含在原型集则给出最佳匹配项,否则在原型集里没有此人的记录。本发明的优点在于(1)本发明提出一种多视角多状态的步态识别方法,与现有的基于整个步态周期的方法不同,本发明以单个状态作为最小单位,更加准确的建模步态运动的变化过程并用于识别。(2)本发明提出一种多视角多状态的步态识别方法,训练出各个视角下的多状态模型,能够估计待识别视频的步态视角。(3)本发明提出一种多视角多状态的步态识别方法,不需要完整的步态周期,自动的对状态进行尽可能多的提取,达到准确识别的目的。(4)本发明提出一种多视角多状态的步态识别方法,得到的身份向量与视角、状态等因素无关,便于存储和比对。


图1 本发明提出的一种多视角多状态的步态识别方法的流程示意图;图2 本发明中采用CASIA-B数据库在各个状态数的识别率的影响示意图。图3 本发明中CASIA-B数据库中一个人在18度、54度、108度、1 度的5个状态
期望值;图4-A 本发明中采用CASIA-B数据库,训练集包含所有的11个视角,原型集所有人的视角为90度,测试集中所有人的视角为除90度以外的其他单一视角时,应用本发明的方法进行识别实验的识别率;图4-B 采用CASIA-B数据库,训练集包含所有的11个视角,测试集中所有人的视角为90度,原型集中所有人的视角为除90度以外的其他单一视角时,应用本发明进行识别实验。
具体实施例方式下面将结合附图对本发明作进一步的详细说明。本发明提供的一种多视角多状态的步态识别方法,如图1所示,具体包括以下几个步骤步骤一对多个已知视角的多段步态视频进行轮廓提取和时间同步,对不同视角下的多状态模型进行参数估计,建立表象期望值、视角、状态和身份之间的投影关系;(1)对训练集里每一个人在不同视角下的行走视频,顺次通过前景检测、形态学滤波和归一化处理,提取每一个人各视角下的人体步态轮廓序列;所述的视角为摄像机与行走平面(人的行走方向和站立竖直方向构成的平面) 的三维夹角关系,例如以行走方向为χ轴正方向,站立竖直方向为y轴正方向,另一与行走平面垂直的方向为ζ轴正方向,将摄像机与这三个轴所成的夹角作为视角;所述的训练集为已经采集到的多个人的行走视频集合,其中每个人均具有同样多的相同视角下的行走视频,视频的帧数可以不同,每个视角下的行走视频均是连续拍摄得到的;所述的前景检测为使用背景建模的方法对视频中的行人进行检测和提取,得到前景区域,优选混合高斯模型这一最常用的背景建模方法;所述的形态学滤波为对前景检测出的前景区域进行形态学滤波(腐蚀和膨胀)操作,消除噪点并使该帧视频中联系紧密的前景区域形成连通区域提取出前景像素最多的连通区域的最小临接矩形作为行人的边界框。所述的归一化处理为将每帧边界框内按照前景和背景的区域划分进行二值化处理形成初始轮廓图像,再将初始轮廓图像缩放到一定像素高度(优选为5-1000像素高度),并同时保持初始轮廓图像高度和宽度的比例不变,然后将缩放后的初始轮廓图像置于一定大小(高度优选为5-1000像素高度,宽度优选为4-800像素高度)的另一个二值空白图像的中心位置,使初始轮廓图像的中心点和二值空白图像的中心点重合,保存在这个二值空白图像上生成新的人体步态轮廓图像,对各帧顺序进行,得到人体步态轮廓序列;所述人体步态轮廓序列中的每一帧是包含二值实心轮廓的矩形图像,优选前景(人体)区域的像素值为1,背景区域的像素值为0;。(2)采用局部线性嵌入、互相关系数分析和序列平移的方法,将步骤一(1)中获取到的各个视角的人体步态轮廓序列进行时间上的同步。用1···η为对视角进行编号,i为其中任意一个视角。对于第i个视角而言,如果i不等于1或n,则与它相邻的两个视角的编号为i-Ι和i+Ι ;否则,即i等于1或η时,只有一个相邻视角。用Xi表示第i个视角下的步态轮廓序列,Hii表示对Xi平移的帧数,C1 (Xi^Xymi)表示在对第i视角下的人体步态轮廓序列Xi平移Hli帧后,第i_l个视角下的步态轮廓序列Xp1和第i个视角下的平移后的步态轮廓序列Xi的互相关系数,c2 (Ummi)表示在对第i视角的人体步态轮廓序列Xi平移 Hii帧后第i个视角下的平移后的步态轮廓序列Xi和第i+Ι个视角下的步态轮廓序列的互相关系数,Ni表示第i个视角与第i_l个视角下的人体步态轮廓序列的长度最小值,Ni' 表示第i个视角与第i+Ι个视角下的人体步态轮廓序列长度最小值,Hii表示需要平移而达到同步的平移量,j表示互相关性系数计算过程的序列中的帧号,Yi, j表示第i个视角与第 i-Ι个视角的人体步态轮廓序列通过局部线性嵌入(LLE)得到的第i个视角的一维实数序列中的第j帧,1’ i.j表示第i个视角与第i+Ι个视角的人体步态轮廓序列通过局部线性嵌入得到的第i个视角的一维实数序列的第j帧。第i视角与相邻两视角的相关性f (i, Hli)可以表示为
权利要求
1. 一种多视角多状态的步态识别方法,其特征在于具体包括以下几个步骤步骤一对训练集里多个已知视角的多段步态视频进行轮廓提取和时间同步,对不同视角下的多状态模型进行参数估计,建立表象期望值、视角、状态和身份之间的投影关系;(1)对训练集里每一个人在不同视角下的行走视频,顺次通过前景检测、形态学滤波和归一化处理,提取每一个人各视角下的人体步态轮廓序列;(2)采用局部线性嵌入、互相关系数分析和序列平移的方法,将获得的各个视角的人体步态轮廓序列进行时间上的同步;(3)在训练集中选择一个视角作为基础视角,根据该基础视角的所有人的人体步态轮廓序列,建立一个包含状态间的转移参数和各状态的表象参数的多状态模型来表征该基础视角下的步态特性;状态间的转移参数表征各状态之间的转移关系,各状态的表象参数表征各状态下表现出来的步态特征;各个视角下的多状态模型选择隐马尔可夫-混合高斯模型,其状态间的转移参数用维数为状态数的转移概率矩阵表示,各状态的表象参数用混合高斯模型表示,使用波氏估计算法得到基础视角下的状态间的转移参数和各状态的表象参数,得到多状态模型;(4)建立训练集里除基础视角以外其他所有视角的多状态模型,其状态间的转移参数直接由基础视角下多状态模型中的状态间的转移参数复制得到,对于各状态的表象参数, 先采用步骤一(3)中基础视角下的多状态模型对基础视角的所有人体步态轮廓序列进行维特比解码求出人体步态轮廓序列中各帧的状态,按照各帧状态的不同,将基础视角下人体步态轮廓序列分成若干子序列,分割后的每个子序列内的所有帧拥有同一状态,然后将步骤一 O)中时间同步后的其他所有视角下的所有人体步态轮廓序列依照基础视角下的分割产生各状态的子序列进行分割,再以这些其他所有视角下的各状态的子序列为样本, 用混合高斯模型的期望最大化算法估计出其他所有视角下的各状态的表象参数,根据状态间的转移参数和各状态的表象参数,得到除基础视角以外其他所有视角的多状态模型;(5)由步骤一C3)和步骤一(4)中获得的各个视角下的多状态模型,用维特比解码得到各个视角下的所有人体步态轮廓序列各帧的状态,获得每一个人的各视角下的各状态的表象期望值,并在表象期望值、视角、状态和身份这四个维度的张量空间中进行奇异值分解, 得到表象期望值、视角、状态、身份之间的投影关系;所述的表象期望值、视角、状态、身份之间的投影关系的建立是将整个训练集表示为张量积形式G,其中,S是由张量奇异值分解得到的张量核,Ufeature, Usctance, Uview, Uperson分别是表象期望值、视角、状态和身份这四个维度的投影矩阵G — SXiUfeatureX2UstanceX3UvierX4UpersonS = GxMl f x0 UTt χ, Ut xd Ut1 feature 2 stance 3 view 4 person步骤二 对原型集里每一个人的一段或多段人体步态轮廓序列进行视角估计,将提取的步态特征输入到估计视角下的步骤一得到的多状态模型,从表象期望值、视角、状态、身份之间的投影关系获得身份信息;(1)从原型集里每一个人的所有行走视频中提取出一个或多个待识别人体步态轮廓序列,由步骤一获得的各个视角的多状态模型计算后验概率,对于每个人体步态轮廓序列按最大后验概率策略选出模型后验概率最大的视角,作为各人体步态轮廓序列的估计视角, 待识别人体步态轮廓序列的提取过程与步骤一(1)相同;2(2)根据原型集里各个人体步态轮廓序列以及步骤一获得的各人体步态轮廓序列的估计视角下的多状态模型,对各人体步态轮廓序列提取出各人体步态轮廓序列的估计视角下的各状态的表象期望值,各状态的表象期望值的提取过程与步骤一( 相同;(3)根据步骤二( 提取出的原型集里每一个人的一个或多个视角、一个或多个状态的表象期望值,以及步骤一(5)中获得的表象期望值、视角、状态、身份之间的投影关系计算出原型集中所有人的身份向量,身份向量的计算过程是将原型集中每一个人的一个或多个视角、一个或多个状态的表象期望值形成一个待识别张量P,将其向第4维度身份维度上展开得到与P数据量相同、维度组合不同的中间变量P4,用Cstanre只含有1和0的单位向量组成的矩阵表示此人现有的所有状态,用Cvirat只含有1和0的单位向量组成的矩阵表示此人现有的所有视角;将SX1 Ufeature x2 CrstanceUstance X3在第4维度上求逆,再乘上中间变量 R1 得到身份向量。 'U =Pa X, (Sx, Uf f X9 Crf Ut X5 Cr υ . )+4 ; 步骤三对测试集里多个人的一段或多段的人体步态轮廓序列进行视角估计,将提取的步态特征输入到步骤一训练得到的多视角下的多状态模型,从训练集中的表象期望值、 视角、状态、身份之间的投影关系获得身份信息,与原型集里已有的所有身份向量进行比对,得到是原型集中的哪一个人;(1)从测试集里每一个人的所有行走视频中提取出一个或多个待识别人体步态轮廓序列,由步骤一获得的训练集中的各个视角的多状态模型计算后验概率,对于每个人体步态轮廓序列按最大后验概率策略选出模型后验概率最大的视角,作为各人体步态轮廓序列的估计视角,待识别人体步态轮廓序列的提取过程与步骤一(1)相同,视角估计过程与步骤二 (1)相同;(2)根据测试集里各个人体步态轮廓序列以及步骤一获得的各序列的估计视角下的多状态模型,对各人体步态轮廓序列提取出各序列的估计视角下的该状态的表象期望值,各状态的表象期望值的提取过程与步骤一( 相同;(3)根据步骤三( 提取出的测试集里每一个人的一个或多个视角、一个或多个状态的表象期望值,与步骤一中获得的表象期望值、视角、状态、身份之间的投影关系计算出测试集中的身份向量将测试集中每一个行人的一个或多个视角、一个或多个状态的表象期望值堆砌成一个待识别张量Q,将其向第4维度身份维度上展开得到与M数据量相同、 维度组合方式不同的中间变量Q4 ;用Dstanre只含有1和0的单位向量组成的矩阵表示此人现有的所有状态;Dview只含有1和0的单位向量组成的矩阵表示此人现有的所有视角;Dview 和 Dstanre 的组成与步骤二 ⑵中的 Cview 和 Cstanre 相同;将S X1 Ufeatum x2 DlanceUstance X3 DrviewUview在第4维度上求逆,再乘上&求得身份向量;ν 对测试集的每一个人,将得到的身份向量与原型集的所有身份向量计算欧式距离,并用最近邻法在原型集里找出最佳匹配项,若与最佳匹配项的距离大于阈值,则视为在原型集里没有此人,否则将找到的最佳匹配项作为最终识别结果,身份向量的计算过程与步骤二 C3)相同,得到了测试集的所有人的身份向量,若此人已被包含在原型集则给出最佳匹配项,否则在原型集里没有此人的记录。
2.根据权利要求1所述的一种多视角多状态的步态识别方法,其特征在于所述的步骤一(1)中前景检测为使用背景建模的方法对视频中的行人进行检测和提取,得到前景区域;所述的形态学滤波为对前景检测出的前景区域进行形态学滤波操作,消除噪点并使该帧视频中联系紧密的前景区域形成连通区域,提取出前景像素最多的连通区域的最小临接矩形作为行人的边界框;所述的归一化处理为将每帧边界框内按照前景和背景的区域划分进行二值化处理,形成初始轮廓图像,再将初始轮廓图像缩放到像素高度,同时保持初始轮廓图像高度和宽度的比例不变,然后将缩放后的初始轮廓图像置于一个二值空白图像的中心位置,使初始轮廓图像的中心点和二值空白图像的中心点重合,保存在这个二值空白图像上生成新的人体步态轮廓图像,对各帧顺序进行,得到人体步态轮廓序列。
3.根据权利要求1所述的一种多视角多状态的步态识别方法,其特征在于所述的步骤一(2)中各个视角的人体步态轮廓序列进行时间上的同步具体为用1···η为对视角进行编号,i为其中任意一个视角;若i不等于1或n,与第i视角相邻的两个视角的编号为i_l 和i+Ι ;若i等于1或n,只有一个相邻视角;用Xi表示第i个视角下的步态轮廓序列,Hli表示对Xi平移的帧数;Cl (Xh,Xi, Hli)表示在对第i视角下的人体步态轮廓序列Xi平移Hli帧后,第i_l个视角下的步态轮廓序列Xh和第i个视角下的平移后的步态轮廓序列Xi的互相关系数;c2 (Xi, Xi+1, Hli)表示在对第i视角的人体步态轮廓序列Xi平移Hli帧后第i个视角下的平移后的步态轮廓序列Xi和第i+Ι个视角下的步态轮廓序列Xi+1的互相关系数;Ni 表示第i个视角与第i_l个视角下的人体步态轮廓序列的长度最小值;Ni'表示第i个视角与第i+Ι个视角下的人体步态轮廓序列长度最小值M表示需要平移而达到同步的平移量,j表示互相关性系数计算过程的序列中的帧号;yy表示第i个视角与第i_l个视角的人体步态轮廓序列通过局部线性嵌入得到的第i个视角的一维实数序列中的第j帧;yi,/ 表示第i个视角与第i+Ι个视角的人体步态轮廓序列通过局部线性嵌入得到的第i个视角的一维实数序列的第j帧;第i视角与相邻两视角的相关性f(i,πι,)表示为
4.根据权利要求1所述的一种多视角多状态的步态识别方法,其特征在于所述步骤三(3)中阈值的选定方法为先将测试集里每个人的身份向量分别与其在原型集里的最佳匹配项的身份向量计算欧式距离,以这些欧式距离的均值的作为类内距离,再获得原型集里任意两个两个身份向量之间的距离,以这些距离的均值的作为类间距离,以类内距离和类间距离的均值作为阈值。
全文摘要
本发明提出一种多视角多状态的步态识别方法,包括对训练集里步态视频进行轮廓提取和时间同步,建立表象期望值、视角、状态和身份之间的投影关系;对原型集人体步态轮廓序列进行视角估计,从表象期望值、视角、状态、身份之间的投影关系获得身份信息;对测试集里人体步态轮廓序列进行视角估计,从训练集中的表象期望值、视角、状态、身份之间的投影关系获得身份信息,与原型集里已有的所有身份向量进行比对,判断得到是原型集中的哪一个人。与现有的基于整个步态周期的方法不同,本发明以单个状态作为最小单位,更加准确的建模步态运动的变化过程并用于识别,训练出各个视角下的多状态模型,能够估计待识别视频的步态视角。
文档编号G06K9/00GK102426645SQ20111025228
公开日2012年4月25日 申请日期2011年8月30日 优先权日2011年8月30日
发明者刘建芸, 张兆翔, 王蕴红, 胡懋地 申请人:北京航空航天大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1