一种运动状态的识别方法及装置与流程

文档序号:12721227阅读:267来源:国知局
一种运动状态的识别方法及装置与流程

本发明实施例涉及运动识别技术领域,尤其涉及一种运动状态的识别方法及装置。



背景技术:

人体运动识别技术在在智能安全监控系统、体育运动分析、医疗诊断等领域具有广泛的应用前景,是近年来的研究热点。

目前,对人体的运动状态监测方法主要有三大类:第一类是基于声音的运动状态识别,该方法受外界噪音影响较大,使用场景极其有限;第二类是基于图像视频的运动状态识别,该方法主要通过分析挖掘摄像头采集的数据来捕获人体的运动类别,由于受天气、光线、距离及拍摄角度等因素的影响,摄像机采集数据的可靠性受到较大影响,并且视频图像因占用较大的存储空间而无法长期投入使用;第三类是基于可穿戴设备的运动状态识别,相比较上述两类方法,具有成本低且携带方便、抗干扰性强以及持续获取数据的能力强等优势。

随着移动互联网技术的兴起和无线传感技术的发展,人们佩戴的可穿戴设备如手表(watch)类、鞋(shoes)类及眼镜(glasses)类等越来越多,越来越普遍,使得基于可穿戴设备的运动状态识别方法备受关注。然而,现有的基于可穿戴设备的运动状态识别方法算法复杂,识别效率低,且不支持在线识别,有待于改进。



技术实现要素:

本发明实施例的目的是提供一种运动状态的识别方法及装置,可以实现准确识别待测对象的运动类型。

一方面,本发明实施例提供了一种运动状态的识别方法,包括:

通过可穿戴设备采集待识别对象的目标部位的运动数据;

提取所述运动数据中的运动特征;

将所提取的运动特征输入至基于在线神经网络和增强学习算法的识别模型中;

根据所述识别模型的输出结果识别所述待识别对象的运动类别。

另一方面,本发明实施例提供了一种运动状态的识别装置,包括:

运动数据采集模块,用于通过可穿戴设备采集待识别对象的目标部位的运动数据;

运动特征提取模块,用于提取所述运动数据中的运动特征;

运动特征输入模块,用于将所提取的运动特征输入至基于在线神经网络和增强学习算法的识别模型中;

运动类别识别模块,用于根据所述识别模型的输出结果识别所述待识别对象的运动类别。

本发明实施例中提供的运动状态的识别方案,通过可穿戴设备采集待识别对象的目标部位的运动数据并提取运动数据中的运动特征,将所提取的运动特征输入至基于在线神经网络和增强学习算法的识别模型中,根据识别模型的输出结果识别待识别对象的运动类别。通过采用上述技术方案,可自动快速实现待测对象运动类型的在线识别,且该方案抗干扰性强,识别结果准确率高。

附图说明

图1为本发明实施例一提供的一种运动状态的识别方法的流程示意图;

图2为本发明实施例二提供的一种运动状态的识别方法的流程示意图;

图3为本发明实施例二提供的识别模型训练流程示意图;

图4为本发明实施例三提供的一种运动状态的识别装置的结构框图。

具体实施方式

下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。

在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。

实施例一

图1为本发明实施例一提供的一种运动状态的识别方法的流程示意图,本发明实施例可适用于对待测对象的运动类型进行识别的情况,该方法可以由运动状态的识别装置执行,其中该装置可由软件和/或硬件实现,一般可集成在终端中。如图1所示,该方法包括:

步骤101、通过可穿戴设备采集待识别对象的目标部位的运动数据。

示例性的,本发明实施例中的终端可以是智能手机、平板电脑、智能手表以及笔记本电脑等移动设备,还可以是台式机或服务器等其他终端。

示例性的,所述待识别对象可包括人类、动物或机器人等具备运动能力的客体。本发明实施例中将以人类为例进行后续的说明。

可选的,目标部位可包括头部、各种关节(如颈关节、肩关节、肘关节、腕关节、髋关节及踝关节等)以及手臂或腿部等其他部位,目标部位可根据具体的待识别对象来进行有针对性的设定。优选的,本发明实施例中的目标部位包括头部。

相应的,可穿戴设备可根据目标部位的类型来进行选取,如头部所对应的可穿戴设备可以是头盔或眼镜等,腕关节所对应的可穿戴设备可以是智能手表,髋关节所对应的可穿戴设备可以是电子腰带等等。示例性的,将可穿戴设备佩戴在待识别对象的相应目标部位处,以实现运动数据的采集。

示例性的,运动数据可包括速度、加速度及角速度等数据。可根据运动数据的类型选择具备相应传感器的可穿戴设备来进行数据采集。优选的,本实施例中采集的运动数据为加速度数据,可利用集成了加速度计的可穿戴设备进行采集。

步骤102、提取运动数据中的运动特征。

示例性的,可根据识别模型在训练过程中所采用的样本运动特征来确定本步骤中需要提取的运动特征,使所提取的运动特征与样本运动特征一致。

示例性的,所述运动特征包括预设采样数量的加速度值的平均值Mean、均方根Root Mean square、标准差Standard deviation、偏度Skewness、峰度系数Kurtosis、波峰因数Crest factor、纬度系数Latitude factor、形状系数Shape factor和冲击因数Impulse factor中的至少两个。可以理解的是,所采用的运动特征类型的数量越多,识别模型的准确度越高,因此,优选的,本发明实施例中的运动特征包含上述所有的9种,表1给出了各运动特征的名称以及相应的表达式。

表1运动特征及相应的公式

步骤103、将所提取的运动特征输入至基于在线神经网络和增强学习算法的识别模型中。

本发明实施例中所采用的运动类型的识别模型是基于在线神经网络和增强学习算法的识别模型。在线神经网络能够在不重新训练先前样本的情况下,只对新输入样本逐个进行训练,更新至新的神经网络结构,并实现对待测样本进行识别的同时还可通过新的训练样本对神经网络结构进行更新训练,从而实现在线识别,适应性强,准确度高。增强学习是一种不同于监督学习和无监督学习的在线学习技术,可通过不断的试错和反馈等进行学习,获得环境状态的合适评价值并修改自身的动作策略以适应环境,本发明实施例通过利用增强学习算法可对噪声进行抑制,增强识别模型的抗干扰能力。

其中,在线神经网络可包括Fuzzy Min-Max、Prabablistic neural network和模糊自适应共振网络(Fuzzy Adaptive Resonance Theory MAP,Fuzzy ARTMAP,简称FAM);增强学习(Reinforcement Learing)算法可包括时间差分学习Temporal Difference Learning(TD-Learning),蒙特卡洛Monte Carlo以及Q-Learning等。优选的,本发明实施例采用的在线神经网络为模糊自适应共振网络Fuzzy ARTMAP,增强学习算法为Q-Learning,本发明实施例中的基于FAM和Q-Learning的识别模型可命名为RL-FAM。

FAM是一个在线人工神经网络,它能够在不重新训练先前样本的情况下,只对新输入样本逐个进行训练,更新至新的神经网络结构。相比之下,传统的神经网络的结构拥有固定网络结构(输入节点、输出节点和层数),每次有新的样本输入到神经网络的时候,一般都是需要对已经训练过的样本以及当前样本进行重新训练,调节节点间的权值,这样的过程比较费时且计算成本高,也很难适应人体运动类别在线快速识别的需求。

Q-Learning作为系统的环境反馈机制环节,具有提高神经网络系统抗噪声干扰的能力。在神经网络训练过程中,Q-Learning可分配给每一个FAM节点(隐藏节点)一个Q-Value,这个Q-Value影响着对应节点对神经网络输出的影响权重,如果这个节点主要是由噪声样本创建,那么可利用Q-Value对该节点的影响进行“惩罚”,反之,则对该节点进行“奖赏”,使得该节点对于神经网络的输出影响权重加大。

本步骤中,将所提取的待识别对象对应的运动特征输入至识别模型中,以对运动类型进行识别。

步骤104、根据识别模型的输出结果识别待识别对象的运动类别。

示例性的,运动类别的种类及数量可由模型训练过程中的训练样本来确定,可包括走路、跳跃、蹲下及站立等。其中,训练样本可根据待识别对象的属性来进行选取,如待识别对象为运动员时,可根据运动项目进行选取;如待识别对象为病人时,可根据病人的复建项目进行选取等。识别模型的输出结果可以是代表某个运动类别的数值或者符号,根据该数值或符号来确定相应的运动类别,即待识别对象当前的运动类别。

本发明实施例一提供的运动状态的识别方法,通过可穿戴设备采集待识别对象的目标部位的运动数据并提取运动数据中的运动特征,将所提取的运动特征输入至基于在线神经网络和增强学习算法的识别模型中,根据识别模型的输出结果识别待识别对象的运动类别。通过采用上述技术方案,将在线神经网络和增强学习算法结合,可自动快速实现待测对象运动类型的在线识别,且该方法抗干扰性强,识别结果准确率高。

需要说明的是,本发明实施例可用于对实际待识别对象的运动状态识别,也可用于对经过训练后得到的识别模型进行系统测试,以对识别模型的准确性以及实时性进行测试,对识别模型进行优化。

实施例二

图2为本发明实施例二提供的一种运动状态的识别方法的流程示意图,本实施例以上述实施例为基础进行优化,增加了识别模型训练过程的相关内容,如图2所示,本实施例的方法包括如下步骤:

步骤201、通过可穿戴设备采集训练对象的所述目标部位的样本运动数据,并确定训练对象的运动类别。

示例性的,训练对象可具备与待识别对象相同的属性。在采集样本运动数据时,可指定训练对象进行特定类别的运动,从而确定样本运动数据所对应的样本运动类别。

步骤202、提取样本运动数据中的样本运动特征。

样本运动特征种类可与上述实施例中的运动特征种类相同,参见表1。从样本运动数据中提取出样本运动特征后,为其匹配对应的运动类别,得到训练样本,可将训练样本表示为一个[Sn×9,ck×1]的矩阵,其中,Sn×9为采样数据特征矩阵,ck×1为对应的人体运动类别。

步骤203、根据所提取的样本运动特征和样本运动类别对基于FuzzyARTMAP和Q-Learning的训练模型进行训练,得到基于Fuzzy ARTMAP和Q-Learning识别模型。

示例性的,利用训练样本对RL-FAM训练模型进行训练。可选的,本步骤可包括:将所提取的样本运动特征输入至基于Fuzzy ARTMAP和Q-Learning的训练模型中;确定所述训练模型的输出结果与所述样本运动类别之间的差异程度,并根据所述差异程度对所述训练模型中的Fuzzy ARTMAP节点的权值进行调节;利用Q-Learning对权值超过预设阈值的Fuzzy ARTMAP节点的Q-Value进行调整,以对所述样本运动数据中的噪声进行抑制;建立权值最大的FuzzyARTMAP节点与所述训练对象的运动类别的对应关系。

具体的,在有监督的训练过程中,RL-FAM训练模型会建立隐藏节点(FuzzyARTMAP节点),隐藏节点一旦建立,Q-Learning就会为整个隐藏节点分配一个Q-Value。在训练样本中混合噪声进行训练,通过调节权值来使RL-FAM训练模型给出正确的输出(即输出结果与样本运动类别一致)。对于一些隐藏节点,其对应的权值越大,导致输出结果准确度越低,需要抑制这些隐藏节点的权值以达到对噪声进行抑制,可通过增大Q-Value的方式来抵消噪声的影响。当训练完成后,获取含有Q-Value的隐藏节点子集(Wm×9,Qm×1)以及对应的目标值Cm×1,其中W为权值矩阵,Q为隐藏节点Q-Value矩阵,C对应的目标矩阵,m为隐藏节点个数。将训练模型中权值最大的Fuzzy ARTMAP节点与训练对象的运动类别的对应关系,最终得到RL-FAM识别模型。

示例性的,图3为本发明实施例二提供的识别模型训练流程示意图,将训练样本输入到RL-FAM训练模型中,并利用Q-Learning算法对隐藏节点的Q-Value进行更新,并反馈至RL-FAM训练模型,经过大量训练样本的训练,最终得到RL-FAM识别模型。

步骤204、通过可穿戴设备采集待识别对象的目标部位的运动数据。

步骤205、提取运动数据中的运动特征。

步骤206、将所提取的运动特征输入至基于Fuzzy ARTMAP和Q-Learning的识别模型中。

步骤207、根据识别模型的输出结果确定当前权值最大的Fuzzy ARTMAP节点为目标节点。

步骤208、根据目标节点与对应关系识别待识别对象的运动类别。

示例性的,将所提取的运动特征输入至RL-FAM识别模型中,计算各个隐藏节点的强度(即权值),选取权重影响最大的隐藏节点(即权值最大的隐藏节点)为目标节点,利用训练阶段所建立的对应关系来确定待识别对象的当前运动类别。

本发明实施例提供的运动状态的识别方法,采用了FAM和Q-learning相结合的识别模型,可自动快速实现待识别对象运动类型的在线识别,且该方法抗干扰性强,识别结果准确率高。

表2所示为应用本发明实施例提供的RL-FAM识别模型在不同信噪比环境下进行实际人体运动识别的测试结果。

表2、人体运动类别实测结果

由表2可见,在理想情况下,系统识别精确度可达98.77%,在信噪比高达50%情况下,系统依然可以维持精确度在78%。

客观起见,将本发明实施例提出的RL-FAM识别模型与其他常用识别模型比对,利用Iris、Breast cancer和Wine标准测试集数据,对比Nave Bayes、Fuzzy gainmeasure、HHONC以及本文提出的RL-FAM识别模型的测试精确度,对比结果如下表3所示:

表3、UCI数据集测试结果

另外,在三种不同噪声比例的情况下,对比FAM和RL-FAM的抗噪声能力,测试对比结果如下表4所示:

表4、噪声circle-in-square问题下系统抗噪性能测试

对比结果表明,相比传统的FAM算法,本文提出的RL-FAM方法具有较好的抗噪声性能。

实施例三

图4为本发明实施例三提供的一种运动状态的识别装置的结构框图,该装置可由软件和/或硬件实现,一般集成终端中,可通过执行运动状态的识别方法来进行运动状态的识别。如图4所示,该装置包括:

运动数据采集模块41,用于通过可穿戴设备采集待识别对象的目标部位的运动数据;

运动特征提取模块42,用于提取所述运动数据中的运动特征;

运动特征输入模块43,用于将所提取的运动特征输入至基于在线神经网络和增强学习算法的识别模型中;

运动类别识别模块44,用于根据所述识别模型的输出结果识别所述待识别对象的运动类别。

本发明实施例提供的运动状态的识别装置,将在线神经网络和增强学习算法结合,可自动快速实现待测对象运动类型的在线识别,且该方法抗干扰性强,识别结果准确率高。

在上述实施例的基础上,所述在线神经网络为模糊自适应共振网络FuzzyARTMAP,所述增强学习算法为Q-Learning。

在上述实施例的基础上,所述运动数据包括加速度数据,所述运动特征包括预设采样数量的加速度值的平均值Mean、均方根Root Mean square、标准差Standard deviation、偏度Skewness、峰度系数Kurtosis、波峰因数Crest factor、纬度系数Latitude factor、形状系数Shape factor和冲击因数Impulse factor中的至少两个。

在上述实施例的基础上,该装置还包括:

样本数据采集模块,用于在通过可穿戴设备采集待识别对象的目标部位的运动数据之前,通过可穿戴设备采集训练对象的所述目标部位的样本运动数据,并确定所述训练对象的样本运动类别;

样本运动特征提取模块,用于提取所述样本运动数据中的样本运动特征;

模型训练模块,用于根据所提取的样本运动特征和所述样本运动类别对基于Fuzzy ARTMAP和Q-Learning的训练模型进行训练,得到基于Fuzzy ARTMAP和Q-Learning识别模型。

在上述实施例的基础上,所述模型训练模块用于:

将所提取的样本运动特征输入至基于Fuzzy ARTMAP和Q-Learning的训练模型中;

确定所述训练模型的输出结果与所述样本运动类别之间的差异程度,并根据所述差异程度对所述训练模型中的Fuzzy ARTMAP节点的权值进行调节;

利用Q-Learning对权值超过预设阈值的Fuzzy ARTMAP节点的Q-Value进行调整,以对所述样本运动数据中的噪声进行抑制;

建立权值最大的Fuzzy ARTMAP节点与所述样本运动类别的对应关系。

在上述实施例的基础上,所述运动类别识别模块用于:

根据所述识别模型的输出结果确定当前权值最大的Fuzzy ARTMAP节点为目标节点;

根据所述目标节点与所述对应关系识别所述待识别对象的运动类别。

上述实施例中提供的运动状态的识别装置可执行本发明任意实施例所提供的运动状态的识别方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的运动状态的识别方法。

注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1