一种基于Elman神经网络和遗传算法的形象气质提升方法与流程

文档序号:16684679发布日期:2019-01-19 00:49阅读:231来源:国知局
一种基于Elman神经网络和遗传算法的形象气质提升方法与流程

本发明属于神经网络大数据领域,具体设计一种基于elman神经网络和遗传算法的形象气质提升方法。



背景技术:

形象气质训练不仅能使人获得健康美,还能使人获得体形美、姿态美、动作美和气质美,也正因为这样,形象气质训练越来越受到人们的重视,行为姿态矫正系统作为一种提高人们形象气质成为人们乐意选择的方式。在人们平时的生活中随时随地都可以实现对行为姿态的训练。但是通常人们缺乏合理的指导方案,而错误的方法可能会使用户的日常训练达不到理想的效果,造成不可弥补的时间损失和大量的精力损失。

目前,亟需解决的问题是建立一套全面的行为姿态模型,并将使用者的行为姿态数据反馈给使用者,让使用者能及时对自己的姿势矫正。影响行为姿态评分的各个因素之间往往体现出高度的复杂性和非线性,采用常规预测、分析方法存在一定难度,elman神经网络对于非线性系统的建模精度高,非常适合行为姿态模型的建立。使用者利用下发的最优行为姿态矫正方案进行日常训练提升自身形象气质,为大数据时代的智能行为姿态矫正提供了一种新的思路。



技术实现要素:

本发明的目的在于克服现有技术的不足,提供一种基于elman神经网络和遗传算法的形象气质提升方法,使人们的行为姿态优美,提升形象气质。

本发明的目的是这样实现的:

一种基于elman神经网络和遗传算法的形象气质提升方法,包括如下步骤:

s1:采集用户的身体模型参数以及对应的行为姿态数据,并上传至云服务器,身体模型参数a、行为姿态数据x构成模型输入矩阵z,其中,身体模型参数a为环境变量,行为姿态数据x为决策变量;

s2:用户终端通过姿态评分系统对用户的每一次行为姿态进行评分,并将评分作为模型输出变量y上传至云服务器;

s3:云服务器利用elman神经网络建立输入矩阵z到输出变量y的elman神经网络模型;

s4:云服务器利用遗传算法对s3中建立的elman神经网络模型进行优化,得到姿态评分系统最佳评分对应的行为姿态数据,即推荐决策变量x0,用户根据推荐决策变量x0对自己的行为姿态进行矫正,提高自身形象气质。

优选地,步骤s1中,通过传感器模块采集用户的行为姿态数据;通过采样电路与传感器模块进行连接,将传感器模块采集到的行为姿态数据转换成数字信号,并上传至云服务器。

优选地,步骤s1中,身体模型参数包括身高、体重、臂长、腿长、三围,并人工录入云服务器。

优选地,步骤s1中,行为姿态数据包括站立、坐、走行为的姿态数据。

优选地,所述站立、坐、走的姿态数据分别包括行为时背部、左右手腕、左右大腿、胸部、臀部的加速度、角度、速度、三维坐标、高度。

优选地,步骤s3中,建立的elman神经网络模型中:xk=[xk1,xk2,…,xkm](k=1,2,…,s)为输入矢量,s为训练样本个数,wmi(g)为第g次迭代时输入层m与隐层i之间的权值矢量,wjp(g)为第g次迭代时隐层j与输出层p之间的权值矢量,wjc(g)为第g次迭代时隐层j与承接层c之间的权值矢量,yk(g)=[yk1(g),yk2(g),…,ykp(g)](k=1,2,…,s)为第g次迭代时网络的实际输出,dk=[dk1,dk2,…,dkp](k=1,2,…,s)为期望输出。

优选地,步骤s3中,建立elman神经网络模型的方法包括以下步骤:

s31:初始化,设迭代次数g初值为0,分别赋给wmi(0)、wjp(0)wjc(0)一个(0,1)区间的随机值;

s32:随机输入样本xk;

s33:对输入样本xk,前向计算神经网络每层神经元的输入信号和输出信号;

s34:根据期望输出dk和实际输出yk(g),计算误差e(g);

s35:判断误差e(g)是否满足要求,如不满足,则进入步骤s36,如满足,则进入步骤s39;

s36:判断迭代次数g+1是否大于最大迭代次数,如大于,则进入步骤s39,否则,进入步骤s37;

s37:对输入样本xk反向计算每层神经元的局部梯度δ;

s38:计算权值修正量δw,并修正权值;令g=g+1,跳转至步骤s33;

s39:判断是否完成所有的训练样本,如果是,则完成建模,否则,继续跳转至步骤s32。

优选地,用户终端具有行为姿态评分系统,行为姿态评分系统根据用户实时的行为姿态数据与推荐行为姿态数据的接近程度打分,所述姿态评分系统分别对用户的站立、坐、走三种行为姿态进行评分,再进行综合评分。

优选地,步骤s4中,利用遗传算法对elman神经网络模型进行优化,包括以下步骤:

s41根据姿态评分系统设定的各行为姿态的评分权重和所获取的个体适应度值,获取综合性指标e;

s42预设决策参数的变化区间,以及遗传算法的种群数量nint=100以及迭代次数mite=100;

s43确定优化计算的趋势方向;其中,所确定的优化计算的趋势方向使得行为姿态最佳;

s44初始化种群,并将初始化后的种群作为父代种群,对所述父代种群中所有个体的适应度函数值进行计算,获取父代种群的最优个体;

s45采用轮盘赌法或者锦标赛法对所述父代种群中所有个体进行第一次遗传迭代操作,获取子群,将所获取的子群作为新一代父代种群;

s46根据实际的迭代次数和预设的迭代次数判断迭代是否结束,若结束,将最后一次迭代所获取的父代种群的最优个体作为决策参数,否则继续迭代。

优选地,用户终端具有姿态数据界面,所述姿态数据界面显示用户实时的行为姿态数据以及由云服务器下发的推荐行为姿态数据。

由于采用了上述技术方案,本发明确定了行为姿态数据的最优值,让使用者能够在日常训练中通过推荐方案进行姿势矫正,实现提升形象气质评分的目的。

附图说明

图1为本发明的方法框架图。

具体实施方式

参见图1,一种基于elman神经网络和遗传算法的形象气质提升方法,包括如下步骤:

s1:采集用户的身体模型参数以及对应的行为姿态数据,并上传至云服务器,身体模型参数a、行为姿态数据x构成模型输入矩阵z,其中,身体模型参数a为环境变量,行为姿态数据x为决策变量;

本实施例中,通过传感器模块采集用户的行为姿态数据;所述传感器模块为十轴加速度蓝牙版传感器;通过采样电路与传感器模块进行连接,将传感器模块采集到的行为姿态数据转换成数字信号,并上传至云服务器。

身体模型参数包括身高a(cm)、体重b(kg)、臂长c(cm)、腿长d(cm)、三围e,并人工录入云服务器。

行为姿态数据包括站立、坐、走行为的姿态数据。所述站立、坐、走的姿态数据分别包括行为时背部、左右手腕、左右大腿、胸部、臀部的加速度、角度、速度、三维坐标、高度。本实施例中,包括背部的传感器测得的加速度(a1)、角度(θ1)、速度(v1)、三维坐标(x1、y1、z1)、高度(h1),左右手腕的传感器测得的加速度(a左2、a右2)、角度(θ左2、θ右2)、速度(v左2、v右2)、三维坐标(x左2、y左2、z左2、x右2、y右2、z右2)、高度(h左2、h右2)、左右大腿的传感器测得的加速度(a左3、a右3)、角度(θ左3、θ右3)、速度(v左3、v右3)、三维坐标(x左3、y左3、z左3、x右3、y右3、z右3)、高度(h左3、h右3),胸部的传感器测得的加速度(a4)、角度(θ4)、速度(v4)、三维坐标(x4、y4、z4)、高度(h4),臀部的传感器测得的加速度(a5)、角度(θ5)、速度(v5)、三维坐标(x5、y5、z5)、高度(h5)。

s2:用户终端通过姿态评分系统对用户的每一次行为姿态进行评分,并将评分作为模型输出变量y上传至云服务器;具体地,用户终端具有行为姿态评分系统,姿态评分系统的每种评分标准具有对应的行为姿势数据,行为姿态评分系统根据用户实时的行为姿态数据与推荐行为姿态数据的接近程度打分,所述姿态评分系统分别对用户的站立、坐、走三种行为姿态进行评分,再进行综合评分。具体评分标准如表1:

表1评分标准

用户终端具有姿态数据界面,所述姿态数据界面显示用户实时的行为姿态数据以及由云服务器下发的推荐行为姿态数据。用户终端可以为pc端、手机终端等。用户实时的行为姿态数据通过佩戴对应的传感器获取,姿态数据界面同时显示三维运动感知画面。

s3:云服务器利用elman神经网络建立输入矩阵z到输出变量y的elman神经网络模型;

建立的elman神经网络模型中:xk=[xk1,xk2,…,xkm](k=1,2,…,s)为输入矢量,s为训练样本个数,wmi(g)为第g次迭代时输入层m与隐层i之间的权值矢量,wjp(g)为第g次迭代时隐层j与输出层p之间的权值矢量,wjc(g)为第g次迭代时隐层j与承接层c之间的权值矢量,yk(g)=[yk1(g),yk2(g),…,ykp(g)](k=1,2,…,s)为第g次迭代时网络的实际输出,dk=[dk1,dk2,…,dkp](k=1,2,…,s)为期望输出。

优选地,步骤s3中,建立elman神经网络模型的方法包括以下步骤:

s31:初始化,设迭代次数g初值为0,分别赋给wmi(0)、wjp(0)wjc(0)一个(0,1)区间的随机值;

s32:随机输入样本xk;

s33:对输入样本xk,前向计算神经网络每层神经元的输入信号和输出信号;

s34:根据期望输出dk和实际输出yk(g),计算误差e(g);

s35:判断误差e(g)是否满足要求,如不满足,则进入步骤s36,如满足,则进入步骤s39;

s36:判断迭代次数g+1是否大于最大迭代次数,如大于,则进入步骤s39,否则,进入步骤s37;

s37:对输入样本xk反向计算每层神经元的局部梯度δ;

s38:计算权值修正量δw,并修正权值;令g=g+1,跳转至步骤s33;

s39:判断是否完成所有的训练样本,如果是,则完成建模,否则,继续跳转至步骤s32。

s4:云服务器利用遗传算法对s3中建立的elman神经网络模型进行优化,得到姿态评分系统最佳评分对应的行为姿态数据,即推荐决策变量x0,用户根据推荐决策变量x0对自己的行为姿态进行矫正,提高自身形象气质。

利用遗传算法对elman神经网络模型进行优化,包括以下步骤:

s41根据姿态评分系统设定的各行为姿态的评分权重和所获取的个体适应度值,获取综合性指标e;

s42预设决策参数的变化区间,以及遗传算法的种群数量nint=100以及迭代次数mite=100;

s43确定优化计算的趋势方向;其中,所确定的优化计算的趋势方向使得行为姿态最佳;

s44初始化种群,并将初始化后的种群作为父代种群,对所述父代种群中所有个体的适应度函数值进行计算,获取父代种群的最优个体;

s45采用轮盘赌法或者锦标赛法对所述父代种群中所有个体进行第一次遗传迭代操作,获取子群,将所获取的子群作为新一代父代种群;

s46根据实际的迭代次数和预设的迭代次数判断迭代是否结束,若结束,将最后一次迭代所获取的父代种群的最优个体作为决策参数,否则继续迭代。

最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1