一种心理活动的分析方法_2

文档序号:8327159阅读:来源:国知局
后根据接收到的爱情场景码提取此表情图片的表情心理值,分析完后按收集时间的前后顺序对表情心理值进行排列得到表情心理值集合。然后通过声音分析模块依次分析出每个声音信息的频率,在爱情场景中,声音权重不同频率的权重值设定要与被测人实际声音频率相关,因为不同性别与年龄声音的发声频率差别较大。分析完后按收集时间的前后顺序对声音心理值进行排列得到声音心理值集合。在爱情场景中,分析完后按收集时间的前后顺序对脉搏心理值进行排列得到脉搏心理值集合。最后根据连接码把脉搏心理值集合、声音心理值集合、表情心理值集合和时间信息发送回相对应的手机。每一个标准段结束后在客户端显示结果图像,结果图像是函数图,其中是X轴为时间,Y轴为表情心理值,并且在结果图像中设置有γ=3*50的参考直线,在一个标准段内所有的表情心理值与声音心理值与脉搏心理值的和的集合都显示在函数图上并连接成一个结果曲线,此时应该共有12000个值组成一个结果曲线。参考规则是结果曲线位于参考直线下方则心理反应正常,位于参考直线上方则心理反应异常。一次分析结束后会获得2个结果图像,通过比较结果曲线与参考直线的背离程度以及背离时间确定被测人是否相爱,当结果曲线大部分时间比参考直线高时,被测人不爱;结果曲线大部分时间比参考直线低时,被测人没有相爱,还可以单独分析一个标准段内的结果图像,得到一个标准段内被测人的情绪状态。
[0013]实施例3:用于求职状态判断时,电脑外接脉搏测试器,电脑连通服务器端,连通后在电脑设置连接码,然后电脑选取场景库内的求职场景作为电脑当前测试场景并被赋予求职场景码。电脑通过摄像头和麦克风和脉搏测试器收集被测人当前表情信息和声音信息和脉搏信息,一次测试包括4标准段,每次标准段的时间为4分钟,在标准段中每次摄像头和麦克风和脉搏测试器抓取实际表情和采集声音合采集脉搏频率的间隔时间为0.1秒。每次抓取和采集信息完毕后立即分析抓取图片的点位信息,获得点位信息后把当前点位信息、当前声音信息、当前脉搏信息按收集时间依次存储到手机内。当一个标准段结束后通过网络把当前点位信息集合、当前声音信息集合、当前脉搏信息集合、收集时间集合、连接码和求职场景码发送至服务器端,服务器端收到点位信息集合后依靠点位信息收集时间的前后顺序通过图像库对每个点位信息进行对比,从而找到与每个点位信息最相近的表情图片,然后根据接收到的求职场景码提取此表情图片的表情心理值,分析完后按收集时间的前后顺序对权重值进行排列得到情绪集合。然后通过声音分析模块依次分析出每个声音信息的频率,在求职场景中,声音权重不同频率的权重值设定要与被测人实际声音频率相关,因为不同性别与年龄声音的发声频率差别较大。分析完后按收集时间的前后顺序对声音心理值进行排列得到声音心理值集合。在求职场景中,分析完后按收集时间的前后顺序对脉搏权重进行排列得到脉搏心理值集合。最后根据连接码把脉搏心理值集合、声音心理值集合、表情心理值集合和时间信息发送回相对应的手机。每一个标准段结束后在客户端显示结果图像,结果图像是函数图,其中是X轴为时间,Y轴为权重值,并且在结果图像中设置有Υ=3*50的参考直线,在一个标准段内所有的表情心理值与声音心理值与脉搏心理值的和的集合都显示在函数图上并连接成一个结果曲线,此时应该共有2400个值组成一个结果曲线。参考规则是结果曲线位于参考直线下方则心理反应正常,位于参考直线上方则心理反应异常。一次分析结束后会获得4个结果图像,通过比较结果曲线与参考直线的背离程度以及背离时间确定被测人是否镇定以及符合要求,当结果曲线大部分时间比参考直线高时,被测人非常紧张,不适合此岗位;结果曲线大部分时间比参考直线低时,被测人适合此岗位,还可以单独分析一个标准段内的结果图像,得到一个标准段内被测人的情绪状态。
[0014]不仅如此,在同一次分析时,每次标准段的时间长度可以不同,每个标准段内表情的抓取间隔也可以不同。本方法还可以适用于职务分配分析等场景,同时本方法还可以进行单独的表情分析无需进行声音分析和脉搏分析,不仅如此本方法还可以增加呼吸频率测定,皮肤表面电测定,这样只需要把测定数据转化为权重值就能进行比较。一般而言,本方法需要硬件协助,可以通过电脑,手机等电子产品使用本方法达到分析被测人情绪额目的,经常性的本方法可以编写成一个APP用于手机,使用手机作为客户端。
【主权项】
1.一种心理活动的分析方法,包括服务器端和客户端,所述的服务器端包括数据库,所述的客户端包括数据采集模块所述的数据采集模块包括视频采集模块,所述的服务器端和所述的客户端通过网络连接,其特征为包含以下几个步骤:步骤A):设置数据库,所述的数据库包括场景库和图像库,所述的场景库内设置有若干个不同的应用场景,所述的图像库内设置有若干个表情图片,每个所述的表情图片还包括点位信息和场景信息,所述的场景信息包括若干个分别与不同所述应用场景相对应的表情心理值;步骤B):客户端连通服务器端,连通后在客户端设置连接码,然后客户端选取场景库内某一场景作为客户端当前测试场景并被赋予场景码,最后通过客户端开始测试;步骤C):客户端通过视频采集模块收集被测人当前表情信息,一次测试可以包括若干个标准段,每次标准段的时间在30秒到30分钟之间,在标准段中每次视频采集模块抓取实际表情的间隔为0.01秒的倍数,且最小间隔为0.01秒,最大间隔为0.1秒,同一标准段的抓取间隔不变动;步骤D):视频采集模块利用面部几何特征取点法抓取实际表情,抓取的点位至少30个,每次抓取完毕后立即分析抓取图片的点位信息,获得点位信息后可以通过网络把当前点位信息、收集时间、连接码和场景码发送至服务器端或者把当前点位信息存储在客户端;步骤E):在步骤C中如果采取把当前点位信息、收集时间、连接码和场景码发送至服务器端,则服务器端收到单个点位信息后立即通过图像库找到图像库中于此点位信息最相近的表情图片,然后根据接收到的场景码提取此表情图片的表情心理值,最后根据连接码把此表情心理值和时间信息发送回相对应的客户端;步骤F):在步骤D中如果把当前点位信息存储在客户端,则一个标准段结束后通过网络把当前点位信息集合、收集时间集合、连接码和场景码发送至服务器端,服务器端收到点位信息集合后依靠点位信息收集时间的前后顺序通过图像库对每个点位信息进行对比,从而找到与每个点位信息最相近的表情图片,然后根据接收到的场景码提取此表情图片的表情心理值,并且按收集时间的前后顺序对表情心理值进行排列得到表情心理值集合,最后根据连接码把此表情心理值集合发送回相对应的客户端;步骤G):每一个标准段结束后在客户端显示结果图像,结果图像是函数图,其中是X轴为时间,Y轴为表情心理值,设置数据采集模块包括的数据采集装置的数量为数据源数,在结果图像中设置有Y=数据源数*50的参考直线,在一个标准段内所有的权重值的集合都显示在函数图上并连接成一个结果曲线,参考规则是结果曲线位于参考直线下方则心理反应正常,位于参考直线上方则心理反应异常。
2.根据权利要求1所述的一种心理活动的分析方法,其特征为,所述的客户端还包括声音采集模块,所述的服务器端还包括声音分析模块,设置场景库内每个应用场景具有若干个对应不同声音频率的声音心理值,声音采集模块与视频采集模块在同一标准段中同时工作,声音采集模块采集到的声音信息可以通过网络把当前声音信息、收集时间、连接码发送至服务器端或者一个标准段结束后向服务器端发送声音信息的集合;服务器端内的声音分析模块通过分析声音信息获取语音频率并根据当前的应用场景获取声音心理值,最后根据连接码把声音心理值和时间信息发送回相对应的客户端;在客户端显示结果时,结果曲线是相同时间节点表情心理值与声音心理值和的集合,参考直线Y=数据源数*50。
3.根据权利要求1所述的一种心理活动的分析方法,其特征为,所述的客户端还包括脉搏采集模块,所述的服务器端还包括脉搏分析模块,设置场景库内每个应用场景具有若干个对应不同脉搏频率的脉搏心理值,脉搏采集模块与视频采集模块在同一标准段中同时工作,脉搏采集模块采集到的脉搏信息可以通过网络把当前脉搏信息、收集时间、连接码发送至服务器端或者一个标准段结束后向服务器端发送脉搏信息的集合;服务器端内的脉搏分析模块通过分析脉搏信息获取脉搏频率并根据当前的应用场景获取脉搏心理值,最后根据连接码把脉搏心理值和时间信息发送回相对应的客户端;在客户端显示结果时,结果曲线是相同时间节点表情心理值与脉搏心理值和的集合,参考直线Y=数据源数*50。
4.根据权利要求2所述的一种心理活动的分析方法,其特征为,所述的客户端还包括脉搏采集模块,所述的服务器端还包括脉搏分析模块,设置场景库内每个应用场景具有若干个对应不同脉搏频率的脉搏心理值,脉搏采集模块与视频采集模块在同一标准段中同时工作,脉搏采集模块采集到的脉搏信息可以通过网络把当前脉搏信息、收集时间、连接码发送至服务器端或者一个标准段结束后向服务器端发送脉搏信息的集合;服务器端内的脉搏分析模块通过分析脉搏信息获取脉搏频率并根据当前的应用场景获取脉搏心理值,最后根据连接码把脉搏心理值和时间信息发送回相对应的客户端;在客户端显示结果时,结果曲线是相同时间节点表情心理值与脉搏心理值与声音心理值和的集合,参考直线Y=数据源数 *50。
【专利摘要】一种心理活动的分析方法,主要是利用一种分析面部表情、声音、脉搏等信息特征获得心理情绪信息的方法,包括7个主要步骤,通过实时抓取表情、声音和脉搏信息进行当前情绪状态判定,监控情绪波动,或者情绪信息。与现有技术相比,本发明的有益效果是:能够通过面部表情与声音获取测试人当前的情绪状态,本发明可以广泛用于测谎分析、爱情分析、招聘分析、员工工作分配分析等情况。
【IPC分类】A61B5-16
【公开号】CN104644189
【申请号】CN201510095540
【发明人】刘镇江
【申请人】刘镇江
【公开日】2015年5月27日
【申请日】2015年3月4日
当前第2页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1