一种情绪分析方法

文档序号:9350245阅读:800来源:国知局
一种情绪分析方法
【技术领域】
[0001]本发明涉及一种情绪分析方法,特别是利用一种分析面部表情、声音、脉搏等信息特征获得心理情绪信息的方法。
【背景技术】
[0002]人脸作为信息传递最直接的媒介,扮演着极为重要的角色,我们可以通过眼睛直接获得人脸信息再通过大脑可以分析感知人脸情绪。但是长时间进行这种观察-分析工作,人们很容易就陷入疲劳从而造成分析的准确率大大下降。如果能使计算机具备相同的能力,理论上就可以实现全时分析,从而提供人们大量准确可靠的分析数据,从而为我们的决策提供支持。不仅如此,在人脸感知的基础上增加声音感知、脉搏感知和皮肤电阻比对后可以进行多种分析,比如选择做测谎分析就能通过以上数据得出被测试对象是否说谎;选择做爱情分析就能通过以上数据得出被测试对象是否爱你;选择做企业招聘就能通过以上数据得出被测试对象的敬业心,忠诚度程度。

【发明内容】

[0003]本发明针对现有技术中的不足,提供了一种情绪分析方法,能够通过面部表情与声音获取测试人当前的情绪状态,本发明可以广泛用于测谎分析、爱情分析、招聘分析、员工工作分配分析等情况。
[0004]为了解决上述技术问题,本发明通过下述技术方案得以解决:一种情绪分析方法,需要利用硬件模块实现其功能,所述的硬件模块包括视频采集模块和数据库模块,其特征为包含以下几个步骤:
步骤A):设置数据库模块,使得据库模块内具有8个标准表情,8个标准表情分别是高兴、喜悦、平淡、急躁、厌恶、生气、紧张、悲伤,每个标准表情具有至少20张表情图;
步骤B):根据不同应用场景设置每个标准表情的权重数值,其设置规则是:权重数值为I到100,基准权重为50,与应用场景背离的标准表情权重数值比基准权重高且越背离权重数值越高,与应用场景相应的标准表情权重数值比基准权重低且越相应权重数值越低;步骤C):视频采集模块利用面部几何特征取点法抓取被测人实际表情,抓取的点位在20点至25点之间,抓取完毕后与数据库模块内的表情图进行一一对比,并筛选出点位相似10点以上的所有表情图,然后进行二次筛选,使得每个标准表情最多只有一个表情图;
步骤D):如果筛选出的表情图数量大于3张,则继续筛选出点位相似最多的三张图;步骤E):根据不同应用场景设置每个实际表情的实际值,其设置规则是:实际值为I到100,基准分为50,表情图的相似点与实际表情所有的抓取点的比为实际比值,实际值为每个的表情图与其对应场景中权重数值与实际比值的乘积相加,如果实际值超过100则取100 ;
步骤F):—次分析可以包括若干个标准段,每次标准段的时间在30秒到30分钟之间,在标准段中每次视频采集模块抓取实际表情的间隔为0.01秒的倍数,且最小间隔为0.01秒,最大间隔为0.1秒,同一标准段的抓取间隔不变动;
步骤G):—次标准段结束后,会得到实际值的集合,实际值的集合与基准权重比较后得出测试人在此标准段的情绪反应,得出测试人的情绪与此应用场景是否背离。
[0005]上述技术方案中,优选的,所述的硬件模块还包括声音采集模块和声音分析模块,声音采集模块利用录音收集被测人声音信息且声音采集模块与视频采集模块同时工作在同一标准段中,声音分析模块通过分析声音信息获取语音频率并设置声音权重,其设置规则是:声音在正常频率则声音权重为0,越背离正常频率声音权重越高,声音权重最高不超过20,还设置有情绪值,情绪值是步骤E中的当前实际值与当前时间节点声音权重之和,如果情绪值超过100则取100,一次标准段结束后,会得到情绪值的集合,情绪值的集合与基准权重比较后得出测试人在此标准段的情绪反应,得出测试人的情绪与此应用场景是否背离。
[0006]上述技术方案中,优选的,所述的硬件模块还包括声音采集模块和声音分析模块,声音采集模块利用录音收集被测人声音信息且声音采集模块与视频采集模块同时工作在同一标准段中,声音分析模块通过分析声音信息获取语音频率并设置声音权重,其设置规则是:声音在正常频率则声音权重为20,越背离正常频率声音权重越低,声音权重最高不超过20,还设置有情绪值,情绪值是步骤E中的当前实际值与当前时间节点的声音权重之和,如果情绪值超过100则取100,一次标准段结束后,会得到情绪值的集合,情绪值的集合与基准权重比较后得出测试人在此标准段的情绪反应,得出测试人的情绪与此应用场景是否皆商口 R两。
[0007]上述技术方案中,优选的,所述的步骤C中抓取的点位为25点,且筛选出点位相似15点以上的所有表情图后再进行二次筛选。
[0008]上述技术方案中,优选的,所述的步骤D中如果筛选出的表情图数量大于2张,则继续筛选出点位相似最多的两张图。
[0009]上述技术方案中,优选的,所述的视频采集模块为摄像头。
[0010]上述技术方案中,优选的,所述的声音采集模块为麦克风。
[0011]本发明是一种情绪分析方法,主要利用表情判断,辅助利用声音判断来识别被测人当前的情绪,结合实际应用场景发现被测人的情绪波动以确定当前被测人是否撒谎。本分析是在一段时间内对表情数据和声音数据进行的分析,本分析最大的特点是每一次抓取的表情都要与数据库内的所有图片进行对比,并且经过加权计算得出情绪值,如果情绪值在基准权重上方就说明被测者情绪与当前情景出现背离,在基准权重下方则说明情绪正常。在一次总的测试中可以多次进行标准段分析,结合所有标准段得出的结论,就能得到测试人在接受测试的时候具体的情绪波动。本方法适用于测谎分析、爱情分析、招聘分析、员工工作分配分析等等。
[0012]与现有技术相比,本发明的有益效果是:能够通过面部表情与声音获取测试人当前的情绪状态,本发明可以广泛用于测谎分析、爱情分析、招聘分析、员工工作分配分析等情况。
【具体实施方式】
[0013]下面结合【具体实施方式】对本发明作进一步详细描述。
[0014]实施例1:用于测谎判定时,先设定高兴、喜悦、平淡、急躁、厌恶、生气、紧张、悲伤的权重数值分别为30、30、20、70、60、60、80、40 ;:声音在正常频率则声音权重为0,越背离正常频率声音权重越高,声音权重最高不超过20,声音权重不同频率的权重值设定要与被测人实际声音频率相关,因为不同性别与年龄声音的发声频率差别较大。然后通过摄像头和麦克风对被测人进行面部表情和声音的收集。一次情绪分析包括8个标准段,其中每个标准段时长5分钟,在标准段中表情抓取时间间隔为0.2秒。表情抓取采用面部几何特征取点法,每次取点25个。每次取点完后所抓取的表情与数据库模块内的表情图进行一一对比,并筛选出点位相似15点以上的所有表情图,然后进行二次筛选,使得每个标准表情最多只有一个表情图,如果筛选出的表情图数量大于2张,则继续筛选出点位相似最多的两张图,然后通过计算得出每次抓取时的实际值,为此一个标准段中可以获得1500个实际值。再通过相加由相同时间点麦克风获取的声音数据所对应的声音权重得出一个标准段最后的1500个情绪值。把这1500个情绪值和基准权重分别描绘成
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1