基于互联网的人才线上面试数据分析系统及方法与流程

文档序号:26282663发布日期:2021-08-17 13:37阅读:151来源:国知局
基于互联网的人才线上面试数据分析系统及方法与流程

本发明涉及互联网技术领域,具体为基于互联网的人才线上面试数据分析系统及方法。



背景技术:

如今校园招聘采取线上面试的形式已经成为主流,现在不少企业的校招公告都能看到线上面试的身影,线上面试一般是语音或视频,但是从现在各公司发布的招聘信息来看,视频占绝大部分,而且科学研究表明,信息的全部表达分为语言、声音和语调、肢体语言等三部分,其中语言为7%,声音和语调为38%,肢体语言为55%,所以对于信息的获取,肢体语言是占很大一部分的,但是在线上面试的过程中,肢体语言信息恰恰是最难获取到的。

现有技术仍然存在着诸多不足,企业在线上面试的过程中,采取面试官问面试者答的形式,而且面试官的问题在一定程度上是有局限性的,如存在固定的题库,从题库获取问题信息,同时线上面试与线下面试最大的区别在于,面试官在线上面试过程中对面试者的整体形象无法有一个直观感受,在线下的面试过程中,面对面的交流可以使问题变得更加有随机性,不至于限定在题库范围内,因此能够对面试者的综合评价能够更加全面,反而线上面试采取的问答形式难以达到线下面试的效果,且缺乏一定程度的科学性和客观性,从而影响了面试官对面试者的综合评价。

基于上述问题,亟待提出基于互联网的人才线上面试数据分析系统及方法,通过获取面试者的面试背景,并对面试背景的混乱程度进行分析,进一步分析面试者的肢体动作混乱程度以及面试者的视线位置偏离程度、语音连贯程度,从而根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价,能够解决传统线上面试过程对于肢体语言信息的获取难度,并且使得对于面试者的评价更全面。



技术实现要素:

本发明的目的在于提供基于互联网的人才线上面试数据分析系统及方法,以解决上述背景技术中提出的问题。

为了解决上述技术问题,本发明提供如下技术方案:

基于互联网的人才线上面试数据分析系统,包括面试背景采集模块、面试背景混乱程度分析模块、肢体动作获取模块、肢体位置定位模块、肢体动作混乱程度分析模块、视线位置定位模块、视线位置偏离分析模块、语音识别模块、语音连贯程度分析模块、面试数据综合分析模块,

所述面试背景采集模块用于采集面试者的面试环境中的背景图片,所述面试背景混乱程度分析模块通过面试背景采集模块获取采集到的背景图片,并对背景图片的混乱程度进行分析,所述肢体动作获取模块用于获取面试者的肢体动作,所述肢体位置定位模块用于对肢体位置进行定位,所述肢体动作混乱程度分析模块用于根据获取到的肢体动作以及肢体位置的定位对肢体动作的混乱程度进行分析,所述视线位置定位模块用于对面试者的视线触及位置进行实时定位,所述视线位置偏离分析模块用于根据视线触及位置的实时定位变化对视线的位置偏离进行分析,所述语音识别模块用于识别面试者以及面试人员的语音区别,所述语音连贯程度分析模块用于分析面试过程中的语音连贯程度,所述面试数据综合分析模块用于根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度对面试数据进行综合分析。

进一步的,所述面试背景采集模块连接所述面试背景混乱程度分析模块,所述面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,所述面试背景混乱程度分析模块通过所述面试背景采集模块获取采集到的面试背景图片,所述面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,所述面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

所述面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一颜色分布区域的形状,判断所述任一颜色分布区域的对称性,在线上面试的过程中,面试官无法对面试者的整体形象有一个直观的感受,但是在面试过程中,一个人的整体形象也是一个比较关键的影响因素,对于某些工作性质,对于个人形象的要求很高,而且,同样从个人形象也能够看出面试者对于本次面试的重视程度,同样的着装也能从侧面反应一个人的性格,同时因为工作性质的不同,一个人的性格也是决定其是否能胜任该份工作的关键,所以在无法获取其整体形象的时候,对于其面试背景的混乱程度进行分析,一般的线上面试都是会约好时间,所以面试背景的选择是具有面试者的主观性在里面的,如果说面试的背景很混乱,那么从侧面反应的问题就是面试者对此次面试不重视又或者是面试者不够细心,而对于一些细致的工作,细心又恰恰是必须具备的品质,因此,通过对面试背景中的颜色进行提取,判断每一个颜色分布区域的对称性,从而以获得一个反映面试背景混乱程度的值。

进一步的,所述面试背景混乱程度分析模块以竖直线为所述任一颜色分布区域的对称轴,并于对称轴任意一侧的颜色分布区域的边缘建立若干第一对称点,所述面试背景混乱程度分析模块根据对称轴、第一对称点于对称轴另一侧确定第二对称点的位置,并统计位于另一侧颜色分布区域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数量,记数量为

所述面试背景混乱程度分析模块记第一对称点的数量为,计算所述任一颜色分布区域的对称性,所述面试背景混乱程度分析模块进一步计算所述面试背景的混乱程度,其中,n为所述颜色分布区域的数量,先对一个颜色分布区域进行分析,再对整体的面试背景进行分析,判断颜色区域的对称性也就是判断一个物体的对称性,一般现实生活中的物体都是具有对称性的,因此,对于颜色分布区域的对称性分析也就反映了面试背景的总体整洁程度,因为面试者完全在约好的面试时间之前将其整理,或者是选择整洁的面试背景。

进一步的,所述肢体动作混乱程度分析模块连接所述肢体动作获取模块以及肢体位置定位模块,所述肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,所述肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,所述肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析。

进一步的,所述肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参照点位置作为第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分析所有第一原始点位置的移动频率,当所述第一原始点移动的距离大于等于第一预设值时,记作一次第一原始点的移动,统计所有第一原始点位置的移动次数,并进一步根据所述移动次数与所述一定时间段计算在该时间段内各个第一原始点的移动频率,获取该时间段内的移动频率最大值,所述肢体动作混乱程度分析模块预先存储有移动频率区间与移动频率区间相对应的混乱评估值,所述肢体动作混乱程度分析模块根据移动频率最大值确定移动频率从区间,并查找到对应的混乱评估值,记作

所述肢体动作混乱程度分析模块在所述一定时间段结束时,以所述一定时间段的结束时刻作为下一时间段的开始时刻,以所述开始时刻获取到的移动参照点位置作为第二原始点位置,并从所述开始时刻开始,于所述一定时间段内分析所有第二原始点位置的移动频率,以此类推,一直到视频面试结束,通过分析得到第n原始点位置的移动频率,所述肢体动作混乱程度分析模块根据移动频率计算所述肢体动作的混乱程度,其中,为第n原始点的移动频率最大值所对应的混乱评估值,科学研究表明,信息的全部表达分为语言、声音和语调、肢体语言等三部分,其中语言为7%,声音和语调为38%,肢体语言为55%,所以对于信息的获取,肢体语言是占很大一部分的,但是在线上面试的过程中,肢体语言信息恰恰是最难获取到的,通过对肢体动作进行获取,再对肢体部位建立若干的移动参照点,一般小的抖动不能将其视为一次肢体动作,因此设置距离阈值,通过比较移动参照点的移动距离与距离阈值的大小,判断一次面试者的肢体动作,根据移动参照点统计一定时间段内移动参照点的移动频率,获取最大移动频率,将其作为该时间段内面试者的肢体混乱程度,同理,获取每一个时间段内的最大移动频率,从而计算平均值,将平均值作为整个面试过程中的面试者的肢体动作混乱程度,移动频率的值越大,也就说明了在某时间段内面试者的肢体动作越频繁。

进一步的,所述视线位置定位模块连接所述视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

所述视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,所述语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位置,当所述肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,所述视线位置偏离分析模块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部位,若当前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面试者的肢体移动次数以及视线位置对应上面试者的手部位置的次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视线位置,所述视线位置偏离分析模块获取面试者的视线移动次数以及视线位置对应上屏幕位置的次数

所述视线位置偏离分析模块进一步计算面试者的视线偏离程度,其中,皆为系数,,人在交谈时,注视对方是对对方的尊重,而且也显示了对此次谈话的重视程度,因为一些技术岗位的技术要求,可能在面试过程中,需要面试者在技术交流时使用到肢体语言,再进一步获取面试者的视线触及位置,一般人在手部进行动作时,会注视其手部,在谈话时会注视对方,所以先对当前的发言人进行识别,如果当前是面试者正在发言,那么就获取其肢体动作与视线位置,如果当前是面试官正在发言,那么就获取面试者的视线位置,判断当前面试者是不是注视屏幕,根据收集到的数据信息对面试者的视线偏离程度进行一个分析。

进一步的,所述语音识别模块连接所述语音连贯程度分析模块,所述语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段内通过语音连贯程度分析模块统计当前面试者的停顿次数以及每次的停顿时间,并进一步计算面试者的停顿总时间,所述语音连贯程度分析模块根据停顿总时间与时间段计算两者之间的比值,所述语音连贯程度分析模块进一步计算整个面试过程中面试者每一次发言时的停顿总时间与发言时间的比值,并计算得出所有的比值平均值,所述语音连贯程度分析模块预先存储有比值平均值区间以及与比值平均值区间对应的连贯程度评估值

若当前语音为面试人员发出,在面试人员发言的时间段内通过语音连贯程度分析模块统计当前面试者的语音出现次数,所述语音连贯程度分析模块预先存储有语音出现次数区间以及与语音出现次数区间对应的连贯程度评估值

所述语音连贯程度分析模块进一步计算面试者的语音连贯程度,其中,皆为系数,,一般在谈话时,打断别人的说话是一件很不礼貌的事情,而且因为工作性质的需求,需要面试者有一个良好的沟通逻辑,思路清晰,语言组织能力强,类似于服务行业,需要经常和客户打交道,或者是研发行业,需要探讨技术方案,那么针对一次发言中的停顿次数即可体现出面试者的语言表达能力,以及思路是否清晰,而且当识别到当前为面试官在发言时,分析面试者是否在这个发言过程中对其进行打断,根据面试者的行为对其进行综合评估。

进一步的,所述面试数据综合分析模块连接所述面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

所述面试数据综合分析模块进一步获取所述面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度,所述面试数据综合分析进一步计算得到综合分析评估值,其中,为系数,

进一步的,基于互联网的人才线上面试数据分析方法,所述面试数据分析方法包括以下步骤:

s1:分析面试者的面试背景混乱程度;

s2:分析面试者的肢体动作混乱程度;

s3:分析面试者的视线位置偏离程度;

s4:分析面试者的语音连贯程度;

s5:根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价。

进一步的,所述面试数据分析方法还包括以下步骤:

s1-1:面试背景采集模块连接面试背景混乱程度分析模块,面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,面试背景混乱程度分析模块通过面试背景采集模块获取采集到的面试背景图片,面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一颜色分布区域的形状,判断任一颜色分布区域的对称性,面试背景混乱程度分析模块以竖直线为任一颜色分布区域的对称轴,并于对称轴任意一侧的颜色分布区域的边缘建立若干第一对称点,面试背景混乱程度分析模块根据对称轴、第一对称点于对称轴另一侧确定第二对称点的位置,并统计位于另一侧颜色分布区域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数量,记数量为

面试背景混乱程度分析模块记第一对称点的数量为,计算任一颜色分布区域的对称性,面试背景混乱程度分析模块进一步计算面试背景的混乱程度,其中,n为颜色分布区域的数量;

s2-1:肢体动作混乱程度分析模块连接肢体动作获取模块以及肢体位置定位模块,

肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析,

肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参照点位置作为第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分析所有第一原始点位置的移动频率,当第一原始点移动的距离大于等于第一预设值时,记作一次第一原始点的移动,统计所有第一原始点位置的移动次数,并进一步根据移动次数与一定时间段计算在该时间段内各个第一原始点的移动频率,获取该时间段内的移动频率最大值,肢体动作混乱程度分析模块预先存储有移动频率区间与移动频率区间相对应的混乱评估值,肢体动作混乱程度分析模块根据移动频率最大值确定移动频率从区间,并查找到对应的混乱评估值,记作

肢体动作混乱程度分析模块在一定时间段结束时,以一定时间段的结束时刻作为下一时间段的开始时刻,以开始时刻获取到的移动参照点位置作为第二原始点位置,并从开始时刻开始,于一定时间段内分析所有第二原始点位置的移动频率,以此类推,一直到视频面试结束,通过分析得到第n原始点位置的移动频率,肢体动作混乱程度分析模块根据移动频率计算肢体动作的混乱程度,其中,为第n原始点的移动频率最大值所对应的混乱评估值;

s3-1:视线位置定位模块连接视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位置,当肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,视线位置偏离分析模块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部位,若当前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面试者的肢体移动次数以及视线位置对应上面试者的手部位置的次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视线位置,视线位置偏离分析模块获取面试者的视线移动次数以及视线位置对应上屏幕位置的次数

视线位置偏离分析模块进一步计算面试者的视线偏离程度,其中,皆为系数,

s4-1:语音识别模块连接语音连贯程度分析模块,语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段内通过语音连贯程度分析模块统计当前面试者的停顿次数以及每次的停顿时间,并进一步计算面试者的停顿总时间,语音连贯程度分析模块根据停顿总时间与时间段计算两者之间的比值,语音连贯程度分析模块进一步计算整个面试过程中面试者每一次发言时的停顿总时间与发言时间的比值,并计算得出所有的比值平均值,语音连贯程度分析模块预先存储有比值平均值区间以及与比值平均值区间对应的连贯程度评估值

若当前语音为面试人员发出,在面试人员发言的时间段内通过语音连贯程度分析模块统计当前面试者的语音出现次数,语音连贯程度分析模块预先存储有语音出现次数区间以及与语音出现次数区间对应的连贯程度评估值

语音连贯程度分析模块进一步计算面试者的语音连贯程度,其中,皆为系数,

s5-1:面试数据综合分析模块连接面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

面试数据综合分析模块进一步获取面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度,面试数据综合分析进一步计算得到综合分析评估值,其中,为系数,

与现有技术相比,本发明所达到的有益效果是:本发明通过获取面试者的面试背景,并对面试背景的混乱程度进行分析,进一步分析面试者的肢体动作混乱程度以及面试者的视线位置偏离程度、语音连贯程度,从而根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价,能够解决传统线上面试过程对于肢体语言信息的获取难度,并且使得对于面试者的评价更全面。

附图说明

附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:

图1是本发明基于互联网的人才线上面试数据分析系统的模块示意图;

图2是本发明基于互联网的人才线上面试数据分析方法的步骤示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参阅图1-图2,本发明提供技术方案:

基于互联网的人才线上面试数据分析系统,包括面试背景采集模块、面试背景混乱程度分析模块、肢体动作获取模块、肢体位置定位模块、肢体动作混乱程度分析模块、视线位置定位模块、视线位置偏离分析模块、语音识别模块、语音连贯程度分析模块、面试数据综合分析模块,

面试背景采集模块用于采集面试者的面试环境中的背景图片,面试背景混乱程度分析模块通过面试背景采集模块获取采集到的背景图片,并对背景图片的混乱程度进行分析,肢体动作获取模块用于获取面试者的肢体动作,肢体位置定位模块用于对肢体位置进行定位,肢体动作混乱程度分析模块用于根据获取到的肢体动作以及肢体位置的定位对肢体动作的混乱程度进行分析,视线位置定位模块用于对面试者的视线触及位置进行实时定位,视线位置偏离分析模块用于根据视线触及位置的实时定位变化对视线的位置偏离进行分析,语音识别模块用于识别面试者以及面试人员的语音区别,语音连贯程度分析模块用于分析面试过程中的语音连贯程度,面试数据综合分析模块用于根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度对面试数据进行综合分析。

面试背景采集模块连接面试背景混乱程度分析模块,面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,面试背景混乱程度分析模块通过面试背景采集模块获取采集到的面试背景图片,面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一颜色分布区域的形状,判断任一颜色分布区域的对称性。

面试背景混乱程度分析模块以竖直线为任一颜色分布区域的对称轴,并于对称轴任意一侧的颜色分布区域的边缘建立若干第一对称点,面试背景混乱程度分析模块根据对称轴、第一对称点于对称轴另一侧确定第二对称点的位置,并统计位于另一侧颜色分布区域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数量,记数量为

面试背景混乱程度分析模块记第一对称点的数量为,计算任一颜色分布区域的对称性,面试背景混乱程度分析模块进一步计算面试背景的混乱程度,其中,n为颜色分布区域的数量。

肢体动作混乱程度分析模块连接肢体动作获取模块以及肢体位置定位模块,肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析。

肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参照点位置作为第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分析所有第一原始点位置的移动频率,当第一原始点移动的距离大于等于第一预设值时,记作一次第一原始点的移动,统计所有第一原始点位置的移动次数,并进一步根据移动次数与一定时间段计算在该时间段内各个第一原始点的移动频率,获取该时间段内的移动频率最大值,肢体动作混乱程度分析模块预先存储有移动频率区间与移动频率区间相对应的混乱评估值,肢体动作混乱程度分析模块根据移动频率最大值确定移动频率从区间,并查找到对应的混乱评估值,记作

肢体动作混乱程度分析模块在一定时间段结束时,以一定时间段的结束时刻作为下一时间段的开始时刻,以开始时刻获取到的移动参照点位置作为第二原始点位置,并从开始时刻开始,于一定时间段内分析所有第二原始点位置的移动频率,以此类推,一直到视频面试结束,通过分析得到第n原始点位置的移动频率,肢体动作混乱程度分析模块根据移动频率计算肢体动作的混乱程度,其中,为第n原始点的移动频率最大值所对应的混乱评估值。

视线位置定位模块连接视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位置,当肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,视线位置偏离分析模块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部位,若当前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面试者的肢体移动次数以及视线位置对应上面试者的手部位置的次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视线位置,视线位置偏离分析模块获取面试者的视线移动次数以及视线位置对应上屏幕位置的次数

视线位置偏离分析模块进一步计算面试者的视线偏离程度,其中,皆为系数,

语音识别模块连接语音连贯程度分析模块,语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段内通过语音连贯程度分析模块统计当前面试者的停顿次数以及每次的停顿时间,并进一步计算面试者的停顿总时间,语音连贯程度分析模块根据停顿总时间与时间段计算两者之间的比值,语音连贯程度分析模块进一步计算整个面试过程中面试者每一次发言时的停顿总时间与发言时间的比值,并计算得出所有的比值平均值,语音连贯程度分析模块预先存储有比值平均值区间以及与比值平均值区间对应的连贯程度评估值

若当前语音为面试人员发出,在面试人员发言的时间段内通过语音连贯程度分析模块统计当前面试者的语音出现次数,语音连贯程度分析模块预先存储有语音出现次数区间以及与语音出现次数区间对应的连贯程度评估值

语音连贯程度分析模块进一步计算面试者的语音连贯程度,其中,皆为系数,

面试数据综合分析模块连接面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

面试数据综合分析模块进一步获取面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度,面试数据综合分析进一步计算得到综合分析评估值,其中,为系数,

基于互联网的人才线上面试数据分析方法,面试数据分析方法包括以下步骤:

s1:分析面试者的面试背景混乱程度;

s2:分析面试者的肢体动作混乱程度;

s3:分析面试者的视线位置偏离程度;

s4:分析面试者的语音连贯程度;

s5:根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价。

面试数据分析方法还包括以下步骤:

s1-1:面试背景采集模块连接面试背景混乱程度分析模块,面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,面试背景混乱程度分析模块通过面试背景采集模块获取采集到的面试背景图片,面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一颜色分布区域的形状,判断任一颜色分布区域的对称性,面试背景混乱程度分析模块以竖直线为任一颜色分布区域的对称轴,并于对称轴任意一侧的颜色分布区域的边缘建立若干第一对称点,面试背景混乱程度分析模块根据对称轴、第一对称点于对称轴另一侧确定第二对称点的位置,并统计位于另一侧颜色分布区域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数量,记数量为

面试背景混乱程度分析模块记第一对称点的数量为,计算任一颜色分布区域的对称性,面试背景混乱程度分析模块进一步计算面试背景的混乱程度,其中,n为颜色分布区域的数量;

s2-1:肢体动作混乱程度分析模块连接肢体动作获取模块以及肢体位置定位模块,

肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析,

肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参照点位置作为第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分析所有第一原始点位置的移动频率,当第一原始点移动的距离大于等于第一预设值时,记作一次第一原始点的移动,统计所有第一原始点位置的移动次数,并进一步根据移动次数与一定时间段计算在该时间段内各个第一原始点的移动频率,获取该时间段内的移动频率最大值,肢体动作混乱程度分析模块预先存储有移动频率区间与移动频率区间相对应的混乱评估值,肢体动作混乱程度分析模块根据移动频率最大值确定移动频率从区间,并查找到对应的混乱评估值,记作

肢体动作混乱程度分析模块在一定时间段结束时,以一定时间段的结束时刻作为下一时间段的开始时刻,以开始时刻获取到的移动参照点位置作为第二原始点位置,并从开始时刻开始,于一定时间段内分析所有第二原始点位置的移动频率,以此类推,一直到视频面试结束,通过分析得到第n原始点位置的移动频率,肢体动作混乱程度分析模块根据移动频率计算肢体动作的混乱程度,其中,为第n原始点的移动频率最大值所对应的混乱评估值;

s3-1:视线位置定位模块连接视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位置,当肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,视线位置偏离分析模块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部位,若当前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面试者的肢体移动次数以及视线位置对应上面试者的手部位置的次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视线位置,视线位置偏离分析模块获取面试者的视线移动次数以及视线位置对应上屏幕位置的次数

视线位置偏离分析模块进一步计算面试者的视线偏离程度,其中,皆为系数,

s4-1:语音识别模块连接语音连贯程度分析模块,语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段内通过语音连贯程度分析模块统计当前面试者的停顿次数以及每次的停顿时间,并进一步计算面试者的停顿总时间,语音连贯程度分析模块根据停顿总时间与时间段计算两者之间的比值,语音连贯程度分析模块进一步计算整个面试过程中面试者每一次发言时的停顿总时间与发言时间的比值,并计算得出所有的比值平均值,语音连贯程度分析模块预先存储有比值平均值区间以及与比值平均值区间对应的连贯程度评估值

若当前语音为面试人员发出,在面试人员发言的时间段内通过语音连贯程度分析模块统计当前面试者的语音出现次数,语音连贯程度分析模块预先存储有语音出现次数区间以及与语音出现次数区间对应的连贯程度评估值

语音连贯程度分析模块进一步计算面试者的语音连贯程度,其中,皆为系数,

s5-1:面试数据综合分析模块连接面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

面试数据综合分析模块进一步获取面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度,面试数据综合分析进一步计算得到综合分析评估值,其中,为系数,

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。

最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1