基于微表情的比赛监控方法、装置、计算机设备及存储介质与流程

文档序号:17928472发布日期:2019-06-15 00:36阅读:244来源:国知局
基于微表情的比赛监控方法、装置、计算机设备及存储介质与流程

本发明涉及微表情识别领域,尤其涉及一种基于微表情的比赛监控方法、装置、计算机设备及存储介质。



背景技术:

目前在体育比赛过程中,尤其是大型比赛(比如足球比赛、橄榄球比赛或者篮球比赛),一方面由于运动量过大,身体对抗激烈,容易受伤甚至猝死等极端情况出现。另一方面,由于场地过大人员过多等原因,运动员会出现欺骗裁判等作弊现象,比如足球运动中禁区内骗取点球,篮球运动中骗取罚球等情况,而裁判的精力有限,往往很难判断球员的行为时欺骗行为还是真实的行为,有时候需要通过中断比赛来观看视频来做进一步的判断,影响了比赛的流畅性,而且这种方式效率较低,也不容易辨别。



技术实现要素:

本发明实施例提供一种基于微表情的比赛监控方法、装置、计算机设备及存储介质,以解决体育比赛中异常情况监控不及时的问题。

一种基于微表情的比赛监控方法,包括:

获取微表情检测请求,所述微表情检测请求包括用户标识和检测时间;

根据所述用户标识和所述检测时间获取对应的待检测视频数据;

对所述待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数;

将n幅所述待检测图像输入到微表情识别模型中进行检测,得到每一所述待检测图像的微表情信息;

若所述微表情信息中存在符合预设微表情的内容,则发出提示信息。

一种基于微表情的比赛监控装置,包括:

微表情检测请求获取模块,用于获取微表情检测请求,所述微表情检测请求包括用户标识和检测时间;

待检测视频数据获取模块,用于根据所述用户标识和所述检测时间获取对应的待检测视频数据;

视频分帧模块,用于对所述待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数;

微表情信息检测模块,用于将n幅所述待检测图像输入到微表情识别模型中进行检测,得到每一所述待检测图像的微表情信息;

提示信息发送模块,用于若所述微表情信息中存在符合预设微表情的内容,则发出提示信息。

一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于微表情的比赛监控方法的步骤。

一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于微表情的比赛监控方法的步骤。

上述基于微表情的比赛监控方法、装置、计算机设备及存储介质中,先获取微表情检测请求,微表情检测请求包括用户标识和检测时间。根据用户标识和检测时间获取对应的待检测视频数据。对待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数。将n幅待检测图像输入到微表情识别模型中进行检测,得到每一待检测图像的微表情信息。若微表情信息中存在符合预设微表情的内容,则发出提示信息。根据微表情检测请求中的用户标识和检测时间获取到待检测视频数据,并对待检测视频数据进行分帧处理,得到待检测图像,并且根据对待检测图像中的用户标识的微表情识别,得到微表情信息。若微表情信息中存在符合预设微表情的内容,则发出提示信息。通过在触发微表情检测时,根据用户标识在检测时间内的微表情来辅助进行判断,保证了对体育比赛中异常情况的有效监控。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明一实施例中基于微表情的比赛监控方法的一应用环境示意图;

图2是本发明一实施例中基于微表情的比赛监控方法的一示例图;

图3是本发明一实施例中基于微表情的比赛监控方法的另一示例图;

图4是本发明一实施例中基于微表情的比赛监控方法的另一示例图;

图5是本发明一实施例中基于微表情的比赛监控方法的另一示例图;

图6是本发明一实施例中基于微表情的比赛监控方法的另一示例图;

图7是本发明一实施例中基于微表情的比赛监控方法的另一示例图;

图8是本发明一实施例中基于微表情的比赛监控装置的一原理框图;

图9是本发明一实施例中基于微表情的比赛监控装置的另一原理框图;

图10是本发明一实施例中计算机设备的一示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明实施例提供的基于微表情的比赛监控方法,可应用在如图1的应用环境中,其中,客户端(计算机设备)通过网络与服务端进行通信。客户端生成微表情检测请求,将该微表情检测请求发送至服务端。服务端根据用户标识和检测时间获取对应的待检测视频数据;对待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数;将n幅待检测图像输入到微表情识别模型中进行检测,得到每一待检测图像的微表情信息;若微表情信息中存在符合预设微表情的内容,则发出提示信息。其中,客户端(计算机设备)可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。

在一个实施例中,如图2所示,提供一种基于微表情的比赛监控方法,以该方法应用在图1中的服务端为例进行说明,包括如下步骤:

s10:获取微表情检测请求,微表情检测请求包括用户标识和检测时间。

其中,微表情检测请求是指触发对特定目标进行微表情识别或检测的请求。微表情检测请求包括用户标识和检测时间。用户标识是用于区分不同用户的唯一性标识,具体地,该用户标识可以为身份证号码、手机号码或者为用户分配地一个唯一性编号,该唯一性编号可以由数字、字母、符号或者文字中的至少一项组成。检测时间是对用户标识对应的用户进行微表情检测的特定时间,可选地,该检测时间可以是一个时间点或者一个时间段。若该检测时间为一个时间段,则该检测时间具体可以由一个起始时间和结束时间来表示,或者由一个起始时间(或结束时间)和一个时间段来表示。

可选地,该微表情检测请求可以由客户端生成并发送至服务端,服务端即获取到该微表情检测单元。进一步地,该微表情检测请求也可以由服务端设置特定的触发条件(例如:检测到有目标摔倒、采集到尖锐的哨声或者其他特定的情形)。若该触发条件达到,服务端则生成并获取到该微表情检测请求。

s20:根据用户标识和检测时间获取对应的待检测视频数据。

其中,待检测视频数据为根据特定条件进行筛选并处理之后得到的视频数据。该特定的条件由用户标识和检测时间来共同确定。具体地,存在预定数量的视频采集工具在不同的方位或位置对用户进行视频的采集,从而得到预定数量的原始视频数据。例如,在篮球比赛或者足球比赛中,设置多个视频采集工具对球场上的情况进行监控。可以理解地,视频采集工具的数量越多,后续监控的精度就越高。然而,视频采集工具的数量越多,数据处理速度也会下降,具体可以根据实际需要进行设定。在该步骤中,先根据检测时间在预定数量的原始视频数据中截取对应时间段的视频数据,进一步地,检测这些对应时间段的视频数据中是否存在用户标识对应的用户,若存在,则将对应的视频数据确定为待检测视频数据。具体地,可以预先在不同用户上设置对应的标签,若在视频数据中检测到该用户标识对应的标签,即确定该视频数据中存在用户标识对应的用户。可选地,可以采用人脸识别算法识别出原始视频数据中的人脸图像,并将原始视频数据中识别出的每一人脸图像和该用户标识对应的标准图像进行匹配,若匹配成功,则确定该原始视频数据中存在用户标识对应的用户。随即根据该检测时间从存在用户标识对应的用户的原始视频数据中进行视频截取,得到待检测视频数据。可以理解地,该待检测视频数据可以为一个,也可以为复数个。

s30:对待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数。

在得到待检测视频数据之后,对待检测视频数据进行分帧处理。具体分帧的帧率或者帧数可以根据实际需要来设定,可以理解地,设定的帧率或者帧数越高,后续检测的精度就越高,但是对应的服务端的计算时间也会越长。具体可以根据实际的检测精度和检测效率来进行对应的调整。将待检测视频按照预设的帧率或者帧数进行分帧之后,即得到n幅待检测图像,n为正整数。可选地,若待检测视频数据为复数个,则对每一待检测视频数据都进行分帧处理,得到每一待检测视频数据对应的n幅待检测图像。

s40:将n幅待检测图像输入到微表情识别模型中进行检测,得到每一待检测图像的微表情信息。

微表情识别模型是用于判断待检测图像中人脸情绪的识别模型,该微表情识别模型可以判断待检测图像中人脸对应于预设的多种情绪的概率值,若某种情绪的概率值超过对应的预设阈值,则得到该待检测图像对应的情绪即为微表情信息。例如,可以将表情识别模型中的情绪设定为高兴、痛苦、惊讶、轻蔑、害怕、愤怒、平静和厌恶8种。具体地,可以预先采集分别代表这8种情绪的大量样本图片进行标注,形成样本图片集,然后选择对应的神经网络模型或者分类器进行训练,最终得到微表情识别模型。此后,在该步骤中,将n幅待检测图像输入到微表情识别模型中进行识别,就得到每一待检测图像的微表情信息。其中,每一待检测图像的微表情信息是指在待检测图像中用户标识对应的用户的微表情信息。在待检测图像中,可能会存在多个用户的脸部部分图像,而每一个用户的脸部部分图像会对应一个微表情信息,在该步骤中,待检测图像的微表情信息是指待检测图像中用户标识对应的用户的微表情信息。可选地,若待检测视频数据为复数个,则将每一待检测视频数据对应的n幅待检测图像都输入到微表情识别模型中进行检测,得到每一待检测图像的微表情信息。

s50:若微表情信息中存在符合预设微表情的内容,则发出提示信息。

具体地,预先设定预定数量的预设微表情,若在步骤s40种的微表情信息种存在符合预设微表情的内容,则发出提示信息。可选地,该提示信息可以发送到客户端,也可以通过文字或者语音的形式进行显示,以提醒该用户标识对应的微表情信息存在异常,需要引起警惕。

在本实施例中,先获取微表情检测请求,微表情检测请求包括用户标识和检测时间。根据用户标识和检测时间获取对应的待检测视频数据。对待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数。将n幅待检测图像输入到微表情识别模型中进行检测,得到每一待检测图像的微表情信息。若微表情信息中存在符合预设微表情的内容,则发出提示信息。根据微表情检测请求中的用户标识和检测时间获取到待检测视频数据,并对待检测视频数据进行分帧处理,得到待检测图像,并且根据对待检测图像中的用户标识的微表情识别,得到微表情信息。若微表情信息中存在符合预设微表情的内容,则发出提示信息。通过在触发微表情检测时,根据用户标识在检测时间内的微表情来辅助进行判断,保证了对体育比赛中异常情况的有效监控。

在一个实施例中,如图3所示,获取微表情检测请求,具体包括如下步骤:

s11:监测原始视频数据中每一用户的行为数据。

其中,存在预定数量的视频采集工具在不同的方位或位置对用户进行视频的采集,得到了预定数量的原始视频数据。行为数据是指对原始视频数据中用户行为状态的体现,可选地,行为数据可以包括非跌倒状态和跌倒状态。

具体地,可以定时对原始视频数据进行截取,得到待识别图像。可选地,服务端可以通过截屏的方式从原始视频数据中获取待识别图像。具体地,可以通过opencv来实现获取待识别图像的过程,opencv提供了一个简便易用的框架以提取视频文件中的图像帧。示例性地,采用videocapture类来进行视频读取和写入的操作。首先采用videocapture类中的cap=cv2.videocapture()函数显示对应的视频数据,再通过videocapture类中的cap.read()函数按预设的帧率读取视频数据,cap.read()函数的返回值有两个:ret和frame。其中,ret是布尔值,如果读取帧是正确的则返回true,如果该视频数据已经读取到结尾,它的返回值就为false,即可以通过cap.read()函数的返回值来判断该视频数据是否读取完毕。frame就是当前截取的图像,其可以为一个三维矩阵。

在得到待识别图像之后,对待识别图像中的用户采用人体特征点检测算法进行特征点检测,并从得到的特征点中获取基准坐标点,根据基准坐标点的坐标来判断每一用户的行为数据。可选地,基准坐标点可以为头部坐标点、重心坐标点和小腿中心坐标点。在得到这三个点的坐标之后,计算头部左边点和中心坐标点连线和水平面的夹角,以及中心坐标点和小腿中心坐标点连线和水平面的夹角,根据这两个夹角的度数来判断该用户的行为数据。示例性地,当这两个夹角都小于一预设度数时(例如:15度、20度或者25度),则认为该用户的行为数据为跌倒状态。否则,该用户的行为数据为非跌倒状态。

s12:若任一用户的行为数据为异常行为状态,则获取异常行为状态对应的用户以及时间点数据。

其中,异常行为状态是指用户处于非常规姿态的一种行为状态,例如:发生碰撞、失去平衡、跌倒等。在该步骤中,若判断出任一用户的行为数据为异常行为状态,则获取该异常行为状态对应的用户以及时间点数据。其中,时间点数据是指该异常行为状态在原始视频数据中对应的具体时间点。可以理解地,若行为数据为异常行为状态的用户为复数个,则获取每一异常行为状态对应的用户以及时间点数据。

s13:根据异常行为状态对应的用户以及时间点数据分别得到用户标识和检测时间。

获取异常行为状态对应的用户的用户标识,以及获取时间点数据对应的检测时间。具体地,可以在时间点数据中分别向前取一第一预设时间段,向后取一第二预设时间段,两段时间段组成检测时间。可选地,第一预设时间段和第二预设时间段可以相同,也可以不同。示例性地,若时间点数据为3分40秒,而第一预设时间为20秒,第二预设时间为20秒。则检测时间为3分20秒到4分0秒这段时间。

s14:根据用户标识和检测时间生成微表情检测请求。

在得到用户标识和检测时间之后,根据用户标识和检测时间生成微表情检测请求。

在这个实施例中,通过监测原始视频数据中每一用户的行为数据。若任一所述用户的行为数据为异常行为状态,则获取异常行为状态对应的用户以及时间点数据。根据异常行为状态对应的用户以及时间点数据分别得到用户标识和检测时间。根据用户标识和检测时间生成微表情检测请求。通过对原始视频数据的实时监测,当用户的行为数据为异常行为状态时,来自动触发生成微表情检测请求,保证了对体育比赛中异常情况监控的实时性和有效性。

在一个实施例中,如图4所示,监测原始视频数据中每一用户的行为数据,具体包括如下步骤:

s111:获取原始视频数据,按照预设时间从原始视频数据中提取待识别图像。

从视频采集工具中获取原始视频数据,并且按照预设时间从原始视频数据中提取待识别图像,具体的提取方式参见步骤s11,在此不再赘述。其中,预设时间为预先设定的一个时间间隔,可以理解地,该预设时间越短,对体育比赛监控的精度就越高。

s112:采用人体关键点检测算法获取待识别图像中每一用户的目标关键点。

在得到待识别图像之后,对待识别图像中的用户采用人体特征点检测算法进行特征点检测,并从得到的特征点中获取目标关键点。可选地,该目标关键点通过基准坐标点来体现,根据基准坐标点的坐标来判断每一用户的行为数据。可选地,基准坐标点可以为头部坐标点、重心坐标点和小腿中心坐标点。

s113:判断每一用户的目标关键点是否符合异常条件,根据判断结果得到每一用户的行为数据,行为数据包括异常行为状态和正常状态。

在该步骤中,在得到目标关键点之后,判断每一用户的目标关键点是否符合异常条件。其中,可以为异常条件预先设置和目标关键点相关的衡量标准,来判断每一用户的目标关键点是否符合异常条件。再根据判断结果得到每一用户的行为数据。

示例性地,对于异常条件为跌倒状态的情况而言,选定基准坐标点为头部坐标点、重心坐标点和小腿中心坐标点。在得到每一用户的目标关键点之后(三个基准坐标点),计算头部左边点和中心坐标点连线和水平面的夹角,以及中心坐标点和小腿中心坐标点连线和水平面的夹角,根据这两个夹角的度数来得到判断结果,即根据这两个夹角得度数来判断每一用户的目标关键点是否符合跌倒条件,判断结果包括符合跌倒条件和不符合跌倒条件。若判断结果为符合跌倒条件,则对应的行为数据为异常行为状态。示例性地,当这两个夹角都小于一预设度数时(15度、20度或者25度),则认为该用户的行为数据为跌倒状态。

在本实施例中,获取原始视频数据,按照预设时间从原始视频数据中提取待识别图像。采用人体关键点检测算法获取待识别图像中每一用户的目标关键点。判断每一用户的目标关键点是否符合异常条件,根据判断结果得到每一所述目标的行为数据,行为数据包括异常行为状态和正常状态。通过对待识别图像中的用户采用人体关键点检测算法获取目标关键点,并且通过目标关键点判断每一用户是否符合异常条件,保证了对体育比赛实时监控的准确性。

在一个实施例中,如图5所示,根据用户标识和检测时间获取对应的待检测视频数据,具体包括如下步骤:

s21:根据检测时间在m个原始视频数据中查找用户标识对应的目标人物。

具体地,根据检测时间在m个原始视频数据中定位到对应的时间段,并判断在每一时间段的原始视频数据中是否存在用户标识对应的目标人物,m为正整数。具体地,可以为每一原始视频数据中这一检测时间内的视频数据继续分帧并进行人脸匹配,判断在每一原始视频数据的这一检测时间内是否匹配到该用户标识对应的目标人物。具体的人脸匹配方式可以通过将对应图像进行特征向量的转化,并计算对应特征向量的相似度来进行匹配。

s22:将在检测时间内存在用户标识对应的目标人物的原始视频数据确定为目标视频数据。

若在一原始视频数据的检测时间内匹配到该用户标识对应的目标人物,则说明该原始视频数据在检测时间内存在用户标识对应的目标人物,此时将该原始视频数据确定为目标视频数据。

s23:根据检测时间从目标视频数据中获取待检测视频数据。

将目标视频数据根据检测时间进行截取,得到待检测视频数据。即将目标视频数据中符合检测时间的部分进行截取,以得到待检测视频数据。

在本实施例中,根据检测时间在m个原始视频数据中查找用户标识对应的目标人物。将在检测时间内存在用户标识对应的目标人物的原始视频数据确定为目标视频数据。根据检测时间从给所述目标视频数据中获取待检测视频数据。对原始视频数据根据检测时间和用户标识进行截取,减少了后续的系统计算时间,提高了监控效率。

在一个实施例中,如图6所示,获取微表情检测请求,微表情检测请求包括用户标识和检测时间,具体包括如下步骤:

s11’:获取客户端发送的微表情检测信息,微表情检测信息包括用户标识。

在该步骤中,该客户端可以为便于携带的移动设备,客户端通过网络和服务端继续交互。具体地,手持客户端(移动设备)的人员在发现在比赛现场由异常情况发生时,触发发送微表情检测信息的动作,并将发生异常的用户标识记录到客户端中,客户端将该用户标识组成微表情检测信息。具体地,该触发发送微表情检测信息的动作可以为客户端中的特定按键,或者为特地的语音信息。

s12’:获取当前系统时间,根据当前系统时间得到检测时间。

客户端此时获取当前系统时间,其中,当前系统时间即客户端当前的显示时间,也可以是进行网络同步后的当前时间。在得到当前系统时间之后,可以在当前系统时间中分别向前取一第一预设时间段,向后取一第二预设时间段,两段时间段(第一预设时间段和第二预设时间段)组成检测时间。

s13’:根据用户标识和检测时间生成微表情检测请求。

在该步骤中,根据用户标识和检测时间生成微表情检测请求,即微表情检测请求中包括用户标识和检测时间。

在该步骤中,获取客户端发送的微表情检测信息,微表情检测信息包括用户标识。获取当前系统时间,根据当前系统时间得到检测时间。根据用户标识和检测时间生成微表情检测请求。通过客户端发起的微表情检测信息来最终生成微表情检测请求,进一步保证了对体育比赛监控的实时性和有效性。

在一个实施例中,若微表情信息中存在符合预设微表情的内容,则发出提示信息,具体包括如下步骤:

若任一微表情信息属于预设微表情,则发出提示信息。

在本实施例中,检测微表情信息中是否出现了异常的微表情,例如:开心或者假笑。此时将异常的微表情设置为预设微表情,只要微表情信息中出现了属于预设微表情的情绪,则说明该用户存在假摔或者表演的嫌疑,此时发出提示信息,提示相关人员注意。

在一个实施例中,如图7所示,若微表情信息中存在符合预设微表情的内容,则发出提示信息,具体包括如下步骤:

s51:将每一待检测图像的微表情信息按照时序进行排序,得到微表情序列。

s52:若微表情序列中存在符合预定微表情序列的内容,则发出提示信息。

将每一待检测图像的微表情信息按照时序进行排序,得到微表情序列,即按照时间先后顺序对每一待检测图像的微表情信息进行排序。若微表情序列中存在符合预定微表情序列的内容,则发出提示信息。其中,预设微表情序列是指出现异常的微表情顺序,例如:痛苦、平静、痛苦。若微表情序列中存在符合预定微表情序列的内容,则说明用户存在假摔或者表演的嫌疑,此时发出提示信息,提示相关人员注意。可以理解地,上述预设微表情序列仅是一个示例性的说明,具体可以根据实际需要或者实际场景进行设定。

在本实施例中,通过对微表情信息的检测,若出现异常的微表情序列,则发出提示信息,提醒相关人员注意,以实现更好地对体育比赛异常情况的监控。

应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。

在一个实施例中,提供一种基于微表情的比赛监控装置,该基于微表情的比赛监控装置与上述实施例中基于微表情的比赛监控方法一一对应。如图8所示,该基于微表情的比赛监控装置包括微表情检测请求获取模块10、待检测视频数据获取模块20、视频分帧模块30、微表情信息检测模块40和提示信息发送模块50。各功能模块详细说明如下:

微表情检测请求获取模块10,用于获取微表情检测请求,微表情检测请求包括用户标识和检测时间;

待检测视频数据获取模块20,用于根据用户标识和检测时间获取对应的待检测视频数据;

视频分帧模块30,用于对待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数;

微表情信息检测模块40,用于将n幅待检测图像输入到微表情识别模型中进行检测,得到每一待检测图像的微表情信息;

提示信息发送模块50,用于若微表情信息中存在符合预设微表情的内容,则发出提示信息。

优选地,如图9所示,微表情检测请求获取模块10包括行为数据检测单元11、异常行为状态数据获取单元12、标识和时间获取单元13和微表情检测请求生成单元14。

行为数据检测单元11,用于监测原始视频数据中每一用户的行为数据;

异常行为状态数据获取单元12,用于在任一用户的行为数据为异常行为状态时,则获取异常行为状态对应的用户以及时间点数据;

标识和时间获取单元13,用于根据异常行为状态对应的用户以及时间点数据分别得到用户标识和检测时间;

微表情检测请求生成单元14,用于根据用户标识和检测时间生成微表情检测请求。

优选地,行为数据检测单元11包括原始视频数据获取子单元、目标关键点获取子单元和行为数据获取子单元。

原始视频数据获取子单元,用于获取原始视频数据,按照预设时间从原始视频数据中提取待识别图像;

目标关键点获取子单元,用于采用人体关键点检测算法获取待识别图像中每一用户的目标关键点;

行为数据获取子单元,用于判断每一用户的目标关键点是否符合异常条件,根据判断结果得到每一用户的行为数据,行为数据包括异常行为状态和正常状态。

优选地,待检测视频数据获取模块20用于根据检测时间在m个原始视频数据中查找用户标识对应的目标人物;将在检测时间内存在用户标识对应的目标人物的原始视频数据确定为目标视频数据;根据检测时间从目标视频数据中获取待检测视频数据。

优选地,微表情检测请求获取模块10用于获取客户端发送的微表情检测信息,微表情检测信息包括用户标识;获取当前系统时间,根据当前系统时间得到检测时间;根据用户标识和检测时间生成微表情检测请求。

优选地,提示信息发送模块50用于在任一微表情信息属于预设微表情时,则发出提示信息。

优选地,提示信息发送模块50用于将每一待检测图像的微表情信息按照时序进行排序,得到微表情序列;若微表情序列中存在符合预定微表情序列的内容,则发出提示信息。

关于基于微表情的比赛监控装置的具体限定可以参见上文中对于基于微表情的比赛监控方法的限定,在此不再赘述。上述基于微表情的比赛监控装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。

在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述基于微表情的比赛监控方法中使用到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现前述任意一种基于微表情的比赛监控方法。

在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:

获取微表情检测请求,所述微表情检测请求包括用户标识和检测时间;

根据所述用户标识和所述检测时间获取对应的待检测视频数据;

对所述待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数;

将n幅所述待检测图像输入到微表情识别模型中进行检测,得到每一所述待检测图像的微表情信息;

若所述微表情信息中存在符合预设微表情的内容,则发出提示信息。

在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:

获取微表情检测请求,所述微表情检测请求包括用户标识和检测时间;

根据所述用户标识和所述检测时间获取对应的待检测视频数据;

对所述待检测视频数据进行分帧处理,得到n幅待检测图像,n为正整数;

将n幅所述待检测图像输入到微表情识别模型中进行检测,得到每一所述待检测图像的微表情信息;

若所述微表情信息中存在符合预设微表情的内容,则发出提示信息。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。

以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1