主播直播行为审核方法、装置、电子设备及可读存储介质与流程

文档序号:32347939发布日期:2022-11-26 11:58阅读:195来源:国知局
主播直播行为审核方法、装置、电子设备及可读存储介质与流程

1.本技术涉及多媒体技术领域,具体而言,涉及一种主播直播行为审核方法、装置、电子设备及可读存储介质。


背景技术:

2.随着网络技术的快速发展,很多平台都推出了直播,目前的直播门槛低,任何人都可以成为主播,因而直播行业也得到了快速的发展。对于直播平台来说,由于主播门槛较低,主播的质量也参差不齐,甚至有的主播为了博取流量而会做出一些违规的行为。因而在面对大批量的主播,直播行为以及直播质量的监管成为了直播平台十分重要的工作。
3.目前的监管方式往往是要靠人工,也就是俗称的“网管”来随机的进入某些直播间来发现问题,这需要很多人,带来了很大的工作量,也会存在不客观和不能全流程监控等问题。


技术实现要素:

4.有鉴于此,本技术实施例的目的在于提供一种主播直播行为审核方法、装置、电子设备及可读存储介质。能够按照统一标准对直播行为进行自动化审核。
5.第一方面,本技术实施例提供了一种主播直播行为审核方法,包括:将获取到的直播流解码为视频帧数据;将所述视频帧数据输入多种算法模型进行分析,得到所述直播流对应主播的行为数据;其中,所述算法模型包括违规行为分析算法模型;以及根据所述行为数据和预设异常行为规则确定所述主播的直播行为是否存在异常。
6.在上述实现过程中,通过将直播流解析得到的帧数据输入到各种算法模型进行分析,以得到该直播流的多个行为数据,并基于行为数据进一步确定该直播流对应的主播的直播行为是否存在异常行为。整个验证的过程都是通过该主播直播行为审核系统完成的,没有人为参与,减少工作人员的工作量。同时,所有的行为数据都是按照统一标准进行审核的,不会出现人为监控出现的不客观、不全面的问题,提高了审核的准确性和全面性。
7.在一个实施例中,所述行为数据包括人体四肢空间位置数据以及面部特征数据;所述异常包括违规行为;所述将所述视频帧数据输入多种算法模型进行分析,得到所述直播流对应主播的行为数据,包括:将所述视频帧数据输入到所述违规行为分析算法模型;通过所述违规行为分析算法模型对所述帧数据进行识别,以确定所述帧数据对应的人体四肢空间位置数据以及面部特征数据;其中,所述违规行为分析算法模型中包括违规规则库,所述违规规则库中包括多种行为数据对应的行为类型及违规等级;所述根据所述行为数据和预设异常行为规则确定所述主播的直播行为是否存在异常,包括:基于违规规则库对所述人体四肢空间位置数据以及所述面部特征变化数据进行分析,以确定所述直播流对应主播是否存在违规行为;以及若所述主播存在违规行为,根据所述行为数据和所述违规规则库中的多种行为数据对应的行为类型及违规等级,确定所述主播的违规等级。
8.在上述实现过程中,通过根据将帧数据输入到违规行为分析算法模型,以确定出
帧数据对应的肢体行为和面部表情,进而确定出主播的行为数据。并将该行为数据和违规行为进行匹配确定出该主播是否存在违规行为及违规行为的等级。实现了对视频帧数据的多方面分析,能够准确地确定出视频帧数据对应的行为,以及时准确的审核出违规行为和违规等级,防止主播违规直播,提高直播的质量。
9.在一个实施例中,所述算法模型还包括人脸表情算法模型,所述行为数据包括情绪数据;所述将所述视频帧数据输入多种算法模型进行分析,得到所述直播流对应主播的行为数据,包括:将所述视频帧数据输入到所述人脸表情算法模型;通过所述人脸表情算法模型对所述帧数据进行人脸识别,以确定所述帧数据对应的人脸数据;对所述人脸数据进行特征提取,并对提取到的特征进行分类,以确定出所述帧数据对应主播的情绪数据。
10.在上述实现过程中,通过人脸表情算法模型识别帧数据中的人脸数据以及对人脸数据进行特征提取,以提取到人脸中的特征数据,并对特征进行分类,以分别确定每个特征所属情绪范围,进而通过根据多个特征数据的情绪范围确定出该帧数据对应主播的情绪数据。由于该情绪数据是基于多个特征进行确定的,能够保证该情绪数据的准确性,进而在对该直播流进审核时,提高了审核的准确性。
11.在一个实施例中,所述算法模型还包括肢体行为分析模型,所述行为数据包括肢体数据;所述将所述视频帧数据输入多种算法模型进行分析,得到所述直播流对应主播的行为数据,包括:将所述视频帧数据输入到所述肢体行为分析模型;通过所述肢体行为分析模型检测所述帧数据中的肢体,以确定所述帧数据对应的肢体数据;对所述肢体数据进行特征提取,并对提取到的特征进行分类,以确定出所述帧数据对应主播的动作数据。
12.在上述实现过程中,通过肢体行为分析模型识别帧数据中的肢体数据以及对肢体数据进行特征提取,以提取到肢体中的特征数据,并对特征进行分类,以分别确定每个特征所属动作范围,进而通过根据多个特征数据的动作范围确定出该帧数据对应主播的动作数据。由于该动作数据是基于多个特征进行确定的,能够保证该行为数据的准确性,进而在对该直播流进审核时,提高了审核的准确性。
13.在一个实施例中,所述异常包括告警;所述根据所述行为数据和预设异常行为规则确定所述主播的直播行为是否存在异常,包括:将所述情绪数据和所述动作数据输入到异常告警模型;通过所述异常告警模型将所述情绪数据和所述动作数据与告警库中告警行为对比,以确定所述主播是否存在告警行为;其中,所述异常告警模型包括告警库,所述告警库中包括告警行为与相对应的行为数据。
14.在上述实现过程中,将情绪数据和动作数据输入到异常告警模型中,以通过该异常告警模型对该情绪数据和动作数据两种类型的数据与告警库中的行为进行匹配,能够综合主播的情绪和动作确定出主播真实的直播状态,更加准确的确定出主播的行为,以使得到的报警行为更加准确,防止误报,提高了告警的准确性。
15.在一个实施例中,所述将所述视频帧数据输入多种算法模型进行分析,得到所述直播流对应主播的行为数据之后,所述方法还包括:根据所述行为数据和设定评分规则对所述行为数据进行评分,以确定所述帧数据对应的主播的直播分值;其中,所述行为数据和所述设定评分规则根据所述主播所在直播领域确定。
16.在上述实现过程中,通过根据主播的行为数据和评分规则对主播的直播进行评分,以确定出主播在直播时的直播质量,方便平台对各个主播的管理,能够对主播的直播行
为进行一定的约束,在实现对主播进行统一管理的同时提高了直播的质量。
17.在一个实施例中,所述行为数据包括行为时长和行为次数;所述根据所述行为数据和设定评分规则对所述行为数据进行评分,以确定所述帧数据对应的主播的直播分值,包括:根据所述行为时长确定所述行为时长在所述直播过程中的时长占比;根据所述行为次数确定所述行为次数在所述直播过程中的次数占比;根据所述时长占比和所述次数占比确定所述主播的直播分值。
18.在上述实现过程中,通过将告警产生的扣分去除后,根据行为数据以及行为次数两方面数据的占比来计算主播在直播过程中直播分值。能够较为全面的反映出主播在直播中的真实直播情况,以提高确定主播直播质量的准确性。
19.第二方面,本技术实施例还提供一种主播直播行为审核装置,包括:解码模块:用于将获取到的直播流解码为视频帧数据;分析模块:用于将所述视频帧数据输入多种算法模型进行分析,得到所述直播流对应主播的行为数据;其中,所述算法模型包括违规行为分析算法模型;确定模块:用于根据所述行为数据和预设异常行为规则确定所述主播的直播行为是否存在异常。
20.第三方面,本技术实施例还提供一种电子设备,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面的任一种可能的实施方式中的方法的步骤。
21.第四方面,本技术实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面的任一种可能的实施方式中主播直播行为审核方法的步骤。
22.为使本技术的上述目的、特征和优点能更明显易懂,下文特举实施例,并配合所附附图,作详细说明如下。
附图说明
23.为了更清楚地说明本技术实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本技术的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
24.图1为本技术实施例提供的主播直播行为审核系统示意图;
25.图2为本技术实施例提供的视频分析盒的方框示意图;
26.图3为本技术实施例提供的主播直播行为审核方法的流程图;
27.图4为本技术实施例提供的主播直播行为审核装置的功能模块示意图。
具体实施方式
28.下面将结合本技术实施例中附图,对本技术实施例中的技术方案进行描述。
29.应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本技术的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
30.随着4g,5g时代的到来,短视频已经从新鲜事物变成了被大众普遍认可和喜爱的
memory,简称eprom),电可擦除只读存储器(electric erasable programmable read-only memory,简称eeprom)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序,本技术实施例任一实施例揭示的过程定义的视频分析盒100所执行的方法可以应用于处理器113中,或者由处理器113实现。
40.上述的处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器113可以是通用处理器,包括中央处理器(central processingunit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(digital signal processor,简称dsp)、专用集成电路 (application specific integrated circuit,简称asic)、现场可编程门阵列 (fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
41.上述的外设接口114将各种输入/输出装置耦合至处理器113以及存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112 可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
42.上述的输入输出单元115用于提供给用户输入数据。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
43.上述的视频分析盒110在获取到直播流后,对该直播流进行解码,以变成视频帧数据。该视频分析盒110在将直播流解码为视频帧数据后,将该视频帧数据用算法模型进行分析,得到该直播流对应主播的行为数据,并将该行为数据发送到云端子系统130和后台管理子系统140。该视频分析盒110还可以根据该行为数据及预设异常行为规则确定主播的直播行为是否存在异常以及根据行为数据和设定评分规则对行为数据进行评分,以确定该帧数据对应的主播的直播分值,并将结果发送到云端子系统130和后台管理子系统140。
44.这里的云端子系统130在用于获取主播的行为数据,并将该行为数据进行汇总、存储以及推送告警信号。
45.在一些实施例中,该云端子系统130也可以在获取到主播的行为数据后,根据该行为数据及预设异常行为规则确定主播的直播行为是否存在异常以及根据行为数据和设定评分规则对行为数据进行评分,以确定该帧数据对应的主播的直播分值,并将该异常结果和直播分值发送到后台管理子系统140。
46.这里的后台管理子系统140用于展示及管理该直播流对应主播的直播间实时告警、统计、违规分析及评分等数据的页面。
47.在一些实施例中,该后台管理子系统140也可以在获取到主播的行为数据后,根据该行为数据及预设异常行为规则确定主播的直播行为是否存在异常以及根据行为数据和设定评分规则对行为数据进行评分,以确定该帧数据对应的主播的直播分值,并将该异常结果和直播分值发送到云端子系统130。
48.请参阅图3,是本技术实施例提供的主播直播行为审核方法的流程图。下面将对图3所示的具体流程进行详细阐述。
49.步骤201,将获取到的直播流解码为视频帧数据。
50.可选地,可以使用h264、h265等方式进行直播流解码。
51.这里的直播流为各个直播设备端推流到直播平台到的各个主播直播的视频画面。
52.由于直播获得的直播流的数据量较大,不利于直播流的传输,为了保证传输效率,采用编码的方式将直播流进行压缩。而在对直播流进行分析时,需要完整的原始直播流的数据。因此,采用解码方式对压缩后的直播流进行解码,解码为帧数据,以便于对真实、完整的直播流进行分析,使得到的分析结果更加准确。
53.步骤202,将视频帧数据输入多种算法模型进行分析,得到直播流对应主播的行为数据。
54.其中,算法模型包括违规行为分析算法模型。
55.可选地,该算法模型还可以包括人脸表情算法模型、肢体行为分析模型、语音算法模型、服装算法模型、环境算法模型等。
56.这里得到行为数据可以包括:表情数据、动作数据、语音数据、服饰数据等。该表情数据可以包括微笑、惊讶、哭泣等。该动作数据可以包括挥手、鼓掌、回头、摆头、跑步、跳跃等。该语音数据可以包括文明语言和不文明语言等。该服饰数据可以包括正常服饰和不正常服饰等。可以理解地,这里的文明语言和不文明语言,正常服饰与不正常服饰的具体划分规则可以根据各平台规则或者该领域相关在先技术方案或是相关规定的记载确定,本技术不做具体限制。
57.步骤203,根据行为数据和预设异常行为规则确定主播的直播行为是否存在异常。
58.这里的预设异常行为规则是根据直播场景设定的不同直播场景下属于异常行为的行为数据。
59.上述的异常可以包括违规、告警等不同类型的异常。
60.在上述实现过程中,通过将直播流解析得到的帧数据输入到各种算法模型进行分析,以得到该直播流的多个行为数据,并基于行为数据进一步确定该直播流对应的主播的直播行为是否存在异常行为。整个验证的过程都是通过该主播直播行为审核系统完成的,没有人为参与,减少工作人员的工作量。同时,所有的行为数据都是按照统一标准进行审核的,不会出现人为监控出现的不客观、不全面的问题,提高了审核的准确性和全面性。
61.在一种可能的实现方式中,步骤202包括:将视频帧数据输入到违规行为分析算法模型;通过违规行为分析算法模型对帧数据进行识别,以确定帧数据对应的人体四肢空间位置数据以及面部特征数据。
62.其中,违规行为分析算法模型中包括违规规则库,该违规规则库中包括多种行为数据对应的行为类型及违规等级。
63.这里的人体四肢空间位置数据为主播的四肢在视频中各个位置的数据。该人体四肢空间位置数据可以包括主播的所有四肢的数据,也可以包括主播的部分四肢的数据。例如,该主播为健身主播,则该人体四肢空间位置数据需要包括该主播的所有四肢的空间位置数据。若该主播为聊天主播,则该人体四肢空间位置数据只需要包括该主播的双手的空间位置数据。
64.可以理解地,该人体四肢空间位置数据可以根据主播的具体的场景确定。例如,该主播在直播时处于坐下状态时,该人体四肢空间位置数据仅包括主播的双手的空间位置数据。主播在直播时处于站立状态,该人体四肢空间位置数据需要包括主播的所有四肢的空间位置数据。
65.这里的面部特征数据为主播在直播时面部特征变化的数据。例如,眼睛的特征变
化、嘴巴的特征变化、眉毛的特征变化等。
66.在一实施例中,将视频帧数据输入到违规行为分析算法模型后,该违规行为分析算法还可以确定该帧数据对应的直播环境等数据。
67.在一种可能的实现方式中,步骤203包括:基于违规规则库对人体四肢空间位置数据以及面部特征变化数据进行分析,以确定直播流对应主播是否存在违规行为;以及若主播存在违规行为,根据行为数据和违规规则库中的多种行为数据对应的行为类型及违规等级,确定主播的违规等级。
68.这里的违规行为包括但不限于轻度违规行为、一般违规行为、严重违规行为等。可以理解地,这里的轻度违规行为、一般违规行为、严重违规行为的具体划分规则可以根据各平台规则或者该领域相关在先技术方案或是相关规定的记载确定,本技术不做具体限制。
69.可以理解地,通过对该人体四肢空间位置数据进行分析为:根据该人体四肢空间位置数据分析确定出该帧数据对应的主播的四肢所处位置以及四肢动作,进而确定出主播的肢体动作。通过对该面部特征变化数据进行分析为:根据面部特征变化数据分析确定出该帧数据对应的主播的面部表情及面部表情的相关变化,进而确定出主播的面部表情。基于该主播的肢体动作和面部表情确定出该主播当下的行为数据,进而根据该行为数据确定出该主播是否存在违规行为。
70.上述的违规等级根据违规行为造成的影响大小进行确定。示例性地,该“轻度违规行为”对应的违规等级可以设置为1级,该“一般违规行为”对应的违规等级可以设置为2级,该“严重违规行为”对应的违规等级可以设置为3级等。本领域技术人员可以理解的该违规等级可以根据实际情况进行设置,本技术不做具体限制。
71.在上述实现过程中,通过根据将帧数据输入到违规行为分析算法模型,以确定出帧数据对应的肢体行为和面部表情,进而确定出主播的行为数据。并将该行为数据和违规行为进行匹配确定出该主播是否存在违规行为及违规行为的等级。实现了对视频帧数据的多方面分析,能够准确地确定出视频帧数据对应的行为,以及时准确的审核出违规行为和违规等级,防止主播违规直播,提高直播的质量。
72.在一种可能的实现方式中,步骤202包括:将视频帧数据输入到人脸表情算法模型;通过人脸表情算法模型对帧数据进行人脸识别,以确定帧数据对应的人脸数据;对人脸数据进行特征提取,并对提取到的特征进行分类,以确定出帧数据对应主播的情绪数据。
73.可以理解地,该人脸表情算法模型中设置有人脸识别算法,该人脸识别算法对视频数据中的人脸进行识别,以确定出人脸数据。该人脸识别算法可以是opencv、卷积神经网络、fisherfaces、pca、svm、haar cascade 等。
74.该人脸数据中包括眼睛、鼻子、嘴巴、眉毛以及面部留白区等多种数据。进一步的,为了确定出主播的情绪数据,还需要将该人脸数据中与情绪数据相关的数据进行特征提取。如,眼睛数据、嘴巴数据以及面部肌肉数据等。
75.可以理解地,该特征提取方式可以是hog特征提取、dlib库、卷积神经网络特征提取等。
76.在人脸数据进行特征提取后得到多个特征数据,将这些特征数据按照类型进行分类,并分别对各个类型特征数据进行分析,以确定出该帧数据对应主播的情绪数据。
77.示例性地,该特征数据分为眼睛数据、嘴巴数据、眉毛数据以及法令纹数据等四种
特征数据。对于眼睛数据,可以通过根据该眼睛数据中眼睛张闭程度来确定该眼睛对应的情绪范围。对于嘴巴数据,可以根据嘴巴上扬或下垂程度以及嘴巴张合程度来确定该嘴巴对应的情绪范围。对于眉毛数据,可以根据眉毛的舒张、紧促程度来确定眉毛对应的情绪范围。对于法令纹数据,可以根据法令纹的长度以及深度范围来确定该法令纹对应的情绪范围。在将各个类型的特征数据对应的情绪范围确定出来后,将各个类型的特征数据对应情绪范围进一步进行匹配,确定出该直播流对应的情绪数据。
78.在上述实现过程中,通过人脸表情算法模型识别帧数据中的人脸数据以及对人脸数据进行特征提取,以提取到人脸中的特征数据,并对特征进行分类,以分别确定每个特征所属情绪范围,进而通过根据多个特征数据的情绪范围确定出该帧数据对应主播的情绪数据。由于该情绪数据是基于多个特征进行确定的,能够保证该情绪数据的准确性,进而在对该直播流进审核时,提高了审核的准确性。
79.在一种可能的实现方式中,步骤202包括:将视频帧数据输入到肢体行为分析模型;通过肢体行为分析模型检测帧数据中的肢体,以确定帧数据对应的肢体数据;对肢体数据进行特征提取,并对提取到的特征进行分类,以确定出帧数据对应主播的动作数据。
80.可以理解地,该肢体行为分析模型中设置有肢体行为分析算法,该肢体行为分析算法对视频数据中的肢体进行识别,以确定出肢体数据。该肢体行为分析算法可以是基于无监督学习的行为识别算法、基于卷积神经网络的行为识别算法、基于循环神经网络算法等。
81.该肢体数据中包括左手、右手、左腿、右腿等多种数据。进一步的,为了确定出主播的动作数据,还需要将该肢体数据中与肢体数据相关的数据进行特征提取。如,左手数据、右手数据、左腿数据以及右腿数据等。
82.可以理解地,该特征提取方式可以是hog特征提取、dlib库、卷积神经网络特征提取等。
83.在肢体数据进行特征提取后得到多个特征数据,将这些特征数据按照类型进行分类,并分别对各个类型特征数据进行分析,以确定出该帧数据对应主播的动作数据。
84.示例性地,该特征数据分为左手数据、右手数据、左腿数据以及右腿数据等四种特征数据。对于左手数据,可以通过根据该左手数据中左手手臂的伸展程度以及左手手掌的动作的来确定该左手对应的动作。对于右手数据,可以通过根据该右手数据中右手手臂的伸展程度以及右手手掌的动作的来确定该右手对应的动作。对于左腿数据,可以通过根据该左腿数据中左腿的弯曲程度以及弯曲方向的来确定该左腿对应的动作。对于右腿数据,可以通过根据该右腿数据中右腿的弯曲程度以及弯曲方向的来确定该右腿对应的动作。在将各个类型的特征数据对应的动作确定出来后,将各个类型的特征对应动作进一步进行匹配(例如,再将左手的动作和右手的动作进行匹配,左腿的动作和右腿的动作进行匹配),确定出该直播流对应的动作数据。
85.在上述实现过程中,通过肢体行为分析模型识别帧数据中的肢体数据以及对肢体数据进行特征提取,以提取到肢体中的特征数据,并对特征进行分类,以分别确定每个特征所属动作范围,进而通过根据多个特征数据的动作范围确定出该帧数据对应主播的动作数据。由于该动作数据是基于多个特征进行确定的,能够保证该行为数据的准确性,进而在对该直播流进审核时,提高了审核的准确性。
86.在一种可能的实现方式中,步骤203包括:将情绪数据和肢体数据输入到异常告警模型;通过异常告警模型将情绪数据和肢体数据与告警库中告警行为对比,以确定主播是否存在告警行为。
87.其中,异常告警模型包括告警库,告警库中包括告警行为与相对应的行为数据。该告警库中还包括该行为数据对应的报警等级。
88.可以理解地,不同的报警等级对应的报警方式不同。如,若报警等级为i级,则相应的报警方式为将报警信息发送到主播的手机短信或直播平台的后台通知栏报警。若报警等级为ii级,则相应的报警方式为在直播界面文字报警。若报警等级为iii级,则相应的报警方式为在直播中语音报警,并播报报警信息。
89.示例性地,如表1所示,表1为示例性地报警库中告警行为、报警等级与相对应的行为数据。本领域技术人员可以理解,表1中的告警行为、报警等级与行为数据仅是示例性地,本领域技术人员可以根据实际情况进行调整和更换,本技术不做限制。
90.表1
[0091][0092]
在一些实施例中,该异常告警模型也可以是经过多次模型训练以及深度学习得到的。该异常告警模型中也可以不设置告警库,将情绪数据和肢体数据输入到异常告警模型后,该异常告警模型直接根据深度学习结果确定出该情绪数据和肢体数据对应的告警行为。
[0093]
在上述实现过程中,将情绪数据和动作数据输入到异常告警模型中,以通过该异常告警模型对该情绪数据和动作数据两种类型的数据与告警库中的行为进行匹配,能够综合主播的情绪和动作确定出主播真实的直播状态,更加准确的确定出主播的行为,以使得到的报警行为更加准确,防止误报,提高了告警的准确性。
[0094]
在一种可能的实现方式中,在步骤202之后,该方法还包括:根据行为数据和设定评分规则对行为数据进行评分,以确定帧数据对应的主播的直播分值。
[0095]
其中,行为数据和设定评分规则根据主播所在直播领域确定。
[0096]
这里的直播领域可以包括直播健身、直播唱歌、直播带货、直播聊天等。如,若该直播领域为直播健身,则该评分规则可以根据主播的运动时间和直播时间的占比来确定。若该直播领域为直播唱歌,则该评分规则可以根据主播的面部表情来确定。
[0097]
上述的直播分值用于反映主播的直播质量。如,分值越高,该主播的质量越好。或分值越低,该主播的质量越高。主播的直播质量与分值之间的关系可以根据具体的评分规则确定,本技术不做具体限制。
[0098]
在上述实现过程中,通过根据主播的行为数据和评分规则对主播的直播进行评分,以确定出主播在直播时的直播质量,方便平台对各个主播的管理,能够对主播的直播行为进行一定的约束,在实现对主播进行统一管理的同时提高了直播的质量。
[0099]
在一种可能的实现方式中,根据行为数据和设定评分规则对行为数据进行评分,以确定帧数据对应的主播的直播分值包括:根据行为时长确定行为时长在直播过程中的时长占比;根据行为次数确定行为次数在直播过程中的次数占比;根据时长占比和次数占比确定主播的直播分值。
[0100]
可以理解,该时长占比和次数占比可以分别占该直播分值的50%,也可以时长占比占该直播分值的30%,次数占比占该直播分值的70%等。该时长占比、次数占比分别占该直播分值的比值可以根据实际情况进行调整,本技术不做具体限制。
[0101]
这里的行为时长为各个行为数据出现的总时长。该次数占比为各个行为数据出现的次数与该直播中允许出现的总次数的比值。
[0102]
示例性地,若该行为数据为:未检测到主播的四肢以及头部,该行为数据出现次数为5次,5次该行为数据发生的总时长为10分钟。且直播时长为120分钟,该直播时长允许出现的总异常行为为10次,则该时长占比为8.3%,次数占比为50%。同时,该时长占比,次数占比分别占该直播分值的50%,直播的总分值为100分,则可以计算得到的该场直播中的分值为71分。
[0103]
若该行为数据为:未检测到主播的四肢以及头部的行为数据a以及愤怒且指着直播屏幕的行为数据b这两种行为数据,该行为数据a和行为数据b出现次数分别为5次和1次,5次该行为数据a发生的总时长为10分钟,1次该行为数据b发生的时长为2分钟。且直播时长为120分钟,该直播时长允许出现的总异常行为为10次,则该时长占比为10%,次数占比为60%。同时,该时长占比,次数占比分别占该直播分值的50%,直播的总分值为100分,则可以计算得到的该场直播的分值为70分。
[0104]
在上述实现过程中,通过将告警产生的扣分去除后,根据行为数据以及行为次数两方面数据的占比来计算主播在直播过程中直播分值。能够较为全面的反映出主播在直播中的真实直播情况,以提高确定主播直播质量的准确性。
[0105]
基于同一申请构思,本技术实施例中还提供了与主播直播行为审核方法对应的主播直播行为审核装置,由于本技术实施例中的装置解决问题的原理与前述的主播直播行为审核方法实施例相似,因此本实施例中的装置的实施可以参见上述方法的实施例中的描述,重复之处不再赘述。
[0106]
请参阅图4,是本技术实施例提供的主播直播行为审核装置的功能模块示意图。本实施例中的主播直播行为审核装置中的各个模块用于执行上述方法实施例中的各个步骤。主播直播行为审核装置包括解码模块301、分析模块302、确定模块303。
[0107]
解码模块301用于将获取到的直播流解码为视频帧数据。
[0108]
分析模块302用于将所述视频帧数据输入多种算法模型进行分析,得到所述直播流对应主播的行为数据;其中,所述算法模型包括违规行为分析算法模型。
[0109]
确定模块303用于根据所述行为数据和预设异常行为规则确定所述主播的直播行为是否存在异常。
[0110]
一种可能的实施方式中,分析模块302,还用于:将所述视频帧数据输入到所述违规行为分析算法模型;通过所述违规行为分析算法模型对所述帧数据进行识别,以确定所述帧数据对应的人体四肢空间位置数据以及面部特征数据;其中,所述违规行为分析算法模型中包括违规规则库,所述违规规则库中包括多种行为数据对应的行为类型及违规等级。
[0111]
一种可能的实施方式中,确定模块303,还用于:基于违规规则库对所述人体四肢空间位置数据以及所述面部特征变化数据进行分析,以确定所述直播流对应主播是否存在违规行为;以及若所述主播存在违规行为,根据所述行为数据和所述违规规则库中的多种行为数据对应的行为类型及违规等级,确定所述主播的违规等级。
[0112]
一种可能的实施方式中,分析模块302,具体用于:将所述视频帧数据输入到所述人脸表情算法模型;通过所述人脸表情算法模型对所述帧数据进行人脸识别,以确定所述帧数据对应的人脸数据;对所述人脸数据进行特征提取,并对提取到的特征进行分类,以确定出所述帧数据对应主播的情绪数据。
[0113]
一种可能的实施方式中,分析模块302,具体用于:将所述视频帧数据输入到所述肢体行为分析模型;通过所述肢体行为分析模型检测所述帧数据中的肢体,以确定所述帧数据对应的肢体数据;对所述肢体数据进行特征提取,并对提取到的特征进行分类,以确定出所述帧数据对应主播的肢体数据。
[0114]
一种可能的实施方式中,分析模块302,具体用于:将所述情绪数据和所述肢体数据输入到异常告警模型;通过所述异常告警模型将所述情绪数据和所述肢体数据与告警库中告警行为对比,以确定所述主播是否存在告警行为;其中,所述异常告警模型包括告警库,所述告警库中包括告警行为与相对应的行为数据。
[0115]
一种可能的实施方式中,该主播直播行为审核装置还包括评分模块,用于根据所述行为数据和设定评分规则对所述行为数据进行评分,以确定所述帧数据对应的主播的直播分值;其中,所述行为数据和所述设定评分规则根据所述主播所在直播领域确定。
[0116]
一种可能的实施方式中,该主播直播行为审核装置还包括评分模块,还用于根据所述行为时长确定所述行为时长在所述直播过程中的时长占比;根据所述行为次数确定所述行为次数在所述直播过程中的次数占比;根据所述时长占比和所述次数占比确定所述主播的直播分值。
[0117]
此外,本技术实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的主播直播行为审核方法的步骤。
[0118]
本技术实施例所提供的主播直播行为审核方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的主播直播行为审核方法的步骤,具体可参见上述方法实施例,在此不再赘述。
[0119]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本技术的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、
功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0120]
另外,在本技术各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
[0121]
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0122]
以上所述仅为本技术的优选实施例而已,并不用于限制本技术,对于本领域的技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
[0123]
以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以权利要求的保护范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1