参会人员专注度的检测方法和系统、视频会议服务器与流程

文档序号:30576685发布日期:2022-06-29 09:37阅读:189来源:国知局
参会人员专注度的检测方法和系统、视频会议服务器与流程

1.本发明涉及人工智能技术领域,特别是涉及一种参会人员专注度的检测方法和系统、视频会议服务器。


背景技术:

2.视频会议自出现以来,因其方便、高效的方式能够帮助人们提高会议效率,从而获得良好的业务应用。从视频会议与协作办公,到高清视频技术应用,促进业务升级,推动会议质量,提升视频会议市场在逐渐扩大。
3.在日常办公学习中,在使用视频会议系统中,无法对参会人在整个会议期间的专注度做好掌控。


技术实现要素:

4.为了解决上述问题至少之一,本发明第一个实施例提供一种参会人员专注度的检测方法,应用于服务器,包括:
5.接收来自至少一个第一终端的第一参会视频并从所述第一参会视频提取至少一张参会图像,所述参会图像中包括至少一个参会人员;
6.使用人脸识别模型识别所述参会图像中的参会人员并输出各参会人员的人脸识别信息;
7.根据所述人脸识别信息使用专注度识别模型识别所述参会图像并输出各参会人员的专注度信息;
8.将每个参会人员的人脸识别信息和专注度信息实时叠加到所述第一参会视频中以生成第二参会视频并传输至第二终端以显示所述第二参会视频。
9.在一些可选的实施例中,所述使用人脸识别模型识别所述参会图像中的参会人员并输出各参会人员的人脸识别信息进一步包括:
10.所述人脸识别信息包括对应的参会人员的身份信息和在所述参会图像中的人脸位置坐标;
11.所述将每个参会人员的人脸识别信息和专注度信息实时叠加到所述第一参会视频中以生成第二参会视频并传输至第二终端以显示所述第二参会视频进一步包括:
12.根据所述人脸位置坐标将所述对应的参会人员的身份信息和专注度信息实时叠加到所述第一参会视频中以生成第二参会视频。
13.在一些可选的实施例中,
14.所述根据所述人脸识别信息使用专注度识别模型识别所述参会图像并输出各参会人员的专注度信息进一步包括:
15.根据所述人脸识别信息使用表情识别模型识别所述参会图像以识别各参会人员的表情状态,并根据所述表情状态对应的预设置的专注度权重值输出各参会人员的表情专注度分值;
16.和/或
17.根据所述人脸识别信息使用行为识别模型识别所述参会图像以识别各参会人员的行为状态,并根据所述行为状态对应的预设置的专注度权重值输出各参会人员的行为专注度分值;
18.根据各参会人员的所述表情专注度分值和/或行为专注度分值输出各参会人员的专注度信息。
19.在一些可选的实施例中,
20.接收来自第一终端的第一参会视频并根据所述第一参会视频提取至少一张参会图像之前,所述检测方法还包括:采集各参会者的生物特征和参会信息;
21.所述使用人脸识别模型识别所述参会图像中的参会人员并输出各参会人员的人脸识别信息进一步包括,使用各参会者的生物特征和参会信息核对所述身份信息;
22.所述根据所述人脸识别信息使用专注度识别模型识别所述参会图像并输出各参会人员的专注度信息进一步包括:
23.使用各参会者的生物特征核对所述表情状态。
24.在一些可选的实施例中,
25.所述根据所述人脸识别信息使用专注度识别模型识别所述参会图像并输出各参会人员的专注度信息进一步包括:
26.按照会议时间存储各参会人员的专注度信息;
27.根据会议进行中存储的各参会人员的专注度信息绘制每个参会人员的专注度曲线并生成该参会人员的专注度分析报告。
28.在一些可选的实施例中,
29.所述接收来自第一终端的第一参会视频并根据所述第一参会视频提取多张参会图像进一步包括:
30.按照预设时间间隔提取至少一张参会图像。
31.本发明第二方面提供一种参会人员专注度的检测方法,应用于第一终端,包括:
32.采集第一参会视频并传输至服务器,使得服务器使用人脸识别模型和专注度识别模型从第一参会视频获取各参会人员的人脸识别信息和专注度信息,并将人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频并传输至第二终端以显示该第二参会视频。
33.本技术第三方面提供一种参会人员专注度的检测方法,应用于第二终端,包括:
34.接收并播放第二参会视频,所述第二参会视频包括各参会人员的人脸识别信息和专注度信息,所述人脸识别信息和专注度信息为服务器使用人脸识别模型和专注度识别模型从第一终端采集的第一参会视频中获取的。
35.在会议进行中实时接收并播放第二参会视频,第二参会视频包括各参会人员的人脸识别信息和专注度信息,人脸识别信息和专注度信息为服务器使用人脸识别模型和专注度识别模型从第一终端采集的第一参会视频中获取的。
36.本发明第四方面提供一种视频会议服务器,包括:
37.视频接收单元,配置为:接收来自第一终端的第一参会视频;
38.视频提取单元,配置为:根据所述第一参会视频提取多张参会图像,所述参会图像
包括至少一个参会人;
39.人脸识别单元,配置为:使用人脸识别模型识别所述参会图像中的参会人员并输出各参会人员的人脸识别信息;
40.专注度识别单元,配置为:根据所述人脸识别信息使用专注度识别模型识别所述参会图像并输出各参会人员的专注度信息;
41.视频叠加单元,配置为:将每个参会人员的人脸识别信息和专注度信息实时叠加到所述第一参会视频中以生成第二参会视频;
42.视频发送单元,配置为:将所述第二参会视频传输至第二终端以显示该第二参会视频。
43.本发明第五方面提供一种参会人员专注度检测系统,包括:
44.第一终端,配置为采集第一参会视频并传输至服务器;
45.服务器,配置为根据所述第一参会视频提取多张参会图像,所述参会图像包括至少一个参会人;使用人脸识别模型识别所述参会图像中的参会人员并输出各参会人员的人脸识别信息;根据所述人脸识别信息使用专注度识别模型识别所述参会图像并输出各参会人员的专注度信息;将每个参会人员的人脸识别信息和专注度信息实时叠加到所述第一参会视频中以生成第二参会视频并传输至第二终端;
46.第二终端,配置为播放第二参会视频。
47.本发明第六方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一方面所述的方法;
48.或者
49.该程序被处理器执行时实现上述第二方面所述的方法;
50.或者
51.该程序被处理器执行时实现上述第三方面所述的方法。
52.本发明第七方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,
53.处理器执行程序时实现上述第一方面所述的方法;
54.或者
55.处理器执行程序时实现上述第二方面所述的方法;
56.或者
57.处理器执行程序时实现上述第三方面所述的方法。
58.本发明的有益效果如下:
59.本发明针对目前现有的问题,制定一种参会人员专注度的检测方法和系统、服务器、存储介质以及计算机设备,并通过在会议进行中获取第一参会视频,基于由第一参会视频提取的多张参会图像识别参会人员并输出人脸识别信息,基于人脸识别信息识别并输出参会人员的专注度信息,将人脸识别信息和专注度信息实时叠加到第一参会视频中生成第二参会视频并传输至第二终端,从而能够在会议中实时获取参会人员的专注度,从而能够得到会议中所有参会人的专注度变化,展现整个会议效果,进而促进改进会议内容,提升会议效果,具有广泛的应用前景。
附图说明
60.为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
61.图1为根据本技术的实施例的参会人员专注度的检测方法的示例性框图。
62.图2为根据本技术的实施例的参会人员专注度检测系统的示例性框图。
63.图3为根据本技术的实施例的参会人员专注度的检测方法的示意性方法流程图。
64.图4为根据本技术的实施例的参会人员专注度的检测方法得到的参会人员专注度分析报告的示意图。
65.图5为根据本技术实施例的服务器的结构示意图。
66.图6为根据本技术的实施例的一种计算机设备的结构示意图。
具体实施方式
67.为了更清楚地说明本发明,下面结合优选实施例和附图对本发明做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本发明的保护范围。
68.需要说明的是,在本技术的描述中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
69.基于以上问题,如图1所示,本发明的一个实施例提供了一种参会人员专注度的检测方法,应用于服务器,包括:
70.接收来自至少一个第一终端的第一参会视频并从第一参会视频提取至少一张参会图像,参会图像中包括至少一个参会人员;
71.使用人脸识别模型识别参会图像中的参会人员并输出各参会人员的人脸识别信息;
72.根据所人脸识别信息使用专注度识别模型识别参会图像并输出各参会人员的专注度信息;
73.将每个参会人员的人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频并传输至第二终端以显示该第二参会视频。
74.在本实施例中,通过获取第一参会视频,基于由第一参会视频提取的多张参会图像识别参会人员并输出人脸识别信息,基于人脸识别信息识别并输出参会人员的专注度信息,将人脸识别信息和专注度信息实时叠加到第一参会视频中生成第二参会视频并传输至第二终端,从而能够在会议中实时获取参会人员的专注度,从而能够得到会议中所有参会人的专注度变化,展现整个会议效果,进而促进改进会议内容,提升会议效果,具有广泛的
应用前景。
75.在一个具体的示例中,如图2所示,图2示出了根据本技术的实施例的参会人员专注度检测系统10。参会人员专注度检测系统10可以包括服务器100、多个第一终端200-1、200-2、200-3,

,200-n以及第二终端300,其中n为正整数,n≥1,当不需要区分时,以标号200表示第一终端。本技术实施例的服务器100包括视频接收单元、视频提取单元、人脸识别单元、专注度识别单元、视频叠加单元和视频发送单元。其可以是应用于会议中心或办公场所的中央服务器,也可以是为该公司、组织的会议中心或办公场所提供物联网服务的云服务器,本技术对其具体形式不做限制。第一终端200为用于参会的终端。第二终端300为用于主持会议的终端,包括通信单元,第一终端200和第二终端300均包括通信单元,并且包括摄像头和麦克风或者能够通过有线或无线的形式连接到摄像头和麦克风等音视频设备。第一终端200和第二终端300可以为pc计算机、android或ios智能手机、平板电脑、会议一体机等设备,用于采集视频流数据和音频流数据。在本技术中,参会人员专注度检测系统10中的服务器100、第一终端200和第二终端300可以利用各自的通信单元通过有线或无线网络通信。
76.下面结合图1和图3描述本技术的一个实施例的参会人员专注度的检测方法,其中,图1为根据本技术的实施例的参会人员专注度的检测方法的示例性框图;图3为根据本技术的实施例的参会人员专注度的检测方法的示例性方法流程图。
77.如图所示,根据本技术的参会人员专注度的检测方法,具体包括:
78.在步骤s101中,服务器100接收来自第一终端200的第一参会视频并根据第一参会视频提取多张参会图像。示例地,服务器100对第一参会视频的接收在会议进行中是实时进行的。
79.具体地,第一终端200和第一终端300上安装有视频会议应用程序,首次使用的用户通过注册后登录,非首次使用的用户可以通过输入注册过的用户账号和密码登录。本领域技术人员应理解,除密码外也可以通过其他形式登录验证,本技术不作限制。登录后,第一终端200和第二终端300连接到视频会议的服务器100。本领域技术人员应理解,发起会议的主持人通过第二终端300连接到服务器100发起会议。作为参会者,输入主持人经由微信、短信或邮箱等发送的会议号和会议密码即可参会,或者在登录应用程序的情况下,通过输入主持人经由以上方式之一发送的会议邀请链接或快速登录接口等快捷方式即可以参会,对于参会的形式,本技术也不作限制。
80.参会后,第一终端200和第二终端300经由摄像头采集实时视频流数据,编码后发送给视频会议服务器。服务器100接收来自第一终端200和第二终端300的视频流,对来自第一终端200的第一参会视频,提取多张参会图像,所提取的多张参会图像中包括至少一个参会人员,以保证能从该多张参会图像中识别出参会人员。可选地,服务器100以一定时间间隔定期提取多张参会图像,也就是跳帧提取多张参会图像,该时间间隔是预设的,即,以预设时间间隔提取多张参会图像,以提高视频的实时性和流畅性,也能够提高运行效率。另外,提取的参会图像的格式在本技术中不作限制。示例地,参会图像可以为rgb、yuv、cmyk中的一个。
81.在步骤s103中,使用人脸识别模型识别参会图像中的参会人员并输出各参会人员的人脸识别信息。
82.人脸识别模型可以预先基于深度学习方法建立并存储在服务器100中的模型。人
脸识别信息包括参会人员的身份信息和在参会图像中的人脸位置坐标。可选地,预先采集各个参会者的生物特征和参会信息,生物特征包括但不限于参会者的照片、头部不同角度的特写照片等应用于人脸识别的特征信息,参会信息包括参会人员的身份信息。具体地,可以自提取的多张参会图像中获取人脸图像,并利用预先存储在服务器100中的各个参会者的生物特征与自视频中提取的多张参会图像中的人脸图像进行对比,对比得到匹配的结果时,基于存储的生物特征对应的参会信息,获得身份信息。
83.在步骤s105中,根据人脸识别信息使用专注度识别模型识别参会图像并输出各参会人员的专注度信息。
84.具体地,基于各参会人员的人脸识别信息中的身份信息和人脸位置坐标可以准确定位并确定每个参会人员,在此基础上,使用专注度识别模型进一步识别每个参会人员的专注度信息,从而能够获取各参会人员在会议中的专注度信息。在本实施例中,专注度识别模型包括表情识别模型和行为识别模型,或者二者之一,在图3所示的流程图中示出了专注度识别模型既包括表情识别模型又包括行为识别模型的情形,即基于人脸识别信息使用表情识别模型识别参会图像来识别各个参会人员的表情状态,同时使用行为识别模型识别参会图像来识别各个参会人员的行为状态。本领域技术人员应理解,当通过分别识别表情状态和行为状态两者以获取各个参会人员的专注度信息时,将对参会人员在参会过程中的状态统计更详细全面,进而获得的专注度信息更能够准确反映参会人员的专注度。
85.值得说明的是,本实施例在人脸识别各参会人员的基础上进一步识别各参会人的专注度,还能够实时统计会议迟到人员、缺席人员,并及时发现非法参会人员。例如在会议图中出现在参会图像中的参会人员,先识别该参会人员的身份信息,再判断该参会人员是否为会议迟到人员,若出现未识别人员则进行标记以便于判断该参会是否为非法参会人员。
86.具体地,在利用预存储的专注度识别模型识别参会图像之前,首先对专注度识别模型进利用深度学习模型开发。以图3所示的实施例为例,即专注度识别模型包括表情识别模型和行为识别模型。可选地,首先构建表情识别模型和行为识别模型的整体框架,包括特征提取器,特征提取器例如可以包括一个或多个卷积神经网络、聚合单元、分类和回归拟合单元等,当然仅是示意性的,其他结构的识别模型框架和特征提取器也是可以的。之后,输入大量的样本图像对识别模型进行训练。样本图像包括闭眼睛、打哈欠等表情样本图像,以及捂脸、抠鼻子、低头、摇头、玩手机、打电话、离开视频画面区域等行为样本图像。利用大量的表情样本图像和行为样本图像分别对表情识别模型和行为识别模型进行训练得到满足预定识别率的表情识别模型和行为识别模型。本领域技术人员应理解,以上仅是示例性的,具体模型与训练过程本领域技术人员可以根据需要设定,只要建立表情识别模型和行为识别模型即可。
87.需要说明的是,本技术中根据人脸识别信息使用表情识别模型识别所述参会图像以识别各参会人员的表情状态或者根据人脸识别信息使用行为识别模型识别参会图像以识别各参会人员的行为状态,获得参会图像中具体参会人员的表情状态或者行为状态;或者同时通过识别各参会人员的表情状态和根据人脸识别信息使用行为识别模型识别参会图像以识别各参会人员的行为状态,获得参会图像中具体参会人员的表情状态和行为状态。可选地,在使用表情识别模型识别参会图像以识别各参会人员的表情状态时,可以通过
使用预先采集并存储的各参会人的生物特征核对并确定参会者的表情状态,以增加对表情状态的识别准确度。
88.进一步具体地,如图3所示,在本技术的实施例中,对识别出的参会人员的表情状态和行为状态进行加权并基于各个表情状态和行为状态对应的权重值确定参会人员的专注度分值,专注度分值包括表情专注度分值和行为专注度分值。例如,权重值可以设定为闭眼睛70分、打哈欠50分、捂脸60分、抠鼻子50分、低头60分、摇头70分、玩手机40分、打电话20分、离开视频画面区域0分。根据利用表情识别模型和行为识别模型识别出的表情状态和行为状态,依照预设的权重值计算得到相应的表情专注度分值和行为专注度分值。对基于参会图像中识别出的每个参会人员的表情专注度分值和行为专注度分值进行处理,得到对应于每个参会人员的专注度分值。
89.在步骤107中,将每个参会人员的人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频并传输至第二终端以显示该第二参会视频。
90.具体地,根据人脸位置坐标,将参会人员的身份信息和识别出的对应参会人员的专注度信息实时叠加第一参会视频中的相应视频图像帧中,例如可以基于人脸位置坐标,将参会人员的身份信息和识别出的对应参会人员的专注度分值叠加在相应人脸下方,生成在参会人员人脸下方标注有参会人员身份和专注度分值的第二参会视频。通过将该第二参会视频传输至第二终端300并显示,则在视频会议的主持人端能够实时呈现所有参会人员的专注度分值。
91.在一些实施例中,可以按照会议时间存储各参会人员的专注度信息,包括参会人的表情状态、行为状态、表情专注度分值、行为专注度分值、以及计算后得到的参会人的专注度分值等。在会议结束后,能够利用大数据模型统计专注度信息,绘制每个参会人员的专注度曲线并生成该参会人员的专注度分析报告。例如图4所示,图中示出在自10:00起到11:40结束的视频会议中,参会人员李四、张三和王红会议全程的专注度曲线。可见,通过在会议中实时获取第一参会视频,识别参会人员的人脸识别信息,基于识别的人脸识别信息确定参会人员的专注度信息,并按照会议时间存储各个参会人员的专注度信息并绘制参会人员的专注度曲线,从而可以容易地统计并直观地呈现整个会议中每一位参会人员的专注度变化情况,进而促进改进会议内容,提升会议效果。
92.相应于参会人员专注度的检测方法,如图5所示,本技术的一个实施例还提供一种视频会议服务器,包括
93.视频接收单元,配置为接收来自第一终端的第一参会视频;
94.视频提取单元,配置为根据第一参会视频提取多张参会图像,参会图像包括至少一个参会人;
95.人脸识别单元,配置为使用人脸识别模型识别参会图像中的参会人员并输出各参会人员的人脸识别信息;
96.专注度识别单元,配置为根据人脸识别信息使用专注度识别模型识别参会图像并输出各参会人员的专注度信息;
97.视频叠加单元,配置为将每个参会人员的人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频;
98.视频发送单元,配置为将第二参会视频传输至第二终端以显示该第二参会视频。
99.在本实施例中,服务器在会议进行中能够实时获取第一参会视频,基于由第一参会视频提取的多张参会图像识别参会人员并输出人脸识别信息,基于人脸识别信息识别并输出参会人员的专注度信息,将人脸识别信息和专注度信息实时叠加到第一参会视频中生成第二参会视频并传输至第二终端,从而能够在会议中实时获取参会人员的专注度,得到会议中所有参会人的专注度变化,展现整个会议效果,进而促进改进会议内容,提升会议效果,具有广泛的应用前景。本实施例的具体实施方式同前述实施例,在此不再赘述。
100.本技术的一个实施例还提供一种参会人员专注度的检测方法,应用于第一终端,包括:
101.采集第一参会视频并传输至服务器,使得服务器使用人脸识别模型和专注度识别模型从第一参会视频获取各参会人员的人脸识别信息和专注度信息,并将人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频并传输至第二终端以显示该第二参会视频。
102.在本实施例中,通过利用第一终端在会议进行中实时获取第一参会视频并传输至服务器,从而使得能够使用人脸识别模型和专注度识别模型从第一参会视频获取各参会人员的人脸识别信息和专注度信息,将人脸识别信息和专注度信息实时叠加到第一参会视频中生成第二参会视频并传输至第二终端,从而能够在会议中实时获取参会人员的专注度,得到会议中所有参会人的专注度变化,展现整个会议效果,进而促进改进会议内容,提升会议效果。本实施例的具体实施方式同前述实施例,在此不再赘述。
103.本技术的一个实施例还提供一种参会人员专注度的检测方法,应用于第二终端,包括:
104.接收并播放第二参会视频,第二参会视频包括各参会人员的人脸识别信息和专注度信息,人脸识别信息和专注度信息为服务器使用人脸识别模型和专注度识别模型从第一终端采集的第一参会视频中获取的。
105.在本实施例中,通过接收并呈现利用人脸识别模型和专注度识别模型从第一参会视频获取各参会人员的人脸识别信息和专注度信息,并实时叠加人脸识别信息和专注度信息而得到的第二参会视频,使得能够在会议中实时获取参会人员的专注度,得到会议中所有参会人的专注度变化,展现整个会议效果,进而促进改进会议内容,提升会议效果。本实施例的具体实施方式同前述实施例,在此不再赘述。
106.本技术的实施例还提供一种参会人员专注度检测系统,如图2所示,包括:
107.第一终端200,配置为采集第一参会视频并传输至服务器;
108.服务器100,配置为根据第一参会视频提取多张参会图像,参会图像包括至少一个参会人;使用人脸识别模型识别参会图像中的参会人员并输出各参会人员的人脸识别信息;根据人脸识别信息使用专注度识别模型识别参会图像并输出各参会人员的专注度信息;将每个参会人员的人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频并传输至第二终端;
109.第二终端300,配置为播放第二参会视频。
110.在本实施例中,通过利用第一终端在会议进行中能够实时获取第一参会视频并传输至服务器,并利用服务器使用人脸识别模型和专注度识别模型从第一参会视频获取各参会人员的人脸识别信息和专注度信息,将人脸识别信息和专注度信息实时叠加到第一参会
视频中生成第二参会视频并传输至第二终端,从而能够在会议中实时获取参会人员的专注度,得到会议中所有参会人的专注度变化,展现整个会议效果,进而促进改进会议内容,提升会议效果。本实施例的具体实施方式同前述实施例,在此不再赘述。
111.本发明的另一个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现:接收来自第一终端的第一参会视频并根据第一参会视频提取多张参会图像,参会图像包括至少一个参会人;使用人脸识别模型识别参会图像中的参会人员并输出各参会人员的人脸识别信息;根据人脸识别信息使用专注度识别模型识别参会图像并输出各参会人员的专注度信息;将每个参会人员的人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频并传输至第二终端以呈现该第二参会视频。
112.本发明的另一个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现:采集第一参会视频并传输至服务器,使得服务器使用人脸识别模型和专注度识别模型从第一参会视频获取各参会人员的人脸识别信息和专注度信息,并将人脸识别信息和专注度信息实时叠加到第一参会视频中以生成第二参会视频并传输至第二终端以显示该第二参会视频。
113.本发明的另一个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现:接收并播放第二参会视频,第二参会视频包括各参会人员的人脸识别信息和专注度信息,人脸识别信息和专注度信息为服务器使用人脸识别模型和专注度识别模型从第一终端采集的第一参会视频中获取的。
114.在实际应用中,所述计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
115.计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
116.计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、rf等等,或者上述的任意合适的组合。
117.可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部
分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
118.如图6所示,本发明的另一个实施例提供的一种计算机设备的结构示意图。图6显示的计算机设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
119.如图6所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
120.总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(isa)总线,微通道体系结构(mac)总线,增强型isa总线、视频电子标准协会(vesa)局域总线以及外围组件互连(pci)总线。
121.计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
122.系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(ram)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如cd-rom,dvd-rom或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
123.具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
124.计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。如图6所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图6中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。
125.处理器单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以
及数据处理,例如实现本发明实施例所提供的参会人员专注度的检测方法。
126.本发明针对目前现有的问题,制定一种参会人员专注度的检测方法和系统、服务器、存储介质以及计算机设备,并通过在会议进行中获取第一参会视频,基于由第一参会视频提取的多张参会图像识别参会人员并输出人脸识别信息,基于人脸识别信息识别并输出参会人员的专注度信息,将人脸识别信息和专注度信息实时叠加到第一参会视频中生成第二参会视频并传输至第二终端,从而能够在会议中实时获取参会人员的专注度,从而能够得到会议中所有参会人的专注度变化,展现整个会议效果,进而促进改进会议内容,提升会议效果,具有广泛的应用前景。
127.显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1