录播系统的制作方法

文档序号:20194457发布日期:2020-03-27 19:59阅读:349来源:国知局
录播系统的制作方法

本发明涉及数据处理领域,尤其涉及一种录播系统。



背景技术:

录播系统可以把现场摄录的视音频、音频、电子设备的图像信号(包含电脑、视音频展台等)进行整合同步录制,生成标准化的流媒体文件,用来对外直播、存储、后期编辑及点播。目前,随着人们对教育信息化重视程度的不断提升,适用于日常教学录制的常态化录播系统逐渐得到较广泛应用。

现有技术中的录播系统,功能单一,仅仅通过录制课堂授课视音频,并没有对该些数据进行进一步的分析,以发现教育教学中所存在的问题。



技术实现要素:

本发明实施例的目的是提供一种录播系统,以存在现有录播系统中存在的功能单一,不能反映教学中所存在的问题。

为解决上述问题,本发明提供了一种录播系统,所述系统包括:

录播模块,获取第一授课场地的第一授课老师的第一科目的第一授课视音频数据以及针对第一授课视音频数据的第一听课视音频数据;所述第一听课视音频数据包括多个学生的情绪信息和课堂行为信息;

授课测评模块,获取第一授课视音频数据,并对第一授课视音频数据进行处理,确定第一讲授视音频数据的时长、第一互动视音频数据的时长和第一答疑解惑视音频数据的时长分别占所述第一授课视音频数据的时长的第一比例,并根据所述第一比例和预设比例,对第一授课老师的授课进行第一测评,得到第一测评结果;

情感分析模块,对所述第一听课视音频数据进行分析,得到每个学生的情绪信息和课堂行为信息,并根据情绪信息,得到关于情绪的第一曲线,同时根据课堂行为信息,得到关于课堂行为的第二曲线,随后根据所述第一曲线和所述第二曲线,对每个学生的情感进行分析,得到学生的情感与科目的情绪指数;

教学环境安全分析模块,对所述第一授课视音频数据进行语音特征提取,根据提取结果,判断所述第一授课视音频数据中是否存在限制性语言,当存在限制性语言时,生成第一提示信息;

成绩预测模块,接收答题卡接收器发送的多次课堂测验信息,每个所述课堂测验信息包括学生id、题目和每个题目的得分;确定同一知识点对应的题目数量;根据所述同一知识点对应的题目数量和得分,计算每个学生对知识点的掌握度,随后根据所述每个学生对知识点的掌握分值和所述情绪指数,计算学生下次的成绩;

家庭反馈模块,获取家庭反馈的学生问题信息;所述学生问题信息包括学生id、学生问题的时间区间和具体问题;根据所述学生id和所述学生问题的时间区间,在所述第一听课视音频数据中进行查找,确定学生id对应的在所述学生问题的时间区间的第二听课视音频数据;根据所述具体问题,获取所述第二听课视音频数据中的与所述具体问题相对应的目标情绪的起始时间和所述目标情绪的起始时间内的第三听课视音频数据;根据与所述具体问题相对应的目标情绪的起始时间和所述第一目标情绪的起始时间内的第三听课视音频数据,生成情绪问题报告。

在一种可能的实现方式中,所述录播模块,还获取第一授课场地的第一授课老师的第一科目的第一听课视音频数据;

所述授课测评模块,对所述第一听课视音频数据进行处理,确定每个学生的情绪变化,对每个学生的课堂行为进行处理,确定每个学生的课堂行为变化,并根据每个学生的情绪变化和课堂行为变化,确定学生的课堂听课表现,并根据每个学生的课堂听课表现,对第一授课老师的授课进行第二测评,得到第二测评结果,随后根据所述第一测评结果和所述第二测评结果,对所述第一授课老师的授课进行测评。

在一种可能的实现方式中,所述录播模块,获取第二授课场地的第一授课老师的第一科目的第二授课视音频数据;其中,所述第二授课视音频数据包括第二讲授视音频数据、第二互动视音频数据和第二答疑解惑视音频数据;

所述授课测评模块,对所述第二授课视音频数据进行处理,确定第二讲授视音频数据的时长、第二互动视音频数据的时长和第二答疑解惑视音频数据的时长分别占所述第二授课视音频数据的时长的第二比例,并根据所述第二比例和预设比例,对第二授课老师的授课进行第三测评,得到第三测评结果,随后根据所述第一测评结果和所述第三测评结果,对第一授课老师的第一授课视音频数据和第二授课视音频数据进行测评。

在一种可能的实现方式中,所述情感分析模块还用于,获取第一班级的第一学生在第一科目的眼神方向,判断眼神方向是否为正常眼神方向;当所述眼神方向为非正常眼神方向时,根据所述眼神方向,确定眼神方向的投射目标;获取所述投射目标的信息;所述投射目标的信息包括面部信息和背部信息;判断所述投射目标的面部信息和背部信息是否异常;当所述投射目标的面部信息和背部信息均正常时,统计在预设的时长内,第一学生的眼神方向投射至投射目标的投射次数和每次的投射时长;当投射次数大于预设的投射次数阈值时,判断投射时长是否大于预设的时长阈值;当投射时长大于预设的时长阈值时,生成眼神异常提示信息。

在一种可能的实现方式中,所述情感分析模块具体用于,统计所述第一曲线的变化率异常的第一次数;当所述第一次数大于预设的第一次数阈值时,统计所述第二曲线的变化率异常的第二次数;当所述第二次数大于预设的第二次数阈值时,确定学生存在心理异常。

在一种可能的实现方式中,所述情感分析模块,获取第一学生的缺勤信息;所述缺勤信息包括缺勤起始时间和缺勤原因;确定所述缺勤时间之前对应的第一曲线和第二曲线,并确定所述缺勤时间之后对应的第一曲线和第二曲线;随后将缺勤时间之前的第一曲线和缺勤时间之后的第一曲线进行分析,得到第一分析结果,将缺陷之前的第二曲线和缺勤之后的第二曲线进行分析,得到第二分析结果,根据第一分析结果和第二分析结果,对第一学生在缺勤前后的情绪进行分析。

在一种可能的实现方式中,所述成绩预测模块,获取学生的实际考试成绩;当预测的考试成绩和实际考试成绩的差值在预设的范围外时,生成第二提示信息。

在一种可能的实现方式中,所述家庭反馈模块,根据家庭内的成员和老师的沟通时的语音信息,进行语音识别后,根据语音识别结果,获取家庭内的成员反馈的问题信息;或者,对家庭内的成员在点阵问卷上的笔迹进行解析,得到家庭内的成员反馈的学生问题信息;或者,接收家庭内的成员通过终端发送的学生问题信息。

在一种可能的实现方式中,所述系统还包括:坐姿异常判断模块;

坐姿异常判断模块,获取第一班级的第一学生在第一科目的坐姿信息;所述坐姿信息包括第一学生的上半身与地平线的角度;根据所述坐姿信息,生成第三曲线;其中,所述第三曲线为坐姿随时间变化的曲线;统计预设的时长内,所述第三曲线偏离标准曲线的偏离次数和每次的偏离时长;当偏离次数大于预设的第二次数阈值时,判断每次的偏离时长是否大于预设的第二时长阈值;当偏离时长大于预设的第二时长阈值时,生成坐姿异常的第三提示信息。

通过应用本发明实施例提供的录播系统,通过各个模块共同作用,可以充分的理由录播模块的数据,进行授课测评、学生情感分析、教学环境安全分析、成绩预测及对家庭反馈问题的跟进,最大化的利用了授课视音频数据和听课视音频数据。

附图说明

图1为本发明实施例一提供的录播系统结构示意图。

具体实施方式

下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为便于描述,附图中仅示出了与有关发明相关的部分。

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。

第一、第二、第三和第四等编号仅予以区分,并无其他含义。

图1为本发明实施例一提供的录播系统结构示意图。如图1所示,该系统包括:

录播模块1,获取第一授课场地的第一授课老师的第一科目的第一授课视音频数据以及针对第一授课视音频数据的第一听课视音频数据;第一听课视音频数据包括多个学生的情绪信息和课堂行为信息。

具体的,第一授课场地可以为某学校的教室a,该学校可以是小学、中学、大学、职业中学等学校中的任意一个。第一科目可以为语文、数学、英语常规科目中的任意一个或者模拟电子、计算机基础等专业科目中的任意一个,本申请对此并不限定。

第一教室设置有录播系统,录播系统对授课过程中的目标进行追踪录播。比如,教室a设置有五个摄像头,分别用于拍摄授课老师、黑板、学生、正面全景和背面全景,并且每个摄像头预设距离内设置有拾音设备,进行音频录制,第一授课老师正在讲授时,切换至第一摄像头拍摄的和响应的拾音设备讲授视音频数据,讲授视音频数据在互动时,如果老师正在提问,则切换至第一摄像头拍摄的老师的提问画面,学生在回答时,切换至第二摄像头拍摄的学生的回答画面等,在答疑时,如果学生提问,则切换至第二摄像头拍摄的学生的提问画面,如果老师正在回答,切换至第一摄像头拍摄的老师的回答画面。在学生答题时,可以切换至第二摄像头拍摄的学生答题画面。至于具体如何实现切换,可以采用人工智能(artificialintelligence,ai)、智能识别技术和大数据技术,进行切换,从而在录制过程中,进行针对性的进行录制,并进行无缝切换。

在切换的过程中,还可以针对每一段视音频数据添加提示信息,比如,可以在第一授课视音频数据中,添加第一讲授视音频数据、第一互动视音频数据、第一答疑解惑视音频数据等关键字用于进行提示。

授课测评模块2,获取第一授课视音频数据,并对第一授课视音频数据进行处理,确定第一讲授视音频数据的时长、第一互动视音频数据的时长和第一答疑解惑视音频数据的时长分别占第一授课视音频数据的时长的第一比例,并根据第一比例和预设比例,对第一授课老师的授课进行第一测评,得到第一测评结果。

具体的,可以针对第一授课视音频中每种视音频的时间戳,统计时长,比如,第一互动视音频数据包括老师提问的视音频和学生回答的视音频,第一答疑视音频包括学生提问的视音频和老师回答的视音频,可以根据每个视音频数据的时间戳,得到每个视音频的时长。

可以根据第一授课视音频数据中的时间戳,确定第一授课视音频数据的时长,并计算出第一讲授视音频数据的时长占第一授课视音频数据的时长的第一比例、第一互动视音频数据的时长占第一授课视音频数据的时长的第一比例以及第一答疑解惑视音频数据的时长占第一授课视音频数据的时长的第一比例。

其中,预设比例包括标准讲授视音频数据的时长、标准互动视音频数据的时长和标准答疑解惑视音频数据的时长分别占标准授课视音频数据的比例。

具体的,将第一比例与预设比例进行比较,可以得到如下几种结果:

第一、第一讲授视音频数据的时长占第一授课视音频数据的时长的第一比例与标准讲授视音频数据的时长占标准授课视音频数据的比例的差值在预设范围内或在预设范围外。

第二、第一互动视音频数据的时长占第一授课视音频数据的时长的第一比例不大于或者大于标准互动视音频数据的时长占标准授课视音频数据的比例的差值在预设范围内或在预设范围外。

第三、第一答疑解惑视音频数据的时长占第一授课视音频数据的时长的第一比例不大于或者大于标准答疑解惑视音频数据的时长占标准授课视音频数据的比例的差值在预设范围内或在预设范围外。

在一个示例中,对于处于预设范围内和处于预设范围外,可以设置一定的分数,比如,处于预设范围内时,打分为5分,处于预设范围外时,打分为1分,从而,得到的第一测评结果可以是总分。其中,也可以将处于预设范围进行细分,以得到更精确的分数,本申请对此并不限定。

在另一个示例中,对于处理预设范围内和处于预设范围外,可以设置一定的提示语,比如,处于预设范围内时,提示语为“优秀”,处于预设范围外时,提示语为“良好”,从而,得到的第一测评结果可以是多个提示语。

由此,通过对第一授课老师在第一科目的第一讲授视音频数据、第一互动视音频数据和第一答疑解惑视音频数据,实现对第一授课老师授课的测评。

进一步的,为了更进一步的对授课进行测评,还可以结合第一测评结果和第二测评结果,对第一授课老师的授课进行测评。录播模块1,还获取第一授课场地的第一授课老师的第一科目的第一听课视音频数据;

授课测评模块2,对第一听课视音频数据进行处理,确定每个学生的情绪变化,对每个学生的课堂行为进行处理,确定每个学生的课堂行为变化,并根据每个学生的情绪变化和课堂行为变化,确定学生的课堂听课表现,并根据每个学生的课堂听课表现,对第一授课老师的授课进行第二测评,得到第二测评结果,随后根据第一测评结果和第二测评结果,对第一授课老师的授课进行测评。

进一步的,录播模块1,获取第二授课场地的第一授课老师的第一科目的第二授课视音频数据;其中,第二授课视音频数据包括第二讲授视音频数据、第二互动视音频数据和第二答疑解惑视音频数据;

授课测评模块2,对第二授课视音频数据进行处理,确定第二讲授视音频数据的时长、第二互动视音频数据的时长和第二答疑解惑视音频数据的时长分别占第二授课视音频数据的时长的第二比例,并根据第二比例和预设比例,对第二授课老师的授课进行第三测评,得到第三测评结果,随后根据第一测评结果和第三测评结果,对第一授课老师的第一授课视音频数据和第二授课视音频数据进行测评。

比如,为第一测评结果设置权重,并为第二测评结果设置权重,进行第一授课老师在第一授课场地关于第一科目的授课测评。后续,可以将第二授课老师在第一授课场地关于第一科目的授课测评进行比较,从而对第一授课老师和第二授课老师进行排名或者打分。在进行比较时,可以设定听课的学生为同一班级的学生,也便于测评或者打分结果的客观性。

具体的,在第一授课老师或者其他授课老师在第一授课场地进行授课时,可以从智慧班牌获取到授课时间起始信息,或者也可以从第一授课视音频数据获取到授课时间的起始信息,并从室内的温度传感器、湿度传感器、室外的风速测量仪等,获取到环境初始化参数,并根据环境初始化参数和实时测量的环境信息,比如室内当前的温度、湿度和光照强度,对环境初始化参数进行反馈调节,比如,初始化参数中的温度为23度,当前室内温度为24度,标准温度为23.5度,则生成温度调节信息,以指示室内的智能设备对温度进行调节,以使目标温度为23.5度,从而保证授课场地的环境信息处于最佳状态,以提高授课老师和学生的授课体验。

其中的智能设备,可以是温度调节设备。示例而非限定,智能设备中还可以集成温度调节设备、湿度调节设备、光强调节设备,以便于对室内的温度、湿度、光强进行调节。该温度调节设备可以和制冷制热设备,比如空调相连接,该湿度调节设备可以和加湿器相连接,该光强调节设备可以和灯光系统、窗帘相连接,从而实现了室内环境的智能调节。

进一步的,由于环境对人的影响,因此,可以通过计算一定时长内,授课老师的第一测评结果与气象之间的影响参数,得到每个授课老师的测评结果与气体条件的关系,并通过该影响参数,对第一和/或第二测评结果进行修正,从而更加精确的对授课进行测评。

具体的,根据预设时长内,第一授课场地的第一授课老师的第一科目的第一测评结果和气象信息,确定气象信息对第一授课老师的授课的第一影响参数;和/或,根据预设时长内,第一授课场地的第一授课老师的第一科目的第二测评结果和气象信息,确定气象信息对学生的听课的第二影响参数。

比如,a授课老师与气象信息中的风速的第一影响参数为0.012,b授课老师与气象信息中的风速的第一影响参数为0.030,从而可以得到气象信息对b授课老师的授课影响较大,因此,在后续排课中,可以根据气象信息,对授课老师的上课时间进行智能安排,以提高教学效率。

或者,根据第一影响参数和第一测评结果,对a、b老师再进行测评,以实现对授课的多维度测评。

同时,还可以计算气象信息对学生听课的影响参数,以便于结合第二影响参数、对学生的情绪信息、课堂行为信息进行综合的测评,以得到更精确的第二测评结果。从而,实现了对学生听课更加准确的进行测评。

进一步的,当为走班制时,第一授课老师还可能在第二授课场地进行第一科目的授课,可以通过同一授课老师在不同授课场地关于同一科目的授课,对授课老师进行测评。

具体的,首先,录播模块1获取第二授课场地的第一授课老师的第一科目的第二授课视音频数据;其中,第二授课视音频数据包括第二讲授视音频数据、第二互动视音频数据和第二答疑解惑视音频数据。然后,授课测评模块2对第二授课视音频数据进行处理,确定第二讲授视音频数据的时长、第二互动视音频数据的时长和第二答疑解惑视音频数据的时长。接着,确定第二讲授视音频数据的时长、第二互动视音频数据的时长和第二答疑解惑视音频数据的时长分别占第二授课视音频数据的时长的第二比例。接着,根据第二比例和预设比例,对第二授课老师的授课进行第一测评,得到第三测评结果。最后,根据第一测评结果和第三测评结果,对第一授课老师的第一授课视音频数据和第二授课视音频数据进行测评。从而,可以通过第一授课老师在两节课之间的表现的差异,对第一授课老师的授课进行评价。

随后,可以结合第二测评结果,即学生的课堂听课表现,对第一授课老师在两个不同场地的授课进行更进一步的测评,以得到与学生听课相关的第一授课老师的测评结果。还可以对两个场地的授课的测评结果进行分析,比如,结合气象信息,进行分析,由此,实现了对同一老师对同一科目授课的比较,以便于授课老师的后续评分,也可便于对远程视音频的选择,比如,a老师在第一场地的第一科目的授课测评结果优于在第二场地的第一科目的授课测评结果,则将第一场地的第一科目的授课视音频作为远程教学视音频。

进一步的,除了将同一老师在不同场地关于同一科目的授课进行测评外,还可以对不同老师在同一场地针对同一科目的授课进行测评,具体如下:

首先、获取第一授课场地的第二授课老师的第一科目的第三授课视音频数据;其中,第三授课视音频数据包括第三讲授视音频数据、第三互动视音频数据和第三答疑解惑视音频数据。然后,对第三授课视音频数据进行处理,确定第三讲授视音频数据的时长、第三互动视音频数据的时长和第三答疑解惑视音频数据的时长。接着,确定第三讲授视音频数据的时长、第三互动视音频数据的时长和第三答疑解惑视音频数据的时长分别占第三授课视音频数据的时长的第三比例。最后,根据第三比例和预设比例,对第二授课老师的授课进行第四测评,得到第四测评结果。

进一步的,授课测评模块2还可以根据第一测评结果和第四测评结果,对第一授课老师和第二授课老师的授课进行测评。根据第一授课老师和第二授课老师的测评结果,对第一授课老师和第二授课老师进行评分;根据评分结果,对第一授课老师和第二授课老师进行教学排名。

由此,得到了第二授课老师针对第一科目的授课测评结果,后续,可以将第一授课老师的第一测评结果和第二授课老师的第四测评结果进行比较,比如当第一测评结果和第二测评结果为分数时,将两者的分数进行排序,或者当第一测评结果和第二测评结果为提示语时,将提示语进行比较,从而得出第一授课老师和第二授课老师的教学排名。

情感分析模块3,对第一听课视音频数据进行分析,得到每个学生的情绪信息和课堂行为信息,并根据情绪信息,得到关于情绪的第一曲线,同时根据课堂行为信息,得到关于课堂行为的第二曲线,随后根据第一曲线和第二曲线,对每个学生的情感进行分析,得到学生的情感与科目的情绪指数。

其中,第一曲线为情绪随时间变化的曲线,第二曲线为课堂行为随时间变化的曲线。

具体的,针对具体的班级,可以获取到摄像头拍摄的对于该班级内的全部学生在第一科目的全部面部表情,并将面部表情进行人工智能(artificialintelligence,ai)识别,识别出每个表情对应的情绪信息,比如班级内的学生m在上课刚开始时,通过面部表情采集,识别得到的情绪为正常,与此对应的课堂行为信息为听讲,在上课十分钟后,情绪为生气,与此对应的课堂行为为应答,再经过十分钟,情绪为悲伤,与此对应的课堂行为为师生互动,则可以将学生m的情绪信息,生成第一曲线。将学生m的课堂行为信息,生成第二曲线。

再比如,班级内的学生n的第一曲线为正常-鬼脸-脸红-正常,第二曲线为听讲-手部小动作-师生互动。可以通过为每种情绪设定分值,得到第一曲线,可以通过为每种行为设置分值,得到第二曲线。

进一步的,一直以来,早恋问题是家长和学校关注的重点,因此,通过听课视音频数据,研究该问题,以进一步的促进教学成果,是至关重要的。因此,情绪分析模块还用于,获取第一班级的第一学生在第一科目的眼神方向,判断眼神方向是否为正常眼神方向;当眼神方向为非正常眼神方向时,根据眼神方向,确定眼神方向的投射目标;获取投射目标的信息;投射目标的信息包括面部信息和背部信息;判断投射目标的面部信息和背部信息是否异常;当投射目标的面部信息和背部信息均正常时,统计在预设的时长内,第一学生的眼神方向投射至投射目标的投射次数和每次的投射时长;当投射次数大于预设的投射次数阈值时,判断投射时长是否大于预设的时长阈值;当投射时长大于预设的时长阈值时,生成眼神异常提示信息。

其中,非正常眼神方向可以是是否处于黑板与眼睛的视线范围内,对于是否处于视线范围内,可以预先对教室内的每个座位与黑板的视线范围进行计算,并通过对采集的听课视音频数据进行分析处理,得到学生当前的眼神方向是否为非正常眼神,此处的非正常眼神可以是脸红。对于投射目标的面部信息和背部信息继续分析,目的是为了确认投射目标的穿着,包括衣服色彩、图案等,发型是否是异常的,比如投射目标的衣服图案为特殊图案,则此时非正常眼神可以忽略,可以确认是投射目标的衣服图案吸引了学生的眼神。当投射目标的该些都为正常时,可以通过统计学生对投射目标的投射次数和投射时长,确认是否向终端或服务器发送眼神异常提示信息,以提高检测精度。

具体的,在班级内,可以通过面部识别,获取学生的眼神方向,并通过对眼神方向以及投射目标进行分析,以判断学生是否存在早恋倾向,并通过眼神异常提示信息进行提醒,其中,眼神异常提示信息可以发送至学校的服务器中,也可以发送至班主任的终端中,还可以发送至家长登录的终端中,从而对学生的多方面识别,以便于预防和干预眼神异常现象。

进一步的,情感分析模块3具体用于,统计第一曲线的变化率异常的第一次数;当第一次数大于预设的第一次数阈值时,统计第二曲线的变化率异常的第二次数;当第二次数大于预设的第二次数阈值时,确定学生存在心理异常。

其中,可以将第一曲线中的突变作为变化率异常,从而统计变化率异常的次数。相应的,也可以将第一曲线中的突变作为变化率异常,从而统计变化率异常次数。

情感分析模块3,获取第一学生的缺勤信息;缺勤信息包括缺勤起始时间和缺勤原因;确定缺勤时间之前对应的第一曲线和第二曲线,并确定缺勤时间之后对应的第一曲线和第二曲线;随后将缺勤时间之前的第一曲线和缺勤时间之后的第一曲线进行分析,得到第一分析结果,将缺陷之前的第二曲线和缺勤之后的第二曲线进行分析,得到第二分析结果,根据第一分析结果和第二分析结果,对第一学生在缺勤前后的情绪进行分析。

由此,可以通过情感分析模块3,得到缺勤前后学生的情绪和课堂行为的变化,更为全面的了解得到学生的情绪动向。

教学环境安全分析模块4,对第一授课视音频数据进行语音特征提取,根据提取结果,判断第一授课视音频数据中是否存在限制性语言,当存在限制性语言时,生成第一提示信息。

在课堂中,为了避免课堂软暴力,即授课老师的语言暴力,可以对授课老师的语言进行语音识别,从而判断是否存在语音暴力,具体实现过程如下:

首先,对第一授课视音频数据中的语音信号进行预处理,得到第一数字信号;然后,对第一数字信号进行特征提取,得到特征参数;接着,通过声学模型、语言模型和发音词典,对特征参数与预建的限制性语言模型库中的参考模板的相似性进行打分;最后,根据得分,确定第一授课视音频数据中是否存在限制性语言。

具体的,对语音信号依次进行采样、量化、预加重、分帧、加窗处理后,得到第一语音信号。

其中,采样的目的是对模拟音频信号波形进行分割,量化的目的是用整形值存储采样测得的振幅值。对语音信号进行预加重的目的,是为了对语音的高频部分进行加重,去除口唇辐射的影响,增加语音的高频分辨率。一般通过传递函数为一阶fir高通数字滤波器来实现预加重,其中a为预加重系数,0.9<a<1.0。设n时刻的语音采样值为x(n),经过预加重处理后的结果为y(n))=x(n)-ax(n-1),这里取a=0.98。语音信号具有短时平稳性(10--30ms内可以认为语音信号近似不变),这样就可以把语音信号分为一些短段来来进行处理,这就是分帧,语音信号的分帧是采用可移动的有限长度的窗口进行加权的方法来实现。一般每秒的帧数约为33-100帧,视情况而定。一般的分帧方法为交叠分段的方法,前一帧和后一帧的交叠部分称为帧移,帧移与帧长的比值一般为0-0.5。加窗一般是加汉明窗或矩形窗,从而增大对高频分量的衰减。

可以根据第一数字信号的不同用途,提取不同的特征参数。其中,特征参数主要有线性预测系数(linearpredictivecepstralcoding,lpcc)、感知线性预测系数(perceptuallinearpredictive,plp)、梅尔频率倒谱系数(melfrequencycepstrumcoefficient,mfcc)。

以mfcc为例,可以利用快速傅氏变换(fastfouriertransformation,fft)将第一数字信号从时域信号转变为频域信号;然后,对频域信号依照mel刻度分布的三角滤波器组进行卷积;接着,根据卷积结果,对三角滤波器组中各三角滤波器的输出构成的向量进行离余弦变化(discretecosinetransform,dct);最后,取dct中前n个系数,得到第一数字信号的特征参数。

后续,分别通过声学模型、语言模型和发音词典,对特征参数与预建的限制性语言模型库中的参考模板的相似性进行打分,得到声学模型对应的第一得分、语音模型对应的第二得分和发音词典对应的第三得分;对第一得分、第二得分和第三得分进行加权数据融合,得到最终得分,根据得分,以判断是否为限制性语言。比如,预建的限制性语言模型库中有“笨蛋”、“笨死了”等模板,经过打分后,得到的得分为98分,则可以确定存在限制性语言。当存在限制性语言时,可以生成第一提示信息,比如“注意措辞”等提示语或者“滴滴”等提示音,并将第一提示信息发送给该授课老师的终端,以提示老师注意措辞。

成绩预测模块5,接收答题卡接收器发送的多次课堂测验信息,每个课堂测验信息包括学生id、题目和每个题目的得分;确定同一知识点对应的题目数量;根据同一知识点对应的题目数量和得分,计算每个学生对知识点的掌握度,随后根据每个学生对知识点的掌握分值和情绪指数,计算学生下次的成绩。

具体的,在每个年级的每个班级的课堂测验中,老师可以将课堂测验信息进行发送,学生通过答题卡接收器进行作答,答题卡接收器会自动计算出学生的得分。

课堂测验的试题可以是从题库中得到的,比如,先建立题库,题库中存储有接收到的题目和知识点,以及每一个知识点与题目之间的对应关系。可以针对一个年级的每个科目,建立该科目的题库,每一个知识点与至少一个题目相对应,每一个题目与至少一个知识点相对应。授课老师可以从题库中的知识点中选择需要评价的知识点,然后,从题库中选择与这些知识点对应的题目,将这些题目的题干内容汇总生成试卷并保存在终端上。该些课堂测验信息会通过终端,发送给学生终端,学生终端通过答题卡接收器将课堂测验信息发送给成绩预测模块5。

具体的,一个题目可以对应一个知识点,假如有3个题目,一个知识点对应一个题目。也可以对应一个以上,比如两个、三个知识点,在一个课堂测验中,假如有3个题目,第一个有1、2两个知识点,第二个有2、3两个知识点,第三个有3、4两个知识点,则1知识点对应一道题,2知识点对应2道题,3知识点对应2道题,4知识点对应1道题。

比如,一共有10个题目,涉及到3个知识点依次为a、b和c,a、b和c对应的题目的数量分别为10、10、10,每个题的分值为1分,学生m在a、b和c三个知识点的得分依次为7、4和9。知识点a的正确率为70%,知识点b的正确率为40%,知识点c的正确率为90%。数据库中可以设置三种掌握程度:未掌握、基本掌握和已掌握。可以将每个知识点的正确率与预设的掌握程度进行比较,比如正确率为90%,可以视为已掌握,正确率为70%,可以视为基本掌握,正确率为40%,可以视为未掌握。

之前已经计算出情绪指数,每个学生的都有其相应的情绪指数,将学生对知识点的掌握程度,乘以一定的倍数,比如1.1倍,从而放大情绪和课堂行为对后续成绩预测的作用,或者,乘以0.9,从而减少情绪和课堂行为的对后续成绩预测的作用,得到比较准确的预测成绩。

进一步的,成绩预测模块5,获取学生的实际考试成绩;当预测的考试成绩和实际考试成绩的差值在预设的范围外时,生成第二提示信息。

家庭反馈模块6,获取家庭反馈的学生问题信息;学生问题信息包括学生id、学生问题的时间区间和具体问题;根据学生id和学生问题的时间区间,在第一听课视音频数据中进行查找,确定学生id对应的在学生问题的时间区间的第二听课视音频数据;根据具体问题,获取第二听课视音频数据中的与具体问题相对应的目标情绪的起始时间和目标情绪的起始时间内的第三听课视音频数据;根据与具体问题相对应的目标情绪的起始时间和第一目标情绪的起始时间内的第三听课视音频数据,生成情绪问题报告。

对于一个班级的一节课,生成一个听课视音频数据,该听课视音频数据中包括多个学生的图像,可以以学生图像为单位,对听课视音频数据进行分类,得到每个学生的第一听课视音频数据。

比如,在听课视音频数据中的第一时长内,有学生a和b,在第二时长内,有学生b和c,在第三时长内,有学生a和c,可以将学生a在第一时长和第三时长内的听课视音频数据进行拼接,得到一节课内,学生a的第一听课视音频数据,该第一听课视音频数据还具有录制时间,对于学生b,可以将学生b在第一时长和第二时长内的听课视音频数据进行拼接,得到一节课内,学生b的第一听课视音频数据。

可以通过多种方式得到问题信息,可以对文字信息进行抽取,得到学生的问题信息。

在另一个示例中,对家庭内的成员在点阵问卷上的笔迹进行解析,得到家庭内的成员反馈的学生问题信息。

具体的,在学校的信息反馈部门,可以设置有带有点阵的问卷或者带有点阵的信息反馈表,家长可以通过点阵笔,在点阵问卷或者反馈表上进行填写,该些笔迹信息在上位机上被解析和处理后,可以得到学生的问题信息。

在再一个示例中,接收家庭内的成员通过终端发送的学生问题信息。

具体的,在每个班级中,都具有学生的基本信息,该些基本信息包括家长联系方式,家长联系方式包括但不限于邮箱,学校的教务终端会根据基本信息中所标注的家长联系方式,推送反馈表,家长在填写反馈表后,再反馈给学校的教务终端。家庭反馈模块6和教务终端进行通信后,得到反馈的问题信息。

其中,示例而非限定,反馈表上设置有学生存在的问题,存在问题的时间区间等选项,通过勾选或填写,可以得到学生的问题信息。

示例而非限定,学生问题的时间区间可以是几点钟到几点钟,也可以是一天、还可以是一周,本申请对此并不限定。比如,学生问题的时间区间是几点钟到几点钟时,假如学生问题的时间区间是学生问题的时间区间为7月19日上午8:50至11:40,在这个时间区间内,对应的是某节语文课的后三十分钟,一节数学课的全部和一节英语课的前20分钟,则可以将从该学生的语文课的第一听课视音频数据中,截取到后三十分钟的数据,从英语课的第一听课视音频数据中,截取到前二十分钟,再加上数学课对应的第一听课视音频数据,一起作为第二听课视音频数据。

再比如,当学生问题的时间区间是一天时,假如学生问题的时间区间是7月19日,可以通过学生id,查找到该学生的所有第一听课视音频数据,然后根据时间,查找7.19日该学生在每个科目的第一听课视音频数据,比如,7.19上课节数为7节,从而得到这7节课内,该学生id对应的得到第二听课视音频数据。

比如,学生的问题信息中的具体问题为“在家中做作业经常发呆,时而傻笑”,提取到关键词“发呆”和“傻笑”,查找预设的情绪关键词-情绪对照表后,获取到发呆对应的情绪为白眼、傻笑对应的情绪为笑脸,并从数据库中获取到这两种情绪对应的面部特征,然后对第二听课视音频数据中分析处理,提取到白眼和笑脸的听课视音频数据,比如,白眼持续4秒,笑脸持续10秒,白眼持续1秒,笑脸持续3秒等,将该些情绪对应的视音频,组合成第三听课视音频数据。

情绪问题报告具体为:目标情绪的次数、每次的时长;和/或,在每个科目中目标情绪的次数、每次的时长;和/或,在每个教学场地中目标情绪的次数、每次的时长;和/或,在每个授课老师中,目标情绪的次数、每次的时长。比如,情绪问题包括中可以包括白眼的总共频率、每次的时长;在对应科目中白眼的次数,每次的时长,在对应场地中白眼的次数,每次的时长;在对应授课老师中白眼的次数,每次的时长等。

进一步的,系统还包括:坐姿异常判断模块7;

坐姿异常判断模块7,获取第一班级的第一学生在第一科目的坐姿信息;坐姿信息包括第一学生的上半身与地平线的角度;根据坐姿信息,生成第三曲线;其中,第三曲线为坐姿随时间变化的曲线;统计预设的时长内,第三曲线偏离标准曲线的偏离次数和每次的偏离时长;当偏离次数大于预设的第二次数阈值时,判断每次的偏离时长是否大于预设的第二时长阈值;当偏离时长大于预设的第二时长阈值时,生成坐姿异常的第三提示信息。

其中,坐姿异常判断模块7可以从教室内的智能座椅,获取到学生的坐姿信息,或者,通过对听课视音频数据进行分析,得出学生的坐姿信息,从而与上一个例子相似,可以将坐姿异常提示信息发送给学校的服务器,也可以发送至班主任所登录的终端中,还可以发送至家长登录的终端中,从而对学生的异常坐姿进行提醒,以督促和提醒学生养成良好的坐姿。

通过应用本发明实施例提供的录播系统,通过各个模块共同作用,可以充分的理由录播模块1的数据,进行授课测评、学生情感分析、教学环境安全分析、成绩预测及对家庭反馈问题的跟进,最大化的利用了授课视音频数据和听课视音频数据。

专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。

以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1