教学效果信息获取方法及装置与流程

文档序号:12468251阅读:224来源:国知局
教学效果信息获取方法及装置与流程

本发明涉及图像处理技术领域,更具体地,涉及一种教学效果信息获取方法及装置。



背景技术:

随着教学模式的发展,传统的“填鸭式”的教学模式让学生难以参与教学活动,上课兴趣比较低,使得学生出现了上课犯困、开小差的现象。另外,传统的教学模式不能对每个学生的教学记录进行保留,且很不方便老师、家长及学校实时了解学生学习状况。随着电化教学逐渐成为主流,如多媒体电化教室、远程多媒体教育等,教学过程逐渐变为一个多因素相互作用的、多变的动态过程。在信息技术环境下,教学过程更是呈现出了多变性和不确定性。特别是新课程标准的实施,教学理念和教学方法上都需要做出巨大的转变,即要充分体现以学生为本而不是以技术为本,从教学需求、学生的实际情况及出发,以满足学生发展需求为目的。在此基础上,只有实现信息技术与教学活动的有机结合,才能真正实现教师与学生之间的交流与互动。现有的教学效果信息获取方法主要是通过课堂提问及问答,即教师通过对一个学生进行提问,从而了解该学生的学习情况。

在实现本发明的过程中,发现现有技术至少存在以下问题:由于教师只能对个别学生进行提问,从而只能了解个别学生的学习情况,对其他大多数学生的学习情况以及全班的整体情况都不了解。因此,获取到的教学信息很少,无法及时掌握学生的学习情况。



技术实现要素:

本发明提供一种克服上述问题或者至少部分地解决上述问题的方法及装置。

根据本发明的一方面,提供了一种教学效果信息获取方法,该方法包括:

获取预设数量的目标图像;

基于预设的表情分类,确定每张目标图像所对应的表情类型;

统计每一表情类型对应的目标图像张数;

根据每一表情类型对应的目标图像张数,确定教学效果信息。

根据本发明的另一方面,提供了一种教学效果信息获取装置,该装置包括:

获取模块,用于获取预设数量的目标图像;

第一确定模块,用于基于预设的表情分类,确定每张目标图像所对应的表情类型;

统计模块,用于统计每一表情类型对应的目标图像张数;

第二确定模块,用于根据每一表情类型对应的目标图像张数,确定教学效果信息。

本申请提出的技术方案带来的有益效果是:

通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。

附图说明

图1为本发明实施例的一种教学效果信息获取方法的流程示意图;

图2为本发明实施例的一种教学效果信息获取方法的流程示意图;

图3为本发明实施例的一种教学效果信息获取装置的结构示意图。

具体实施方式

下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。

随着教学模式的发展,传统的“填鸭式”的教学模式让学生难以参与教学活动,上课兴趣比较低,使得学生出现了上课犯困、开小差的现象。另外,传统的教学模式不能对每个学生的教学记录进行保留,且很不方便老师、家长及学校实时了解学生学习状况。随着电化教学逐渐成为主流,如多媒体电化教室、远程多媒体教育等,教学过程逐渐变为一个多因素相互作用的、多变的动态过程。在信息技术环境下,教学过程更是呈现出了多变性和不确定性。特别是新课程标准的实施,教学理念和教学方法上都需要做出巨大的转变,即要充分体现以学生为本而不是以技术为本,从教学需求、学生的实际情况及出发,以满足学生发展需求为目的。在此基础上,只有实现信息技术与教学活动的有机结合,才能真正实现教师与学生之间的交流与互动。现有的教学效果信息获取方法主要是通过课堂提问及问答,即教师通过对一个学生进行提问,从而了解该学生的学习理解情况。由于教师只能对个别学生进行提问,从而只能了解个别学生的学习情况,对其他大多数学生的学习情况以及全班的整体情况都不了解。因此,获取到的教学信息很少,无法及时掌握学生的学习情况。

另外,统计数字表明远程教学的教学效果通常很差,辍学率很高。这主要因为学生学习时处在一个相对封闭的环境,容易产生孤独感,不能有效地投入学习。同时,教学方也无法实时获取教学效果信息,如坐在多媒体前学生的学习情况,从而不能做出相应的改善。

由此可见,不管是传统课堂教学还是远程教学,获取学生的教学效果信息是非常有必要的。针对上述问题,本实施例提供了一种教学效果信息获取方法。需要说明的是,本发明实施例可适用于配备了摄像头教学环境,包括但不限于配备摄像头的传统教学课堂及远程教学课堂。具体实施时,可在每个学生面前设置一个摄像头,或者远程教学课堂自行开启终端摄像头,以用于采集面部图像,本实施例对此不作具体限定。参见图1,该教学效果信息获取方法流程包括:101、获取预设数量的目标图像;102、基于预设的表情分类,确定每张目标图像所对应的表情类型;103、统计每一表情类型对应的目标图像张数;104、根据每一表情类型对应的目标图像张数,确定教学效果信息。其中,教学效果信息可包括学生的教学程度理解值,本实施例对此不作具体限定。

本发明实施例提供的方法,通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。

作为一种可选实施例,基于预设的表情分类,确定每张目标图像所对应的表情类型,包括:

对于任一目标图像,按照第一预设算法计算任一目标图像的目标特征向量;

计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离;

根据每一目标欧式距离,确定任一目标图像对应的表情类型。

作为一种可选实施例,计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离之前,还包括:

对于任一表情类型对应的训练样本,从训练样本中随机选取一张图像的特征向量作为初始聚类中心对象;

按照第二预设算法对初始聚类中心对象进行迭代更新,得到任一表情类型对应的聚类中心对象。

作为一种可选实施例,根据每一目标欧式距离,确定任一目标图像对应的表情类型,包括:

基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对;

当存在目标欧式距离落入对应的度量范围内时,将满足条件的度量范围对应的表情类型作为任一目标图像对应的表情类型。

作为一种可选实施例,基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对之前,还包括:

对于任一表情类型对应的训练样本及聚类中心对象,计算训练样本中每张图像的特征向量与聚类中心对象之间的欧式距离;

从所有欧式距离中选取最小欧式距离与最大欧式距离,将两者界定的范围作为任一表情类型对应的度量范围。

作为一种可选实施例,根据每一表情类型对应的目标图像张数,确定教学效果信息,包括:

获取每一表情类型对应的影响因子;

根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值;

根据总表情分值与目标表情分值,计算教学理解程度值。

作为一种可选实施例,根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值,包括:

将每一表情类型对应的影响因子与每一表情类型对应的目标图像张数相乘,得到相应的乘积;

将所有的乘积进行叠加得到总表情分值。

作为一种可选实施例,根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算目标表情分值,包括:

从所有的表情类型中选取目标表情类型;

将每一目标表情类型对应的影响因子与每一目标表情类型对应的目标图像张数相乘,得到相应的目标乘积;

将所有的目标乘积进行叠加得到目标表情分值。

作为一种可选实施例,根据总表情分值与目标表情分值,计算教学理解程度值,包括:

计算目标表情分值与总表情分值之间的比值,将比值作为教学理解程度值。

上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。

基于上述图1对应的实施例所提供的内容,本发明实施例提供了一种教学效果信息获取方法。参见图2,本实施例提供的方法流程包括:201、获取预设数量的目标图像;202、基于预设的表情分类,确定每张目标图像所对应的表情类型;203、统计每一表情类型对应的目标图像张数;204、获取每一表情类型对应的影响因子;205、根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值;206、根据总表情分值与目标表情分值,计算教学理解程度值。

其中,201、获取预设数量的目标图像。

在获取预设数量的目标图像时,可预先让摄像头对准学生面部,从而摄像头可采集预设时间段内的目标图像,本实施例对此不作具体限定。其中,预设时间段及摄像头采集图像的频率可根据实际需求进行设置。相应地,预设数量可以由预设时间段长度与采集频率确定,本实施例对此不作具体限定。需要说明的是,当预设时间段很长或采集频率较低时,可能不便于实时获知学生的学习情况。因此,预设时间段可以设置的短一些,采集频率可以设置的高一些,以便于实时掌握到学生的学习状态。

其中,202、基于预设的表情分类,确定每张目标图像所对应的表情类型。

在执行本步骤之前,根据实际环境中学生的课堂表情,可将表情分为如下几种,包括但不限于微笑、好奇、厌烦、沮丧、分身、专注及困惑。需要说明的是,表情种类分的越细致,后续获取到的教学效果信息也就更加真实。相应地,计算量也就越大且耗费时间也长,具体实施时可将表情种类与时间消耗进行斟酌权衡,选取适量的表情种类,本实施例对此不作具体限定。

本实施例不对基于预设的表情分类,确定每张目标图像所对应的表情类型的方式作具体限定,包括但不限于:对于任一目标图像,按照第一预设算法计算任一目标图像的目标特征向量;计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离;根据每一目标欧式距离,确定任一目标图像对应的表情类型。

其中,第一预设算法可以为SIFT算法,本实施例对此不作具体限定。另外,还可以基于卷积神经网络VGG深度学习模型,使用SIFT算法来计算目标特征向量,本实施例对此也不作具体限定。在通过第一预设算法计算得到目标特征向量之后,为了去除光照变化等干扰因素的影响,还可以对目标特征向量进行归一化,本实施例对此不作具体限定。

对于任一表情类型,聚类中心对象为该表情类型对应的训练样本中所有图像的聚类均值,其形式也为特征向量,本实施例对此不作具体限定。相应地,在计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离,还可以计算每一表情类型对应的聚类中心对象,本实施例对此不作具体限定。

关于计算每一表情类型对应的聚类中心对象的方式,本实施例对此不作具体限定,包括但不限于:对于任一表情类型对应的训练样本,从训练样本中随机选取一张图像的特征向量作为初始聚类中心对象;按照第二预设算法对初始聚类中心对象进行迭代更新,得到任一表情类型对应的聚类中心对象。

其中,在得到初始聚类中心对象时,同样可以采样上述过程中的第一预设算法来计算随机选取图像的特征向量,且还可以对特征向量进行归一化处理,本实施例对此不作具体限定。第二预设算法可以为K-Mean算法,本实施例对此不作具体限定。通过K-Mean算法对初始聚类中心对象进行迭代更新,可以得到该表情类型对应的训练样本中所有图像的聚类中心均值,即该表情类型对应得聚类中心对象。

本实施例不对根据每一目标欧式距离,确定任一目标图像对应的表情类型的方式作具体限定,包括但不限于:基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对;当存在目标欧式距离落入对应的度量范围内时,将满足条件的度量范围对应的表情类型作为任一目标图像对应的表情类型。

在基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对,可计算每一表情类型对应的度量范围,本实施例对此不作具体限定。其中,任一表情类型对应的度量范围主要用于界定一张图像中人物表情是否属于该表情类型。

本实施例不对计算每一表情类型对应的度量范围的方式作具体限定,包括但不限于:对于任一表情类型对应的训练样本及聚类中心对象,计算训练样本中每张图像的特征向量与聚类中心对象之间的欧式距离;从所有欧式距离中选取最小欧式距离与最大欧式距离,将两者界定的范围作为任一表情类型对应的度量范围。

由上述过程可知,每一表情类型对应的聚类中心对象是确定的,从而可对应计算每张图像的特征向量与聚类中心对象之间的欧式距离。对于任一表情类型,计算得到的欧式距离数量,取决于该表情类型下训练样本中图像的数量。在计算得到任一表情类型下的所有欧式距离后,可从中选取一个最大值及最小值,两者界定范围即为该表情类型对应的度量范围。

在得到每种表情类型的度量范围后,对于任一表情类型及任一目标图像,可将该目标图像与该表情类型对应的聚类中心对象之间的目标欧式距离,与该表情类型对应的度量范围进行比对。当目标欧式距离在度量范围内时,可确定该目标图像中人物面部表情属于该表情类型,从而便确定了该目标图像对应的表情类型。当目标欧式距离不在度量范围内,则可确定该目标图像中人物面部表情不属于该表情类型。此时,可将该目标图像在其它表情类型下所对应的目标欧式距离,并重复上述比对过程,直到找到该目标图像对应的表情类型。

重复上述对一张目标图像的处理过程,便可找到预设数量的目标图像中每张目标图像对应的表情类型。

其中,203、统计每一表情类型对应的目标图像张数。

通过上述步骤202,在得到每张目标图像对应的表情类型后,通过计数的方式可统计得到每一表情类型下的目标图像张数。

其中,204、获取每一表情类型对应的影响因子。

在本步骤中,影响因子的定义取决于教学效果信息的定义。当教学效果信息代表正向教学效果时,用于表明教学效果良好的正向表情类型所对应的影响因子可以取较大值,以表示该影响因子对正向教学效果的信息统计做出了较大的贡献。当教学效果信息代表负向教学效果时,用于表明教学效果较差的负面表情类型所对应的影响因子可以取较大值,以表示该影响因子对负向教学效果的信息统计做出了较大的贡献。

其中,正向教学效果信息可以为教学理解程度值,负向教学效果信息可以为教学受干扰程度值。当然,正向教学效果信息及负向教学效果信息还可以为其它内容,如正向教学效果信息还可以为学生专注时长、负向教学效果信息还可以为学生上课说话时长及次数等等,本实施例对此不作具体限定。

例如,以教学效果信息为学生课堂听讲的教学理解程度值为例。由于教学理解程度值代表正向教学效果,从而正向表情类型(如上课时的好奇表情、微笑表情及专注表情等)的影响因子相对于负面表情类型(如上课时的沮丧表情、分神表情及疲劳表情),显然对正向教学效果信息统计的贡献程度更大。相应地,正向表情类型的影响因子相对于负面表情类型,可设置更大的值。例如,好奇表情的影响因子可设置为0.8,微笑表情的影响因子可设置为0.6,专注表情的影响因子可设置为0.7等。相应地,沮丧表情的影响因子可设置为0.1,分神表情的影响因子可设置为0.2,疲劳表情的影响因子可设置为0.1等,本实施例对此不作具体限定。

相反地,教学效果信息还可以为学生的教学受干扰程度值。由于教学受干扰程度值代表负向教学效果,从而负面表情类型(如上课时的沮丧表情、分神表情及疲劳表情)的影响因子相对于正向表情类型(如上课时的好奇表情、微笑表情及专注表情等),显然对负向教学效果信息统计的贡献程度更大。相应地,负面表情类型的影响因子相对于正向表情类型,可设置更大的值。例如,沮丧表情的影响因子可设置为0.8,分神表情的影响因子可设置为0.6,疲劳表情的影响因子可设置为0.7等。相应地,好奇表情的影响因子可设置为0.2,微笑表情的影响因子可设置为0.2,专注表情的影响因子可设置为0.1等,本实施例对此不作具体限定。

本步骤及后续步骤主要是根据每一表情类型对应的目标图像张数,确定教学效果信息的过程。需要说明的是,本步骤及后续步骤以教学效果信息为正向教学效果信息,正向教学效果信息为教学理解程度值为例,对计算教学理解程度值的过程进行阐述。具体实施过程中,凡采用本实施例提供的思想来对教学效果进行评估获取的方式,都应当落入本发明的保护范围。

其中,205、根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值。

本实施例不对根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值的方式作具体限定,包括但不限于:将每一表情类型对应的影响因子与每一表情类型对应的目标图像张数相乘,得到相应的乘积;将所有的乘积进行叠加得到总表情分值。上述计算过程可如下公式(1)所示:

在上述公式(1)中,M为总表情分值。ni表示第i种表情对应的图像张数,αi表示第i种表情类型对应的影响因子。n为表情类型的总数量。

本实施例不对根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值的方式作具体限定,包括但不限于:从所有的表情类型中选取目标表情类型;将每一目标表情类型对应的影响因子与每一目标表情类型对应的目标图像张数相乘,得到相应的目标乘积;将所有的目标乘积进行叠加得到目标表情分值。在选出目标表情类型后,参考如下公式(2),可计算得到正向表情类型对应的目标表情分值。

其中,m为目标表情类型的数量。

基于上述过程,由于本步骤及后续步骤计算的是正向教学效果信息,即教学理解程度值,从而在选取目标表情类型时,可选取上述步骤204的正向表情类型,本实施例对此不作具体限定。例如,可选取好奇、微笑及专注表情作为目标表情类型。

相反地,若本步骤及后续步骤计算的是负向教学效果信息,如教学受干扰程度值,则可选取上述步骤204的负面表情类型,本实施例对此不作具体限定。例如,可选取沮丧、分神及疲劳表情作为目标表情类型。相应地,参考上述公式(2)可计算得到负面表情类型对应的目标表情分值。

其中,206、根据总表情分值与目标表情分值,计算教学理解程度值。

本实施例不对根据总表情分值与目标表情分值,计算教学理解程度值的方式作具体限定,包括但不限于:计算目标表情分值与总表情分值之间的比值,将比值作为教学理解程度值。上述计算过程可参考如下公式(3):

其中,γ为正向表情类型对应的教学理解程度值。相反地,基于上述步骤205中的内容,γ还可以为负面表情类型对应的教学受干扰程度值,本实施例对此不作具体限定。

当γ为教学理解程度值时,当0<γ<0.5时,判断学生对课堂所讲内容的掌握情况不好;当0.5<γ<1时,判断学生对课堂所讲内容的掌握情况还可以,大部分都可以理解。

当γ为教学受干扰程度值时,当0<γ<0.5时,判断学生在课堂上受到的不利影响较小;当0.5<γ<1时,判断学生在课堂上受到的不利影响较大。

本发明实施例提供的方法,通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。

本发明实施例提供了一种教学效果信息获取装置,该装置用于执行上述图1或图2对应的实施例中所提供的教学效果信息获取方法。参见图3,该装置包括:

获取模块301,用于获取预设数量的目标图像;

第一确定模块302,用于基于预设的表情分类,确定每张目标图像所对应的表情类型;

统计模块303,用于统计每一表情类型对应的目标图像张数;

第二确定模块304,用于根据每一表情类型对应的目标图像张数,确定教学效果信息。

作为一种可选实施例,第一确定模块302,包括:

第一计算单元,用于对于任一目标图像,按照第一预设算法计算任一目标图像的目标特征向量;

第二计算单元,用于计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离;

确定单元,用于根据每一目标欧式距离,确定任一目标图像对应的表情类型。

作为一种可选实施例,第一确定模块302,还包括:

选取单元,用于对于任一表情类型对应的训练样本,从训练样本中随机选取一张图像的特征向量作为初始聚类中心对象;

更新单元,用于按照第二预设算法对初始聚类中心对象进行迭代更新,得到任一表情类型对应的聚类中心对象。

作为一种可选实施例,确定单元,包括:

比对子单元,用于基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对;

确定子单元,用于当存在目标欧式距离落入对应的度量范围内时,将满足条件的度量范围对应的表情类型作为任一目标图像对应的表情类型。

作为一种可选实施例,确定单元,还包括:

计算子单元,用于对于任一表情类型对应的训练样本及聚类中心对象,计算训练样本中每张图像的特征向量与聚类中心对象之间的欧式距离;

选取子单元,用于从所有欧式距离中选取最小欧式距离与最大欧式距离,将两者界定的范围作为任一表情类型对应的度量范围。

作为一种可选实施例,第二确定模块304,包括:

获取单元,用于获取每一表情类型对应的影响因子;

第一计算单元,用于根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值;

第二计算单元,用于根据总表情分值与目标表情分值,计算教学理解程度值。

作为一种可选实施例,第一计算单元,用于将每一表情类型对应的影响因子与每一表情类型对应的目标图像张数相乘,得到相应的乘积;将所有的乘积进行叠加得到总表情分值。

作为一种可选实施例,第一计算单元,用于从所有的表情类型中选取目标表情类型;将每一目标表情类型对应的影响因子与每一目标表情类型对应的目标图像张数相乘,得到相应的目标乘积;将所有的目标乘积进行叠加得到目标表情分值。

作为一种可选实施例,第二计算单元,用于计算目标表情分值与总表情分值之间的比值,将比值作为教学理解程度值。

本发明实施例提供的装置,通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。

最后,本申请的方法仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1