基于云计算模型和表情信息反馈的智能化视频教学系统的制作方法

文档序号:6381208阅读:190来源:国知局
专利名称:基于云计算模型和表情信息反馈的智能化视频教学系统的制作方法
技术领域
本发明涉及远程教学技术领域,具体涉及一种云计算模型下的智能化视频教学系统。
背景技术
远程教育的发展已有200多年的历史,其作用已在世界范围内得到认可。远程教育涉及的领域遍及世界各地,它满足了不同层次人们的不同需求在大学,远程教育为更多的人创造了接受高等教育的机会;在公司,远程教育可用于员工的技能培训,使他们适应技术的进步;对于个人,通过远程教育接受职业技能培训,可为自己创造更多的就业机会;对于政府,利用远程教育的在线师资培训,提高了传统中小学校的教学质量;而对于边远地区,远程教育解决了课程传输难、受教育难的问题。随着互联网和相关技术的进步,高等教育的受益面和高等教育的质量已经被大大提高,同时一些全新的教育模式也相继出炉,如"virtual university”,即没有围墙的大学,是用互联网和通讯卫星来传输课程,其教学资料、图书馆,甚至实验室都可以让分散在各地的学生或机构所共享。云计算是以虚拟化技术为基础,以按需付费为商业模式,具备弹性扩展、动态分配和资源共享等特点的新型网络化计算模式,在云计算模式下,软件、硬件、平台等IT资源将作为基础设施,以服务的方式提供给使用者。虽然,远程教育的学生和传统教育模式下的学生学到的东西一样多,但是,有统计数字显示已有的远程教学中,函授生的辍学率达到19% 90 %,平均辍学率达40 %之高。事实上,高辍学率多在于学生学习时缺乏同学之间和师生之间的交流,由此产生孤独感,而一些学生的学习自律性又差、才造成这样的结果。另外,学习成绩反馈太慢造成学生学习兴趣的降低并因此产生挫折感也是一方面的原因。在对已有技术的研究和实践过程中,本发明的发明人发现当前远程教育与传统教育的一个主要区别就在于当前远程教育的学习环境是孤立的,学习者必须具备较强的学习自律性,才能完成课程的学习。基于这一特点,本发明中所提出的表情自反馈智能视频教学系统可以弥补这一不足,一方面,系统可以通过授课课程的信息透明化,使其他学生通过对已有的课程学习信息数据了解该课程的难易程度和其他学生学习过程中的状态;另一方面,教师可以根据学生反馈回的表情信息数据,客观的对已有的教学内容进行调整,并且可以和部分学生进行一对一交流。此外,本系统将云计算模型应用 到远程教学中,一方面节省了校方的教学成本、提高了信息的可靠程度并且降低了校方的管理难度;另一方面,还可以让学生根据自己的需求有选择的安排自己的授课计划,从而避免传统远程教学中无针对性的弊端。

发明内容
针对现有远程视频教学技术中学生学习环境孤立的不足,本发明提供一种基于云计算模型和表情信息反馈的智能化视频教学系统,该系统包含智能表情信息反馈子系统,通过该系统,一方面,能够使教师根据教学日志中的分析数据对课程内容进行调整并和学习者进行有效沟通;另一方面,学生也可以从数据云的报表中发现课程的特点和自身的不足之处,通过师生双方的信息互馈,从而达到最佳的教学效果。本发明提供一种基于云计算模型和表情信息反馈的智能化视频教学系统,该系统由数据云、学生终端和教师终端3大部分组成,其中数据云是最核心的部分,它分成视频数据和自反馈智能视频控制子系统两大部分,数据云中的自反馈智能视频控制子系统又包含了 4个核心模块,分别是人脸检测、表情识别、反馈处理和统计信息模块;学生终端和教师终端部分可以看作是云终端用户,由互联网上的普通PC来实现,系统通过网络实现云终端与数据云之间的交换,完成数据存储和计算,并将结果返回给云终端。具体的,自反馈智能视频控制子系统的表情识别模块,包含对困倦、疑惑和满意三个具体表情识别;其中,困倦表情的特征为(I)眼内角的上眼皮降低⑵嘴巴张大⑶双臂向头部上方伸展;疑惑表情的特征为(1)上唇抬起,下唇与上唇紧闭,推动上唇向上,嘴角下拉,唇轻微凸起(2)眉毛内角皱在一起,抬高,带动眉毛下的皮肤运动(3)伴有用手挠头或者摇头动作;丨两意表情特征为(I)唇角向后拉并抬闻(2)嘴巴张大(3)脸频被抬起
(4)伴有点头动作。具体的,表情识别模块实现步骤包括I)对检测到的人脸图像,使用组群特征分析方法定位眼睛、眉毛、嘴巴和下颌的位置,使用肤色检测方法判断头部以上区域内是否有手出现;2)用改进的局部梯度算子精确定位眉梢、眼角、嘴角和下颌角;3)用均值漂移算法跟踪眉毛、眼睛和嘴巴的位置;4)根据眉梢、眼角和嘴角的坐标变化判断表情变化;5)根据下颌角的位置变化判断头部动作。具体的,自反馈智能视频控制子系统的反馈处理模块实现步骤包括I)表情识别的结果为困倦时,自动播放一个提醒小动画,唤醒学生,并将当前检测点标记为困倦点;2)表情识别的结果为疑惑时,自动弹出信息窗,询问学生是否需要重新播放该段视频,并将当前检测点标记为疑惑点;3)表情识别的结果为满意时,将当前检测点标记为满意点。具体的,自反馈智能视频控制子系统的统计信息模块实现方法包括I)假设有η个学生yXn观看视频教学,播放的视频教材总时间长度为S,表情自
反馈智能视频控制系统的运行周期为t,反馈情况统计时间间隔为M,在此时间间隔内的总M
采样点β=+;2)对学生Xi(其中i = Ρ··η)在时长为M的时间段内,统计得出有个困倦点、
h个疑惑点和Ci个满意点,则在总视频长度S内,按M长度划分,可分为&个时间段,表示
M
为 Gj (其中 _/ = I—~ );
M3)在时间段Gj上统计η个学生总共反馈的困倦点Aj = 、疑惑点Bj = Σ bt
;=1 /=1ν,表示该学生的总疑惑点数,,表示该学生的总满意点数;
7=15)视频总时长内总共产生I个统计信息点,当^ 2 80%则判定该学生上课在睡
t
60%则判定该学生难以接受此课程的内容,50%则判定该学生对此课程感
Oι3
兴趣;6)视频播放结束,系统自动生成一个教学视频播放日志,日志内容包括播放视频名称、视频总时长、各时段统计信息P」和每个学生反馈信息Xi的汇总。上述技术方案可以看出,由于本发明实施例在云计算模型下,以用户为中心,因此本系统具有低成本、高可用性和易扩展性的优点。


为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。图I是本发明的结构示意图;图2是本发明自反馈智能视频控制子系统的流程图。
具体实施例方式下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
和满意点 . 的个数,将 、Bj和的值和nQ的值相除得到该时间段上的困倦程/=1
度K1、疑惑程度Y1和满意程度R1,在该时间段上的所有终端总的统计信息P1的表达式
如下
K
R
+ Dj + Cjη O
> 60%
^60%,其中K表示困倦,Y表示疑惑,R表示满意,并且满足条件
nQ
nQCi
> 60%
nQ
others
100%4)学生Xi在整个视频播放过程中的统计信息为彳= Σα“.,表示该学生总的困倦
6
本发明实施例提供一种基于云计算模型和表情信息反馈的智能化视频教学系统,能够在云计算模型下实现智能化视频教学。以下进行详细说明。如图I所示,本发明包括教师终端、数据云和学生终端3大组成部分,其中,数据云包含视频数据和自反馈智能视频控制子系统两个部分,教师终端和学生终端可以是普通PC,但是学生端要求必须具备视频信号采集设备。教师终端将制作完成的视频教学资源上传到数据云中,学生根据自己的需求可以随时随地通过互联网在数据云上观看教学视频,并且通过智能视频控制子系统来自动调节视频播放的进度,视频播放结束软件会自动生成一个视频播放日志,上传到数据云端,可供教师和其他学生浏览。智能视频控制子系统包含了 4个模块,分别是人脸检测、表情识别、反馈处理和统计信息模块,该软件实现方法流程图如图2所示,具体实现步骤为I、通过学生终端的视频信号采集设备采集视频信号并读取。2、人脸检测。鉴于视频观看的地点通常背景较为单一,因此使用肤色分割初步检测出人脸位置,再使用积分投影算法大致找出眼睛的位置,根据眼睛在初检人脸图像中的位置确定检测到的目标是否为人脸图像。如果检测到当前图像中有人脸存在,则进入步骤3,否则返回步骤I。3、人脸表情识别。鉴于本发明用于远程教学中学生观看视频时的表情识别,因此软件只需对困倦、疑惑和满意三个具体表情做出判断和识别即可,其中,困倦表情的特征为(1)眼内角的上眼皮降低(2)嘴巴张大(3)双臂向头部上方伸展;疑惑表情的特征为
(I)上唇抬起,下唇与上唇紧闭,推动上唇向上,嘴角下拉,唇轻微凸起(2)眉毛内角皱在一起,抬高,带动眉毛下的皮肤运动(3)伴有用手挠头或者摇头动作;满意表情特征为(1)唇角向后拉并抬高(2)嘴巴张大(3)脸颊被抬起(4)伴有点头动作。具体实现步骤如下I)根据所述步骤2中检测到的人脸图像,使用组群特征分析方法定位眼睛、眉毛、嘴巴和下颌的位置,使用肤色检测方法判断头部以上区域内是否有手出现。2)用改进的局部梯度算子精确定位眉梢、眼角、嘴角和下颌角。3)用均值漂移算法跟踪眉毛、眼睛和嘴巴的位置。4)根据眉梢、眼角和嘴角的坐标变化判断表情变化。5)根据下颌角的位置变化判断头部动作。4、表情反馈处理。具体实现步骤如下I)所述步骤3中表情识别的结果为困倦时,自动播放一个提醒小动画,唤醒学生,并将当前检测点标记为困倦点。2)所述步骤3中表情识别的结果为疑惑时,自动弹出信息窗,询问学生是否需要重新播放该段视频,并将当前检测点标记为疑惑点。3)所述步骤3中表情识别的结果为满意时,将当前检测点标记为满意点。5、反馈信息统计和数据报表生成。具体实现方法如下I)假设有η个学生Χ「··Χη观看视频教学,播放的视频教材总时间长度为S,表情自反馈智能视频控制系统的运行周期为t,反馈情况统计时间间隔为Μ,在此时间间隔内的总
米样点δ = 。
2)对任一学生Xi (其中i = 1-n)在某个时长为M的时间段内,统计得出有个
困倦点、h个疑惑点和Ci个满意点,则在总视频长度S内,按M长度划分,可分为
权利要求
1.一种基于云计算模型和表情信息反馈的智能化视频教学系统,该系统由数据云、学生终端和教师终端3部分组成,其特征在于所述数据云部分,包括自反馈智能视频控制子系统。
2.根据权利要求I所述的基于云计算模型和表情信息反馈的智能化视频教学系统,其特征在于,所述自反馈智能视频控制子系统包含人脸检测模块、表情识别模块、反馈处理模块和统计信息模块。
3.根据权利要求2所述的自反馈智能视频控制子系统,其特征在于,所述表情识别模块,包含对困倦、疑惑和满意三个具体表情识别;其中,困倦表情的特征为(I)眼内角的上眼皮降低(2)嘴巴张大(3)双臂向头部上方伸展;疑惑表情的特征为(I)上唇抬起,下唇与上唇紧闭,推动上唇向上,嘴角下拉,唇轻微凸起(2)眉毛内角皱在一起,抬高,带动眉毛下的皮肤运动(3)伴有用手挠头或者摇头动作;满意表情特征为(1)唇角向后拉并抬高(2)嘴巴张大(3)脸颊被抬起(4)伴有点头动作。
4.根据权利要求2所述的自反馈智能视频控制子系统,其特征在于,所述表情识别模块具体实现步骤包括1)对检测到的人脸图像,使用组群特征分析方法定位眼睛、眉毛、嘴巴和下颌的位置,使用肤色检测方法判断头部以上区域内是否有手出现;2)用改进的局部梯度算子精确定位眉梢、眼角、嘴角和下颌角;3)用均值漂移算法跟踪眉毛、眼睛和嘴巴的位置;4)根据眉梢、眼角和嘴角的坐标变化判断表情变化;5)根据下颌角的位置变化判断头部动作。
5.根据权利要求2所述的自反馈智能视频控制子系统,其特征在于,所述反馈处理模块具体实现步骤包括1)表情识别的结果为困倦时,自动播放一个提醒小动画,唤醒学生,并将当前检测点标记为困倦点;2)表情识别的结果为疑惑时,自动弹出信息窗,询问学生是否需要重新播放该段视频,并将当前检测点标记为疑惑点;3)表情识别的结果为满意时,将当前检测点标记为满意点。
6.根据权利要求2所述的自反馈智能视频控制子系统,其特征在于,所述统计信息模块具体实现方法包括1)假设有η个学生χ「··χη观看视频教学,播放的视频教材总时间长度为S,表情自反馈智能视频控制系统的运行周期为t,反馈情况统计时间间隔为M,在此时间间隔内的总采样μ M点 δ =—;2)对学生Xi(其中i = 1···η)在时长为M的时间段内,统计得出有ai个困倦点、bi个疑惑点和Ci个满意点,则在总视频长度S内,按M长度划分,可分为4个时间段,表示为(其M3)在时间段6」上统计η个学生总共反馈的困倦点4 =Σα,、疑惑点和满/=1 /=12意点
全文摘要
本发明公开了一种基于云计算模型和表情信息反馈的智能化视频教学系统。该系统由数据云、学生终端和教师终端组成,其中数据云分成视频数据和自反馈智能视频控制子系统两部分。自反馈智能视频控制子系统的具体实现步骤为采集视频信号,读取学生的当前状态视频图像;人脸检测,检测当前区域内是否有人脸存在;表情识别,对学生的反馈表情进行分类识别,判断是否存在困倦、疑惑、满意的表情;反馈表情处理,针对不同的反馈表情系统产生不同的应对措施;反馈信息统计和数据报表生成,对反馈信息集中生成数据报表。本发明技术方案在云计算模型下以用户为中心,采用智能化软件平台,具有低成本、高可用性和易扩展性的优点。
文档编号G06K9/00GK102945624SQ20121045535
公开日2013年2月27日 申请日期2012年11月14日 优先权日2012年11月14日
发明者孙蔚, 王友仁, 叶崧 申请人:南京航空航天大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1