一种网络视频秀方法及系统的制作方法

文档序号:6563233阅读:211来源:国知局
专利名称:一种网络视频秀方法及系统的制作方法
技术领域
本发明涉及网络视频领域,特别是涉及一种网络视频秀方法及系统背景技术最初,在网络传输数据和处理数据的能力较低的情况下,人们在网上只能进行文字交流。用户在网络即时通讯工具上输入文字交流信息,网络即时通讯工具将该文字交流信息转换为相应的代码信息传送至交流另一方用户,并解码转换为原文字交流信息显示。文字交流虽可以表达双方的意思,但较单调,体验感较差。
随着网络传输数据和处理数据的能力的增强,人们可以在网上进行语音交流。在电脑主机上设置录音设备,获取用户语音交流信息,网络即时通讯工具将该语音交流信息处理成为相应的代码信息,传送至交流另一方用户,再解码转换为原语音交流信息,通过播音设备播放出来,另一方用户就可以收听到该语音交流信息。语音交流虽较方便、简单,但不够形象,且体验感不够好。
目前,网络技术的发展,使网络传输数据和处理数据的能力大幅提升,人们可以在网上增设一摄像设备,同时获取用户语音交流信息和视频图像信息,网络即时通讯工具将该语音交流信息和视频图像信息处理成相应的代码信息,传送至交流另一方用户,通过解码技术还原语音交流信息和视频图像信息,再通过播音设备播放语音信息,在网络即时通信工具的显示区域显示该视频图像。这样,交流双方可以直接观看到对方的视频图像,听到对方的声音,还可以结合文字交流信息,进行网络视频交流。网络视频交流的交流信息内容非常丰富,且动感、形象。
但是,现有的网络视频模式却非常单一,如图1所示,为现有的视频交流显示窗口示意图,该视频交流显示窗口10只是由简单的文字显示区域11、文字输入区域12和视频图像显示区域13组成。其中,视频图像显示区域13只能简单显示用户的视频图像。经常在网上进行视频交流的年轻人,很希望在网络视频交流时,可以有更多展现个性的机会,但现有的视频交流模式趣味性和个性化不足,难以满足这些要求。

发明内容
本发明所要解决的技术问题是提供一种网络视频秀方法及系统,增强网络视频的趣味性和个性化,提高用户的体验感。
本发明一种网络视频秀方法,包括选取预置的视频秀节目;获取用户视频图像;将所述视频图像与所述视频秀节目叠加显示。
优选的,按下述步骤,将所述视频图像与所述视频秀节目叠加显示检测所述视频图像中的人脸区域;跟踪所述人脸区域的移动;根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像;将调整后视频图像叠加在调整后视频秀节目的镂空区,使所述人脸区域完整显示。
优选的,按下述步骤,检测所述视频图像中的人脸区域利用预设的人脸检测算法对视频图像进行检测分析,直至获得所述人脸区域的大小和位置。
优选的,按下述步骤,跟踪所述人脸区域的移动;根据所述人脸区域设置搜索窗的大小和位置;在视频图像当前帧中计算所述搜索窗的颜色直方图;计算所述搜索窗的颜色概率分布图;结合目标人脸区域中心与所述搜索窗的颜色概率分布图,运用预设的跟踪算法计算视频图像当前帧所述人脸区域中心。
优选的,所述预设的跟踪算法为结合所述目标人脸区域中心和所述搜索窗的颜色概率分布图计算目标人脸区域聚类中心;依据目标人脸区域聚类中心设置新的目标人脸区域;如新的目标人脸区域和聚类中心重合,得到视频图像当前帧所述人脸区域中心、用户人脸与摄像设备的距离、及摄像设备相对于用户人脸的旋转度;如不重合,重新计算目标人脸区域聚类中心。
优选的,还包括视频图像当前帧所述人脸区域中心作为视频图像下一帧的目标人脸区域中心;根据目标人脸区域中心的变化调整所述搜索窗的大小和位置。
优选的,根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像为根据视频图像当前帧所述人脸区域的大小,调整所述视频秀节目的区域大小,使所述视频秀节目的镂空区与所述视频图像大小相适应;根据视频图像当前帧所述人脸区域的位置,调整所述视频图像位置,使所述人脸区域完整显示。
优选的,根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像为根据检测得到视频图像当前帧人脸区域的大小和位置,调整视频秀节目上的镂空区的位置和大小,及视频秀节目上各对象的位置,使所述视频图像中人脸区域完整显示。
优选的,所述视频秀节目上设有文字、图像与/或动画,中部设有镂空区。
本发明一种网络视频秀系统,包括获取单元,用于选取预置的视频秀节目及获取用户视频图像;合成单元,用于将所述视频图像与所述视频秀节目叠加显示。
优选的,所述调整单元包括检测单元,用于检测所述视频图像中的人脸区域;跟踪单元,用于跟踪所述人脸区域的移动;调整单元,用于根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像,将调整后视频图像叠加在调整后视频秀节目的镂空区,使所述人脸区域完整显示。
与现有技术相比,本发明具有以下优点本发明将视频秀节目与视频图像叠加显示,用户可以选择不同的视频秀节目展示个性,增强网络视频的趣味性和个性化。
优选的,本发明检测视频图像中的人脸区域,跟踪人脸区域的移动,根据视频图像当前帧人脸区域的大小和位置,调整视频秀节目和视频图像位置,使人脸区域与视频秀节目镂空区重叠。有效的防止视频秀节目中内容遮挡住视频图像中人脸部分,提高用户的体验感。


图1为现有的视频交流显示窗口示意图;图2为本发明网络视频秀方法实施例流程图;图3为本发明视频图像与视频秀节目叠加示意图;图4为本发明视频秀调整方法实施例流程图;图5为本发明网络视频秀系统实施例示意图。
具体实施例方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式
对本发明作进一步详细的说明。
本发明的核心思想是将视频秀节目与视频图像叠加显示,用户可以选择不同的视频秀节目展示个性,增强网络视频的趣味性和个性化。
本发明预置大量的视频秀节目,视频秀节目通过表面设置的文字、图像和动画等表现出一定意境和特色。如标兵视频秀节目,其上设有毛主席像章、语录,并印有标兵字样,表现出很强的进取心;动感视频秀节目,其上设有不同颜色的灯光、大型音箱图样等,表现很强的动感;静逸视频秀节目,其上设有平缓的小山,清澈的溪水图样等,表现出清净、安逸的境界。视频秀节目的大小与网络交流工具的显示区域大小相当,并且中部设有一定大小的镂空区,用于叠加用户视频图像。
用户根据自己的个性、喜好选择视频秀节目,选中的视频秀节目被放置在网络交流工具的显示区域。用户的视频图像被叠加在视频秀节目的镂空区,这样,将用户的视频图像与视频秀节目结合再一起显示,组成网络视频秀。网络交流工具可将网络视频秀传送至交流对方用户处显示,增强网络视频的趣味性和个性化,满足年轻人展示个性的需求。
请参阅图2,为本发明网络视频秀方法实施例流程图,具体步骤如下步骤201、选取预置的视频秀节目;在预置的视频秀节目库中选取最能表现自己个性的视频秀节目,选取的视频秀节目被放置在交流工具显示区域。
步骤202、获取用户视频图像;借助摄像头的设备获取用户视频图像,该视频图像需要在网络交流工具的显示区域进行显示,一般较小,视频图像是以用户的脸部图像为主。
步骤203、将视频图像与视频秀节目叠加显示,组成网络视频秀。
将视频图像与视频秀节目进行叠加。如图3所示,为本发明视频图像与视频秀节目叠加示意图,视频秀节目31中间设有镂空区311,视频图像32叠加在镂空区311上,组成网络视频秀,在网络交流工具的显示区域进行显示。
视频图像以表现用户的脸部特征为主,为防止视频秀节目的图片遮挡住视频图像的脸部,保证视频图像的脸部正好被放置在视频秀节目镂空区中间,本发明对视频图像进行人脸区域检测,并追踪人脸区域的移动,根据视频图像当前帧人脸区域的大小和位置调整视频秀节目的大小,及视频图片的位置,保证将用户脸部被放置在视频秀节目的镂空区正中。
人脸区域检测是指在输入的视频图像中确定人脸的位置、大小、位姿的过程。人脸图像所包含的模式特征十分丰富,主要有颜色特征(肤色、发色等)、轮廓特征、直方图特征、镶嵌图特征、结构特征、变换域特征、模板特征及启发式特征等。人脸模式还具有复杂而细致的变化,因此一般采用多种模式特征综合运用的方法,来进行人脸区域的检测。如将多种模式特征进行简单组合,通过统计推断,模糊决策完成人脸区域检测,还可以通过机器学习,提高人脸检测的准确率。
本发明较优选的检测方法是利用人脸的颜色特征和轮廓特征进行人脸区域检测,这样可以快速的进行人脸检测,提高检测效率。
人脸跟踪是在人脸检测的基础上对于视频序列中人脸区域运动位置的跟踪。本发明人脸跟踪技术可采用基于运动(Motion-based)的方法,利用运动分割、光流、立体视觉等方法,再结合时空梯度、卡尔曼滤波器等方式跟踪人脸区域运动,确定人脸区域移动位置。也可采用基于模型(Model-based)的方法,首先获取目标的先验知识,构造目标模型,对输入的每一帧图像通过滑动窗口进行模型匹配。也可将上述两种方法结合使用。
本发明根据检测得到视频图像当前帧人脸区域的大小,可对视频秀节目进行放大或缩小调整,使视频秀节目的镂空区与视频图像大小相适应。缩小的比例有一定的限制,要保证缩小后的视频秀节目不小于原视频图像的大小。如放大调整后视频秀节目超过网络交流工具的显示区域,视频秀节目超出部分将被裁剪。
本发明也可根据检测得到视频图像当前帧人脸区域的大小和位置,调整视频秀节目上的镂空区的位置和大小,及视频秀节目上各对象的位置。使视频秀节目的镂空区与视频图像大小相适应,并保证人脸区域不被其它对象所遮挡。
同时,本发明根据视频图像当前帧人脸区域的位置,调整视频图像位置,再将调整后的视频图像和视频秀节目进行叠加显示,确保人脸图像完整的显示出来,不被遮挡。
参阅图4,为本发明视频秀调整方法实施例流程图,具体步骤如下步骤401、依据预设的人脸检测算法检测人脸区域大小及位置;采用基于AdaBoost(Adaptive Boosting)的人脸检测算法,对视频图像色彩进行检测分析,即可得到人脸区域的大小和位置。本发明主要检测视频图像中最大或最显著位置处的人脸肤色特征。如果视频图像中人脸过小,则将视频图像放大后再进行检测。在检测过程中,如果在视频图像首帧没有检测到人脸区域,则继续检测下一帧,直到检测出人脸区域。
AdaBoost人脸检测算法根据弱学习的反馈能够适应性地调整数据处理的失误率,提高数据处理的精确性。
步骤402、依据人脸区域的大小和位置设置搜索窗的大小和位置搜索窗用于确定人脸的区域和位置,搜索窗范围略大于人脸区域,将人脸区域圈在其范围之内。人脸区域的跟踪只是跟踪搜索窗范围内的人脸的移动,减少人脸区域跟踪计算时数据的处理量。搜索窗的大小和位置随着步骤404中目标人脸区域中心的调整而做相应调整。
步骤403、依据人脸区域的大小和位置,通过坐标确定目标人脸区域中心;目标人脸区域中心为视频图像前一帧人脸区域中心位置,根据步骤407输出的视频图像当前帧人脸区域中心进行实时更新;视频图像当前帧所述人脸区域中心作为视频图像下一帧的目标人脸区域中心;步骤404、根据搜索窗的大小和位置,在视频图像当前帧计算得到搜索窗的颜色直方图;步骤405、计算获得搜索窗的颜色概率分布图;步骤406、采用预设的跟踪算法计算人脸区域中心位置,以及摄像头与用户面部的距离和旋转度。
人脸跟踪算法可采用连续自适应平均偏移跟踪算法(CAMShift),CAMShift算法是一种基于颜色概率分布的跟踪算法,该算法对人脸区域的移动跟踪快速且有效,适合实时应用。
根据视频图像上一帧目标人脸区域中心和搜索窗的颜色概率分布图,利用CAMShift算法计算上一帧目标人脸区域的聚类中心,再依据聚类中心设置新的目标人脸区域,如果新的目标人脸区域和上述聚类中心不重合,则重新计算上一帧的目标人脸区域的聚类中心;如果新的目标人脸区域和上述聚类中心重合,则得出视频图像当前帧人脸区域中心位置,以及摄像头与用户面部的距离和旋转度。
步骤407、根据视频图像当前帧人脸区域的大小,调整视频秀节目的区域大小;步骤408、根据视频图像当前帧人脸区域的位置,调整视频图像位置;步骤409、将视频图像与视频秀节目重叠,人脸区域完整显示。
参阅图5,为本发明网络视频秀系统实施例示意图,包括获取单元51和合成单元52,其中合成单元52包括检测单元521、跟踪单元522和调整单元523。
获取单元51预置大量的视频秀节目,视频秀节目通过表面设置的文字、图像和动画等表现出一定意境和特色。视频秀节目的大小与网络交流工具的显示区域大小相当,并且中部设有一定大小的镂空区,用于叠加用户视频图像。获取单元51根据用户的个性、喜好选择视频秀节目,获取单元51将选中的视频秀节目被放置在网络交流工具的显示区域。
获取单元51通过摄像设备等工具获取用户视频图像。获取单元51将视频图像和视频秀节目传送至合成单元52。
合成单元52将视频图像叠加在视频秀节目的镂空区,组成网络视频秀。
视频图像以表现用户的脸部特征为主,为防止视频秀节目的图片遮挡住视频图像的脸部,保证视频图像的脸部正好被放置在视频秀节目镂空区中间,合成单元52对视频图像进行人脸区域检测,并追踪人脸区域的移动,根据视频图像当前帧人脸区域的大小和位置调整视频秀节目的大小,及视频图片的位置,保证将用户脸部被放置在视频秀节目的镂空区正中。
检测单元521在输入的视频图像中确定人脸的位置、大小、位姿。检测单元521利用人脸的颜色特征和轮廓特征进行人脸区域检测,这样可以快速的进行人脸检测,提高检测效率。检测单元521将检测到的人脸区域的大小、位置数据传送至跟踪单元522。
跟踪单元522在人脸检测的基础上对于视频序列中人脸区域运动位置的跟踪。跟踪单元522可采用基于运动(Motion-based)的方法,利用运动分割、光流、立体视觉等方法,再结合时空梯度、卡尔曼滤波器等方式跟踪人脸区域运动,确定人脸区域移动位置。跟踪单元522也可采用基于模型(Model-based)的方法,首先获取目标的先验知识,构造目标模型,对输入的每一帧图像通过滑动窗口进行模型匹配。也可将上述两种方法结合使用。跟踪单元522将跟踪得到的视频图像当前帧人脸区域的大小和位置发送至调整单元523。
调整单元523根据检测得到视频图像当前帧人脸区域的大小,对视频秀节目进行放大或缩小调整,使视频秀节目的镂空区与视频图像大小相适应。缩小的比例有一定的限制,要保证缩小后的视频秀节目不小于原视频图像的大小。如放大调整后视频秀节目超过网络交流工具的显示区域,视频秀节目超出部分将被裁剪。
调整单元523也可根据检测得到视频图像当前帧人脸区域的大小和位置,调整视频秀节目上的镂空区的位置和大小,及视频秀节目上各对象的位置。使视频秀节目的镂空区与视频图像大小相适应,并保证人脸区域不被其它对象所遮挡。
同时,调整单元523根据视频图像当前帧人脸区域的位置,调整视频图像位置,再将调整后的视频图像和视频秀节目进行叠加显示,确保人脸图像完整的显示出来,不被遮挡。
以上对本发明所提供的一种视频秀方法及系统,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式
及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
权利要求
1.一种网络视频秀方法,其特征在于,包括选取预置的视频秀节目;获取用户视频图像;将所述视频图像与所述视频秀节目叠加显示。
2.根据权利要求1所述的方法,其特征在于,按下述步骤,将所述视频图像与所述视频秀节目叠加显示检测所述视频图像中的人脸区域;跟踪所述人脸区域的移动;根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像;将调整后视频图像叠加在调整后视频秀节目的镂空区,使所述人脸区域完整显示。
3.根据权利要求2所述的方法,其特征在于,按下述步骤,检测所述视频图像中的人脸区域利用预设的人脸检测算法对视频图像进行检测分析,直至获得所述人脸区域的大小和位置。
4.根据权利要求2所述的方法,其特征在于,按下述步骤,跟踪所述人脸区域的移动;根据所述人脸区域设置搜索窗的大小和位置;在视频图像当前帧中计算所述搜索窗的颜色直方图;计算所述搜索窗的颜色概率分布图;结合目标人脸区域中心与所述搜索窗的颜色概率分布图,运用预设的跟踪算法计算视频图像当前帧所述人脸区域中心。
5.根据权利要求4所述的方法,其特征在于,所述预设的跟踪算法为结合所述目标人脸区域中心和所述搜索窗的颜色概率分布图计算目标人脸区域聚类中心;依据目标人脸区域聚类中心设置新的目标人脸区域;如新的目标人脸区域和聚类中心重合,得到视频图像当前帧所述人脸区域中心、用户人脸与摄像设备的距离、及摄像设备相对于用户人脸的旋转度;如不重合,重新计算目标人脸区域聚类中心。
6.根据权利要求4所述的方法,其特征在于,还包括视频图像当前帧所述人脸区域中心作为视频图像下一帧的目标人脸区域中心;根据目标人脸区域中心的变化调整所述搜索窗的大小和位置。
7.根据权利要求2所述的方法,其特征在于,根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像为根据视频图像当前帧所述人脸区域的大小,调整所述视频秀节目的区域大小,使所述视频秀节目的镂空区与所述视频图像大小相适应;根据视频图像当前帧所述人脸区域的位置,调整所述视频图像位置,使所述人脸区域完整显示。
8.根据权利要求2所述的方法,其特征在于,根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像为根据检测得到视频图像当前帧人脸区域的大小和位置,调整视频秀节目上的镂空区的位置和大小,及视频秀节目上各对象的位置,使所述视频图像中人脸区域完整显示。
9.根据权利要求1至8任一项所述的方法,其特征在于,所述视频秀节目上设有文字、图像与/或动画,中部设有镂空区。
10.一种网络视频秀系统,其特征在于,包括获取单元,用于选取预置的视频秀节目及获取用户视频图像;合成单元,用于将所述视频图像与所述视频秀节目叠加显示。
11.根据权利要求10所述的系统,其特征在于,所述调整单元包括检测单元,用于检测所述视频图像中的人脸区域;跟踪单元,用于跟踪所述人脸区域的移动;调整单元,用于根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像,将调整后视频图像叠加在调整后视频秀节目的镂空区,使所述人脸区域完整显示。
全文摘要
本发明公开了一种网络视频秀方法,包括选取预置的视频秀节目;获取用户视频图像;将所述视频图像与所述视频秀节目叠加显示。为保证视频图像中人脸区域能够完整显示,本发明检测所述视频图像中的人脸区域,跟踪所述人脸区域的移动;根据视频图像当前帧所述人脸区域的大小和位置,调整所述视频秀节目和所述视频图像;将调整后视频图像叠加在调整后视频秀节目的镂空区,使所述人脸区域完整显示。本发明还公开一种网络视频秀系统。本发明增强网络视频的趣味性和个性化,提高用户的体验感。
文档编号G06K9/00GK101068314SQ200610152460
公开日2007年11月7日 申请日期2006年9月29日 优先权日2006年9月29日
发明者李世平 申请人:腾讯科技(深圳)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1