基于用户创作的图像的动画视频生成方法和装置的制造方法_5

文档序号:9261762阅读:来源:国知局
渲染端106自身也可以保存模型文件和场景模型文件,而不必要在下载图像的同时下载模型文件和场景模型文件,这样,可以缩短下载时间,从而提高用户体验。
[0130]渲染端106根据场景模型文件进行场景渲染,同时,渲染端106根据用户创作的图像及其对应的模型文件,驱动并渲染该图像对应的模型,将用户上传的图像素材转换成对应的3D模型,实现模型的动态效果。
[0131]具体地说,渲染端106可以根据场景模型文件渲染场景。比如,如果场景模式是海洋模式,那么渲染出的可能是蓝色的海洋,海洋上方是白色的云朵,还有金色的太阳。同时,渲染端106还要解析用户创作的图像,获取图像的颜色数据,并根据颜色数据和模型文件中定义的驱动数据驱动并渲染模型文件中的模型。比如,用户画的如果是一条棕色的带有白帆的小船,那么将用户创作的图像截取下来,贴到模型文件中的相应的小船模型上,并根据驱动数据驱动并渲染模型文件中的模型。这样得到的便是一个颜色和纹理都与用户创作的图像对应的一个模型实例。模型文件中的驱动数据可以驱动模型实例做肢体运动,比如帆随风飘动。渲染端106还可以从场景模式文件中获取对应于模型的运动数据,该运动数据用于定义所述模型实例在所述场景中的运动轨迹和/或运动速度。
[0132]渲染端106在渲染出场景及用户创作的图像对应的模型实例之后,渲染端106还可以接收用户控制端102的互动指令,控制与用户创作的图像对应的模型实例。该互动指令包括至少以下之一:语音指令,表情指令,动作指令,文字指令,特效指令,事件指令。渲染端106检测互动指令的指令类型。在指令类型是表情指令的情况下,驱动并渲染与用户相应的模型实例模仿用户的当前表情,或者,根据识别的情绪控制模型实例执行相应的动作,其中,情绪识别是根据用户的当前表情进行的;在指令类型是语音指令的情况下,控制模型实例与用户进行语音交流,或者,驱动并渲染模型实例按照语音指令执行相应的动作;在指令类型是动作指令的情况下,驱动并渲染模型实例模仿用户的当前动作,或者,驱动并渲染模型实例执行与动作指令相应的动作;在指令类型是文字指令的情况下,驱动并渲染模型实例根据文字指令进行相应的动作。
[0133]本实施例具有以下有益效果:相关技术中,没有这种将儿童绘画内容直接动态化显示的方法,以及将各种互动与儿童创意和自我创建世界结合的方法和实现,本发明实现了这种创意,提高了用户体验。
[0134]显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
[0135]以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
【主权项】
1.一种基于用户创作的图像的动画视频生成方法,其特征在于,包括: 获取用户创作的图像及与所述图像对应的模型文件; 根据所述模型文件和所述图像驱动并渲染所述模型文件中定义的模型,生成与所述图像对应的动画视频。2.根据权利要求1所述的方法,其特征在于,根据所述模型文件和所述图像驱动并渲染所述模型文件中定义的所述模型包括: 解析所述图像获取所述图像的颜色数据; 根据所述颜色数据和所述驱动数据驱动并渲染所述模型,生成与所述模型对应的模型实例。3.根据权利要求2所述的方法,其特征在于,根据所述模型文件和所述图像驱动并渲染所述模型文件中定义的所述模型之前或同时,所述方法还包括: 获取预先选择的场景模式及与所述场景模式对应的场景模型文件; 根据所述场景模型文件驱动并渲染与所述图像对应的场景。4.根据权利要求3所述的方法,其特征在于,所述场景模型文件中还包括对应于所述模型的运动数据,所述运动轨迹数据用于定义所述模型实例在所述场景中的运动轨迹和/或运动速度。5.根据权利要求2所述的方法,其特征在于,根据所述模型文件和所述图像驱动并渲染所述模型文件中定义的所述模型,生成与所述图像对应的动画视频之后,所述方法还包括:实时播放所述动画视频,并播放所述用户预先录制的与所述图像对应的出场音,其中,所述出场音用于供所述用户识别与所述用户创作的图像对应的所述模型实例。6.根据权利要求1至5中任一项所述的方法,其特征在于,生成与所述图像对应的动画视频之后,所述方法还包括: 接收所述用户的互动指令; 根据所述互动指令控制所述动画视频中的模型实例,其中,所述模型实例是与所述图像对应的所述模型被驱动并渲染后生成的虚拟对象。7.根据权利要求6所述的方法,其特征在于,根据所述互动指令控制所述动画视频中的所述模型实例包括以下至少之一: 在所述互动指令是表情指令的情况下,控制所述模型实例模仿所述用户的当前表情,或者,根据识别的情绪控制所述模型实例执行相应的动作,其中,所述情绪根据所述用户的表情识别; 在所述互动指令是语音指令的情况下,控制所述模型实例与所述用户进行语音交流,或者,驱动并渲染所述模型实例按照所述语音指令执行相应的动作; 在所述互动指令是动作指令的情况下,控制所述模型实例模仿所述用户的当前动作,或者,驱动并渲染所述模型实例执行与所述动作指令相应的动作; 在所述互动指令是文字指令的情况下,控制所述模型实例根据所述文字指令进行相应的动作; 在所述互动指令是事件指令的情况下,控制所述模型实例或场景响应相应的事件; 在所述互动指令是特效指令的情况下,控制所述模型实例的特效。8.根据权利要求1至7中任一项所述的方法,其特征在于,将所述动画视频投影到全息设备上。9.一种基于用户创作的图像的动画视频生成装置,其特征在于,包括: 获取模块,用于获取用户创作的图像及与所述图像对应的模型文件; 图像渲染模块,用于根据所述模型文件和所述图像驱动并渲染所述模型文件中定义的模型,生成与所述图像对应的动画视频。10.根据权利要求9所述的动画视频生成装置,其特征在于,所述图像渲染模块包括: 纹理动态更新模块,用于解析所述图像获取所述图像的颜色数据; 渲染模块,用于根据所述颜色数据和所述驱动数据驱动并渲染所述模型,生成与所述模型对应的模型实例。11.根据权利要求10所述的动画视频生成装置,其特征在于,所述图像渲染模块还包括: 场景获取模块,用于获取预先选择的场景模式及与所述场景模式对应的场景模型文件; 场景渲染模块,用于根据所述场景模型文件驱动并渲染与所述图像对应的场景。12.根据权利要求9至11中任一项所述的动画视频生成装置,其特征在于,所述图像渲染模块还包括: 接收模块,用于接收所述用户的互动指令; 控制模块,用于根据所述互动指令控制所述动画视频中的模型实例,其中,所述模型实例是与所述图像对应的所述模型被驱动并渲染后生成的虚拟对象。
【专利摘要】本发明提供了一种基于用户创作的图像的动画视频生成方法和装置,该方法包括获取用户创作的图像及与所述图像对应的模型文件;根据模型文件和图像驱动并渲染模型文件中定义的模型,生成与该图像对应的动画视频。通过本发明,解决了相关技术中用户创作的图像无法在虚拟场景中动起来的问题,进而达到了提高用户体验的效果。
【IPC分类】G06T13/40
【公开号】CN104978758
【申请号】CN201510420160
【发明人】张青辉
【申请人】世优(北京)科技有限公司
【公开日】2015年10月14日
【申请日】2015年7月16日
当前第5页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1