基于用户创作的图像的动画视频生成方法和装置的制造方法_4

文档序号:9261762阅读:来源:国知局
制该角色在运动的过程中发出“汪汪”的叫声。
[0100]S710,实时互动。
[0101]渲染端在渲染出场景及用户创作的图像对应的模型实例之后,渲染端还可以接收用户控制端的互动信息,控制与用户创作的图像对应的模型实例。
[0102]实时互动的具体流程可以包括如下步骤:
[0103]渲染端接收用户的互动指令,其中,该互动指令包括至少以下之一:语音指令,表情指令,动作指令,文字指令,特效指令,事件指令。
[0104]检测互动指令的指令类型。在指令类型是表情指令的情况下,驱动并渲染与用户相应的模型实例模仿用户的当前表情,或者,根据识别的情绪控制模型实例执行相应的动作,其中,情绪识别是根据用户的当前表情进行的;在指令类型是语音指令的情况下,控制模型实例与用户进行语音交流,或者,驱动并渲染模型实例按照语音指令执行相应的动作;在指令类型是动作指令的情况下,驱动并渲染模型实例模仿用户的当前动作,或者,驱动并渲染模型实例执行与动作指令相应的动作;在指令类型是文字指令的情况下,驱动并渲染模型实例根据文字指令进行相应的动作。
[0105]另外,在渲染端还可以设置虚拟角色,通过虚拟角色与现场观众互动。
[0106]图8是根据本发明实施例的用户控制端的处理方法的流程图,在本实施例中,将图像生成端和用户控制端集成在一起,统称为用户控制端,在其他的实施例中,图像生成端和用户控制端也可以是两个不同的设备。如图8所示,该方法包括以下步骤:
[0107]步骤S802,获取用户创作的图像。
[0108]步骤S804,声效录制。
[0109]录制用户的一段声音作为声效,声效用于在与用户对应的模型实例入场引擎场景时即在渲染端渲染出与用户创造的图像对应的模型实例时,渲染端同时播放该段声效,作为出场音,以便用户识别。
[0110]步骤S806,上传图像和声音。
[0111]将用户创作的图像和录制的声音上传到服务器,并记录用户的信息和创建时间。
[0112]步骤S808,向渲染端发送互动指令。
[0113]该互动指令包括至少以下之一:语音指令,表情指令,动作指令,文字指令,速度指令,特效指令,事件指令。其中,表情指令,用于根据检测的用户表情来控制与该用户对应的模型实例的表情运动;速度指令,用于控制与该用户对应的模型实例的运动速度。比如,在用户控制端是手机的情况下,用户运动时,可以通过感知手机陀螺仪的加速度来控制与该用户对应的模型实例的运动速度;加速、减速、停止等;轨迹指令:用于控制与该用户对应的模型实例的运动轨迹。比如,通过手机陀螺仪的感知来获取用户当前的旋转来控制与用户对应的模型实例的运动轨迹;语音指令,用于控制与该用户对应的模型实例的发出声音;事件指令,用于控制与该用户对应的模型实例或者场景响应不同的事件;特效指令,用于控制与该用户对应的模型实例的特效。模型实例不同可以具有不同的特效,比如,模型实例是海母,特效可以设置为发光;另外,还可以根据用户在场景中累计分值,具有更炫酷的特效。其中,速度指令和轨迹指令都是动作指令中的一种。
[0114]本发明实施例还提供了一种基于用户创作的图像的动画视频生成方法的流程图,图9是根据本发明优选实施例的另一种基于用户创作的图像的动画视频生成方法的流程图,如图9所示,该流程包括如下步骤:
[0115]步骤S902,图像生成端将获取的用户创作的图像发送给渲染端;
[0116]步骤S904,渲染端根据该图像确定相应的模型文件,并根据该图像和该模型文件渲染该图像对应的模型生成动画视频。
[0117]在本实施例中,不需要服务器的存在,模型文件和渲染场景所需的场景文件都保存在本地。甚至,图像生成端、控制渲染出的模式实例的用户控制端也可以集成在渲染端上。具体地渲染过程、控制过程如上实施例所述,此处不再赘述。
[0118]本发明实施例还提供了一种基于用户创作的图像的动画视频生成系统,图10是根据本发明实施例的基于用户创作的图像的动画视频生成系统的结构示意图,如图10所示,该系统包括用户控制端102,服务器104,渲染端106、模型发布端108。在本实施例中,图像生成端和用户控制端集成在一起,统称为用户控制端。
[0119]用户控制端102用于将获取的用户创作的图像上传到服务器104。
[0120]在用户控制端102获取用户创作的图像之前,用户首先需要创作自己的图像。在本实施例中,可以有很多展示端。展示端指的是渲染端106 (动画视频生成装置)所在的一端,通常也是用户创作图像所在的一端。比如,在多个商场的儿童游乐区,可以分别设置一个展示端。在该展示端,多个儿童可以分别选择自己喜欢的着色用的模板,进行着色,创作自己的绘画作品。
[0121]用户控制端102拍摄用户创作的图像之后,登录服务器104,将图像上传到服务器104上。用户控制端102除了上传图像之外,还可以上传与该图像对应的模板ID,以及其所在的渲染端106的ID,其中模板ID用于确定与该图像对应的模型文件。服务器104也可以直接通过定位获取渲染端106的ID,并通过分析上传的图像确定与该图像对应的模型文件。在这种情况下,用户控制端102可以仅上传用户创作的图像。
[0122]用户控制端102还可以在渲染端106生成动画视频后向渲染端106发送互动指令。
[0123]该互动指令包括至少以下之一:语音指令,表情指令,动作指令,文字指令,速度指令。其中,表情指令,用于根据检测的用户表情来控制与该用户对应的模型实例的表情运动;速度指令,用于控制与该用户对应的模型实例的运动速度。比如,在用户控制端102是手机的情况下,用户运动时,可以通过感知手机陀螺仪的加速度来控制与该用户对应的模型实例的运动速度;加速、减速、停止等;轨迹指令:用于控制与该用户对应的模型实例的运动轨迹。比如,通过手机陀螺仪的感知来获取用户当前的旋转来控制与用户对应的模型实例的运动轨迹;语音指令,用于控制与该用户对应的模型实例的发出声音;事件指令,用于控制与该用户对应的模型实例或者场景响应不同的事件;特效指令,用于控制与该用户对应的模型实例的特效。模型实例不同可以具有不同的特效,比如,模型实例是海母,特效可以设置为发光;另外,还可以根据用户在场景中累计分值,具有更炫酷的特效。其中,速度指令和轨迹指令都是动作指令中的一种。
[0124]服务器104关联保存用户控制端102上传的图像。
[0125]服务器104上存储有很多模型文件。这些模型文件来自于模型发布端108。模型发布端108将预先制作的模型文件按照特定的格式要求打包,并输入相关的信息,指定可以下载使用的渲染端106。服务器104可以定时从模型发布端108下载模型文件,也可以接收模型发布端108推送的模型文件,从而更新本地的模型文件。服务器104上同时也存储有很多场景模型文件,场景模型文件也是从模型发布端108获取的。
[0126]服务器104接收到上传的图像之后,将其与模型文件进行关联。比如,根据与该图像对应的模板ID在多个模型文件中查找到与该图像对应的模型文件,并将该图像与所查找到的模型文件、及渲染端ID关联并保存起来。
[0127]服务器104在接收到渲染端106的获取图像请求后,查找对应于该渲染端106的至少一个图像,及与图像对应的模型文件,并将查找到的图像和模型文件发送给渲染端106。当然,服务器104也可以同时将场景模型文件发送给渲染端106。
[0128]渲染端106与服务器104连接,向服务器104发送鉴权认证。只有在通过服务器104认证的情况下,渲染端106才有权限获取图像和模型文件。
[0129]在通过认证之后,植染端106会根据当前选定的场景模式,下载其对应的场景模型文件、模型文件及用户创作的图像。在另一个实施例中,
当前第4页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1