一种在视频中实时合成动画的方法和装置的制造方法_5

文档序号:9924110阅读:来源:国知局
区域或该目标区域与主摄像机之间的区域,避免遮挡合成的动画等情况。由于所述固定区域和所述虚拟区域均依据于所述3D坐标系统,故通过所述区域位置信息可以明确所述目标区域在所述固定区域和所述虚拟区域中的具体位置。
[0146]动作获取单元502,用于获取通过动作捕捉设备实时采集到的动作数据和动作坐标,所述动作坐标和所述3D坐标系统具有对应关系。
[0147]可以参考实施例一中针对图2的说明,这里不再赘述。
[0148]骨骼模型生成单元503,用于根据所述区域位置信息、动作数据和动作坐标,在所述虚拟区域的所述目标区域中生成骨骼模型。
[0149]举例说明,利用三维动画绘制工具,绘制骨骼模型。需要说明的是,骨骼模型是按照第二目标体绘制的,用来模拟第二目标体。当然,骨骼模型展示在最终绘制的目标视频中时,可以是与第二目标体等比例的,或者,也可以是不同比例的。另外,骨骼模型的外观可以是第二目标体相同,或者,也可以与第二目标体不同,如利用动物卡通形象来展现人体的动作。
[0150]例如,骨骼模型模拟第二目标体的方式,可以是根据第二目标体的可活动节点,在骨骼模型中设置相应数量的骨骼节点,每个骨骼节点用来唯一表示第二目标体的一个可活动节点。这样,在可活动节点运动时,骨骼模型的骨骼节点可相应地进行运动。由于骨骼模型是由骨骼节点构成的,确定骨骼节点的动作后,便可以获得骨骼模型的骨骼动画。需要说明的是,该一帧骨骼动画是骨骼模型的一帧动画图像。
[0151 ] 所述动作坐标和所述3D坐标系统中的坐标具有对应关系,通过一个动作坐标可以确定出该动作坐标在所述3D坐标系统中所对应的坐标值。
[0152]可选的,所述动作数据中包含若干个子动作数据,所述子动作数据具有各自的节点标识,所述节点标识用于表示被所述动作采集设备采集动作数据的动作采集目标的活动节点;所述骨骼模型生成单元,包括:
[0153]节点确定子单元,用于确定所述节点标识所对应的所述骨骼模型上的骨骼节点;
[0154]位置确定子单元,用于依据所述子动作数据和相应的动作坐标,确定所述骨骼节点在所述骨骼模型中的位置;
[0155]生成子单元,用于根据确定出的所述骨骼节点在所述骨骼模型中的位置,在所述虚拟区域的所述目标区域中生成所述骨骼模型。
[0156]骨骼动画获取单元504,用于获取所述主摄像机实时采集的所述视频的视频数据;所述服务器通过虚拟摄像机保持与所述主摄像机同步,获取所述骨骼模型在所述虚拟区域中根据所述动作数据形成的骨骼动画。
[0157]举例说明,骨骼模型生成单元503和骨骼动画获取单元504可以同时触发,也可以骨骼模型生成单元503先于骨骼动画获取单元504触发。
[0158]若骨骼模型生成单元503先于骨骼动画获取单元504触发,可以理解为先完成动作捕捉,并通过捕捉的参数建立骨骼模型。等到开始在所述固定区域现场直播时,再根据同步的虚拟摄像机采集所述骨骼动画。但是在采集的过程中需要主要时间轴的一致性,时间轴的相关特征属于成熟技术,这里就不再赘述。
[0159]例如,需要开始制作视频图像时,相关人员会在服务器上触发视频开始制作的操作,从而生成视频开始制作的指令。服务器接收到该指令后,开始接收主摄像机发送的视频数据,以及动作捕捉设备发送的动作数据。其中,主摄像机发送的视频数据,是其自身采集到的第一目标体的视频图像;动作捕捉设备发送的动作数据,是其自身捕捉到的第二目标体的动作数据。其中,第一目标体与第二目标体的动作可以是互动的。
[0160]实时合成单元505,用于将所述骨骼动画的动画数据从所述渲染引擎中提取出来,根据所述3D坐标系统在所述视频数据中实时合成所述骨骼动画的动画数据得到合成视频数据并同时实时的输出,以使得在播放所述合成视频数据时,展示的合成视频中对应所述目标区域的位置合成了所述骨骼动画。
[0161]需要注意的是,由于骨骼模型的建立和骨骼动画的采集基本上都通过所述渲染引擎完成,有效的降低了所述服务器处理器的处理压力。在进行动画合成前,所述实时合成单元505将所述渲染引擎处理得到的骨骼动画的动画数据从所述渲染引擎中提取出来,在所述服务器自身的处理器的处理下,将根据所述3D坐标系统在所述视频数据中实时合成所述骨骼动画的动画数据得到合成视频数据。具体的,在合成数据的过程中,需要考虑到所述骨骼动画和所述视频的尺寸比例等。
[0162]例如,第一目标体的视频数据是一帧视频图像,骨骼模型的一帧骨骼动画是一帧动画图像,将动画图像嵌入到视频图像中,从而生成包含骨骼动画的目标视频,具体为一帧目标视频图像。需要说明的是,本发明实施例可以是不间断多次执行的,因此,可以生成多帧目标视频图像,多帧目标视频图像则组合为目标视频。
[0163]将合成得到的合成视频数据实时输出,可以达到现场采集视频的过程中,进行直播的过程中,通过动画的实时合成,能够实时的输出合成视频数据。那么在通过电视或网络收看现场直播的所述视频时,除了可以看到在所述固定区域采集的所述视频,还可以看到在所述视频中合成的动画。提升了视觉传达能力,尤其提升了在直播中这种实时视觉传达的能力。
[0164]根据上述实施例可以看出,在确定好固定区域的3D坐标系统、所用摄像机尤其是主摄像机的位置信息和视频采集参数后,通过渲染引擎建立与所述固定区域对应的虚拟区域,所述虚拟区域中的虚拟摄像机保持与所述固定区域中的主摄像机同步,使得通过虚拟摄像机在所述虚拟区域中所采集到的区域与所述主摄像机在所述固定区域中采集到的区域能够时刻保持一致,以便能够实现实时的动画合成。在根据所述3D坐标系统确定出用于合成动画的目标区域的位置信息后,所述服务器的渲染引擎将通过动作捕捉设备采集的动作数据和动作坐标在虚拟区域中对应所述目标区域的位置建立骨骼模型,通过所述虚拟摄像机保持与所述主摄像机同步的方式获取所述骨骼模型根据所述动作数据形成的骨骼动画,所述服务器从所述渲染引擎中提取出所述骨骼动画的动画数据,根据所述3D坐标系统在所述视频数据中实时合成所述骨骼动画的动画数据得到合成视频数据,以使得在播放所述合成视频数据时,展示的合成视频中对应所述目标区域的位置合成了所述骨骼动画。通过渲染引擎自身处理器和所述服务器处理器的配合,以及虚拟摄像机与主摄像机的同步,从而实现实时的在视频中合成骨骼动画的功能,有效满足了现有的视频视觉传达需求。
[0165]实施例五
[0166]本发明实施例中,除了可以实时的在视频中合成骨骼动画外,进一步的,还可以合成面部动画,可以通过面部表情更为有效的传达表情、情绪等,增加合成动画的视觉传达效果O
[0167]在图5所对应实施例的基础上,图6为本发明实施例提供的一种在视频中实时合成动画装置的装置结构图,还包括:
[0168]面部获取单元601,用于在触发实时合成单元505之前,获取通过面部捕捉设备实时采集到的面部数据和面部坐标,所述面部坐标和所述3D坐标系统具有对应关系。
[0169]面部模型生成单元602,用于根据所述区域位置信息、面部数据和面部坐标在所述虚拟区域的所述目标区域中生成具有面部模型。
[0170]举例说明,所述面部捕捉设备可以为佩戴在人脸上的数据采集装置,通过摄像等功能,识别并输出人脸上特征点的变化,从而得到面部数据和面部坐标,所述面部坐标可以是人脸特征点的坐标值。
[0171]还需要注意的是,佩戴所述面部捕捉设备的人和佩戴所述动作捕捉设备的人可以相同,也可以不同。也就是,所述第二目标体和第三目标体可以相同,也可以不同。
[0172]举例说明,利用三维动画绘制工具,绘制面部模型。需要说明的是,面部模型是按照第三目标体(面部数据被采集者)绘制的,用来模拟第三目标体。当然,面部模型展示在最终绘制的目标视频中时,可以是与第三目标体等比例的,或者,也可以是不同比例的。另外,面部模型的外观可以是第三目标体相同,或者,也可以与第三目标体不同,如利用动物卡通形象来展现人脸的表情神态等面部动作。
[0173]例如,面部模型模拟第三目标体的方式,可以是根据第三目标体的面部特征点,在面部模型中设置相应数量的面部节点,每个面部节点用来唯一表示第三目标体的一个面部特征点。这样,在面部特征点运动时,面部模型的面部节点可相应地进行运动。由于面部模型是由面部节点构成的,确定面部节点的动作后,便可以获得面部模型的面部动画。需要说明的是,该一帧面部动画是面部模型的一帧动画图像。
[0174]所述面部坐标和所述3D坐标系统中的坐标具有对应关系,通过一个面部坐标可以确定出该面部坐标在所述3D坐标系统中所对应的坐标值。
[0175]面部动画获取单元603,用于通过虚拟摄像机保持与所述主摄像机同步,获取所述面部模型在所述虚拟区域中根据所述面部数据形成的面部动画。
[0176]例如,需要开始制作视频图像时,相关人员会在服务器上触发视频开始制作的操作,从而生成视频开始制作的指令。服务器接收到该指令后,开始接收主摄像机发送的视频数据,以及面部捕捉设备发送的面部数据。其中,主摄像机发送的视频数据,是其自身采集到的第一目标体的视频图像;面部捕捉设备发送的面部数据,是其自身捕捉到的第三目标体的动作数据。其中,第一目标体与第三目标体的面部动作可以是互动的。
[0177]所述实时合成单元505还用于将所述骨骼动画的动画数据和所述面部动画的动画数据从所述渲染引擎中提取出来,根据所述3D坐标系统在所述视频数据中实时合成所述骨骼动画的动画数据和所述面部动画的动画数据得到合成视频数据并同时实时的输出,以使得在播放所述合成视频数据时,展示的合成视频中对应所述目标区域的位置合成了所述骨骼动画和所述面部动画。
[0178]需要注意的是,由于面部模型的建立和面部动画的采集基本上都通过所述渲染引擎完成,有效的降低了所述服务器处理器的处理压力。在进行动画合成前,所述服务器将所述渲染引擎处理得到的面部动画的动画数据从所述渲染引擎中提取出来,在所述服务器自身的处理器的处理下,将根据所述3D坐标系统在所述视频数据中实时合成所述骨骼动画的动画数据得到合成视频数据。具体的,在合成数据的过程中,需要考虑到所述面部动画和所述视频的尺寸比例等。在合成数据的过程中,也需要考虑到所述面部动画和所述骨骼动画的尺寸比例等。
[0179]例如,第一目标体的视频数据是一帧视频图像,面部模型的一帧面部动画是一帧动画图像,将动画图像嵌入到视频图像中,从而生成包含面部动画的目标视频,具体为一帧目标视频图像。需要说明的是,本发明实施例可以是不间断多次执行的,因此,可以生成多帧目标视频图像,多帧目标视频图像则组合为目标视频。
[0180]将合成得到的合成视频数据实时输出,可以达到现场采集视频的过程中,进行直播的过程中,通过动画的实时合成,能够实时的输出合成视频数据。那么在通过电视或网络收看现场直播的所述视频时,除了可以看到在所述固定区域采集的所述视频,还可以看到在所述视频中合成的动画。提升了视觉传达能力,尤其提升了在直播中这种实时视觉传达的能力。
[
当前第5页1 2 3 4 5 6 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1