用于虚拟动画人物动作的数据处理方法及装置与流程

文档序号:17225391发布日期:2019-03-27 12:33阅读:807来源:国知局
用于虚拟动画人物动作的数据处理方法及装置与流程

本申请涉及计算机视觉领域,具体而言,涉及一种用于虚拟动画人物动作的数据处理方法及装置。



背景技术:

人体姿态估计是在图像或视频中检测人物的计算机视觉技术,比如,可以估计待测图像中人物身体关键关节的位置。

发明人发现,通常在实现让动画虚拟人物跟随目标真实人物做相应动作时,由于采用人体姿态估计进行预处理时,获得的关键关节位置处理效果较差,进一步影响执行相应动作的执行效果。

针对相关技术中对于虚拟人物动作的处理效果较差的问题,目前尚未提出有效的解决方案。



技术实现要素:

本申请的主要目的在于提供一种用于虚拟动画人物动作的数据处理方法及装置,以解决对于虚拟人物动作的处理效果较差的问题。

为了实现上述目的,根据本申请的一个方面,提供了一种用于虚拟动画人物动作的数据处理方法。

根据本申请的用于虚拟动画人物动作的数据处理方法包括:获取视频图像数据中人体骨骼二维图像关键点;将所述人体骨骼二维图像关键点转化为人体骨骼三维图像关键点;确定所述视频图像数据中的深度估计数据;通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据;以及根据预设动画模型和所述预设运动数据生成视频动画数据。

进一步地,获取视频图像数据中人体骨骼二维图像关键点包括:配置用于二维图像关键点检测的第一预设模型;将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点;所述配置用于二维图像关键点检测的第一预设模型包括:配置已经过训练的openpose模型;所述将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点包括:将获取的视频输入所述openpose模型,输出人体骨骼二维图像关键点。

进一步地,将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点包括:配置用于三维图像关键点检测的第二预设模型;将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点;所述配置用于三维图像关键点检测的第二预设模型包括:配置3d-pose-baseline模型;所述将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点包括:将openpose模型的输出结果输入所述3d-pose-baseline模型,通过保留对应关节、舍去多余关节或对缺失关节平滑处理后输出转化结果得到三维图像中的人体骨骼关键点。

进一步地,通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据包括:配置用于单目图像深度估计的第三预设模型;将获取的视频数据再次输入所述第三预设模型,生成按照人体预设位置为中心的深度估计数据;配置用于单目图像深度估计的第三预设模型包括:配置fcrn-depthprediction模型;将获取的视频数据再次输入所述第三预设模型,生成按照人体预设位置为中心的深度估计数据包括:将获取的视频数据再次输入fcrn-depthprediction模型,生成按照预设人体臀部位置为中心的深度估计数据。

进一步地,根据预设动画模型和所述预设运动数据生成视频动画数据包括:将所述深度估计数据整合到所述三维图像中的人体骨骼关键点上;根据包含有所述深度估计数据的三维图像人体骨骼关键点生成可视化动作数据,得到含有虚拟动画人物模型的视频图像;将所述深度估计数据整合到所述三维图像中的人体骨骼关键点上包括:将深度估计数据按照预设空间坐标轴的方向整合到所述三维图像中的人体骨骼关键点。

为了实现上述目的,根据本申请的另一方面,提供了一种用于虚拟动画人物动作的数据处理装置。

根据本申请的用于虚拟动画人物动作的数据处理装置包括:获取模块,用于获取视频图像数据中人体骨骼二维图像关键点;转化模块,用于将所述人体骨骼二维图像关键点转化为人体骨骼三维图像关键点;深度估计模块,用于确定所述视频图像数据中的深度估计数据;运动数据模块,用于通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据;以及生成模块,用于根据预设动画模型和所述预设运动数据生成视频动画数据。

进一步地,所述获取模块包括:第一配置单元,第一获取单元,所述第一配置单元,用于配置用于二维图像关键点检测的第一预设模型;所述第一获取单元,用于将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点;其中,所述第一配置单元,用于配置已经过训练的openpose模型;所述第一获取单元,用于将获取的视频输入所述openpose模型,输出人体骨骼二维图像关键点。

进一步地,所述转化模块包括:第二配置单元,第二获取单元,所述第二配置单元,用于配置用于三维图像关键点检测的第二预设模型;所述第二获取单元,用于将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点;其中,所述第二配置单元,用于配置3d-pose-baseline模型;所述第二获取单元,用于将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点包括:将openpose模型的输出结果输入所述3d-pose-baseline模型,通过保留对应关节、舍去多余关节或对缺失关节平滑处理后输出转化结果得到三维图像中的人体骨骼关键点。

进一步地,所述深度估计模块包括:第三配置单元,第三获取单元,所述第三配置单元,用于配置用于单目图像深度估计的第三预设模型;所述第三获取单元,用于将获取的视频数据再次输入所述第三预设模型,生成按照人体预设位置为中心的深度估计数据;其中,所述第三配置单元,用于配置fcrn-depthprediction模型;所述第三获取单元,用于将获取的视频数据再次输入fcrn-depthprediction模型,生成按照预设人体臀部位置为中心的深度估计数据。

进一步地,所述生成模块包括:整合单元,可视化单元,所述整合单元,用于将所述深度估计数据整合到所述三维图像中的人体骨骼关键点上;所述视化单元,用于根据包含有所述深度估计数据的三维图像人体骨骼关键点生成可视化动作数据,得到含有虚拟动画人物模型的视频图像;其中,所述整合单元,用于将深度估计数据按照预设空间坐标轴的方向整合到所述三维图像中的人体骨骼关键点。

在本申请实施例中,采用获取视频图像数据中人体骨骼二维图像关键点的方式,通过将所述人体骨骼二维图像关键点转化为人体骨骼三维图像关键点和确定所述视频图像数据中的深度估计数据;达到了通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据的目的,从而实现了根据预设动画模型和所述预设运动数据生成视频动画数据的技术效果,进而解决了对于虚拟人物动作的处理效果较差的技术问题。本申请采用二维人体姿态评估、三维姿态评估以及图片深度预测等计算机视觉技术,并与mmd模型修改器pmxeditor和虚拟动画软件mikumikudance相结合,结果可生成虚拟人物动作仿真视频。

附图说明

构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:

图1是根据本申请第一实施例的用于虚拟人物动作的数据处理方法示意图;

图2是根据本申请第二实施例的用于虚拟人物动作的数据处理方法示意图;

图3是根据本申请第三实施例的用于虚拟人物动作的数据处理方法示意图;

图4是根据本申请第四实施例的用于虚拟人物动作的数据处理方法示意图;

图5是根据本申请第五实施例的用于虚拟人物动作的数据处理方法示意图;

图6是根据本申请第一实施例的用于虚拟人物动作的数据处理装置示意图;

图7是根据本申请第二实施例的用于虚拟人物动作的数据处理装置示意图;

图8是根据本申请第三实施例的用于虚拟人物动作的数据处理装置示意图;

图9是根据本申请第四实施例的用于虚拟人物动作的数据处理装置示意图;

图10是根据本申请第五实施例的用于虚拟人物动作的数据处理装置示意图;

图11是根据本申请实施例的三维人体骨骼关键点示意图;

图12是根据本申请实施例的深度估计数据示意图;

图13是根据本申请实施例的预先选定的动画人物示意图;

图14是根据本申请实施例的虚拟动画人物各关键点位置示意图;

具体实施方式

为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。

需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。

如图1所示,该方法包括如下的步骤s102至步骤s108:

步骤s102,获取视频图像数据中人体骨骼二维图像关键点;

通过相关技术,可以检测到的人体骨骼结构生成二维人体模型。

步骤s104,将所述人体骨骼二维图像关键点转化为人体骨骼三维图像关键点;

通过将二维人体模型输入到预设的神经网络模型中生成三维人体模型,并通过三维人体模型输出人体骨骼关节关键点数据。

步骤s106,确定所述视频图像数据中的深度估计数据;

具体地,可以通过利用deeperdepthpredictionwithfullyconvolutionalresidualnetworks生成的视频数据和人体骨骼二维图像关键点生成深度估计结果数据。

步骤s108,通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据;

通过加载三维人体模型并输出人体骨骼三维图像关键点和深度估计结果文件来生成mmd(mikumikudance)角色制作3d模组软件的运动数据。

步骤s110,根据预设动画模型和所述预设运动数据生成视频动画数据。

将预先准备好的动画模型和上述步骤中的运动数据,作为文件导入到mmd(mikumikudance)软件后可以生成带有动作的动画模型的视频动画内容。

从以上的描述中,可以看出,本申请实现了如下技术效果:

在本申请实施例中,采用获取视频图像数据中人体骨骼二维图像关键点的方式,通过将所述人体骨骼二维图像关键点转化为人体骨骼三维图像关键点和确定所述视频图像数据中的深度估计数据;达到了通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据的目的,从而实现了根据预设动画模型和所述预设运动数据生成视频动画数据的技术效果,进而解决了对于虚拟人物动作的处理效果较差的技术问题。本申请采用二维人体姿态评估、三维姿态评估以及图片深度预测等计算机视觉技术,并与mmd模型修改器pmxeditor和虚拟动画软件mikumikudance相结合,结果可生成虚拟人物动作仿真视频。

根据本申请实施例,作为本实施例中的优选,如图2所示,获取视频图像数据中人体骨骼二维图像关键点包括:

步骤s202,配置用于二维图像关键点检测的第一预设模型;

步骤s204,将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点;

所述配置用于二维图像关键点检测的第一预设模型包括:

步骤s2021,配置已经过训练的openpose模型;

所述将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点包括:

步骤s2041,将获取的视频输入所述openpose模型,输出人体骨骼二维图像关键点。

具体地,根据配置openpose的版本文件,并加载已训练好的模型。通过摄像头拍摄或从网上下载视频,将视频作为数据输入到配置好的openpose模型中,从而获取人体骨骼二维图像关键点。

根据本申请实施例,作为本实施例中的优选,如图3所示,将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点包括:

步骤s302,配置用于三维图像关键点检测的第二预设模型;

步骤s304,将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点;

所述配置用于三维图像关键点检测的第二预设模型包括:

步骤s3021,配置3d-pose-baseline模型;

所述将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点包括:

步骤s3041,将openpose模型的输出结果输入所述3d-pose-baseline模型,通过保留对应关节、舍去多余关节或对缺失关节平滑处理后输出转化结果得到三维图像中的人体骨骼关键点。得到的三维图像中的人体骨骼关键点如图11所示。

具体地,通过配置3d-pose-baseline模型和tensorflow环境,用于将人体骨骼二维图像关键点转为三维图像关键点。将人体骨骼二维图像关键点输入到3d-pose-baseline模型,获取人体骨骼三维图像关键点。需要注意的是,由于openpose输出的是18个关键点,其中5个头部关键点,13个躯干关键点。而3d-pose-baseline模型输出16个关键点,其中2个关键点,14个躯干关键点。对于两个模型的处理方法为:保留对应关节,舍去多余关节或者缺失关节通过smooth平滑方法将其平滑处理中的一种或多种。

根据本申请实施例,作为本实施例中的优选,如图4所示,通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据包括:

步骤s402,配置用于单目图像深度估计的第三预设模型;

步骤s404,将获取的视频数据再次输入所述第三预设模型,生成按照人体预设位置为中心的深度估计数据;

配置用于单目图像深度估计的第三预设模型包括:

步骤s4021,配置fcrn-depthprediction模型;

将获取的视频数据再次输入所述第三预设模型,生成按照人体预设位置为中心的深度估计数据包括:

步骤s4041,将获取的视频数据再次输入fcrn-depthprediction模型,生成按照预设人体臀部位置为中心的深度估计数据。得到的三维图像中的人体骨骼关键点的深度估计数据如图12所示。

具体地,配置fcrn-depthprediction模型,将训练好的模型参数导入。选用fcrn-depthprediction模型的可以使用模型中特有的fastup-projection模块,使得模型有快速且准确的预测出单张图片或视频里个空间的深度。同样,将通过摄像头拍摄或从网上下载视频数据作为数据输入到fcrn-depthprediction(deeperdepthpredictionwithfullyconvolutionalresidualnetworks)模型中。

根据本申请实施例,作为本实施例中的优选,如图5所示,根据预设动画模型和所述预设运动数据生成视频动画数据包括:

步骤s502,将所述深度估计数据整合到所述三维图像中的人体骨骼关键点上;

步骤s504,根据包含有所述深度估计数据的三维图像人体骨骼关键点生成可视化动作数据,得到含有虚拟动画人物模型的视频图像;

将所述深度估计数据整合到所述三维图像中的人体骨骼关键点上包括:

步骤s5021,将深度估计数据按照预设空间坐标轴的方向整合到所述三维图像中的人体骨骼关键点。

具体地,生成以人体臀部为中心的深度估计数据。优选地,为了使预测的人体骨骼三维图像关键点的深度信息更加协调,仅取人体中心点臀部作为全身深度的参考。

如图13至图14所示,在上述步骤之后还包括:利用pmxeditor软件生成csv文件。加载要为其指定跟踪动画人物的模型,显示骨骼标签,选中所有骨骼保存到csv文件。将生成的包含深度信息的三维人体骨骼关键点赋值到csv文件里的,并进行微调后生成vmd文件作为运动数据。启动mikumikudance软件,加载相同的动画人物模型和加载运动数据,最终以视频格式输出动画人物仿真原视频人物的动画视频。

需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。

根据本申请实施例,还提供了一种用于实施上述用于虚拟动画人物动作的数据处理方法的装置,如图6所示,该装置包括:获取模块10,用于获取视频图像数据中人体骨骼二维图像关键点;转化模块20,用于将所述人体骨骼二维图像关键点转化为人体骨骼三维图像关键点;深度估计模块30,用于确定所述视频图像数据中的深度估计数据;运动数据模块40,用于通过所述深度估计数据和所述人体骨骼三维图像关键点生成预设运动数据;以及生成模块50,用于根据预设动画模型和所述预设运动数据生成视频动画数据。

本申请实施例的获取模块10中通过相关技术,可以检测到的人体骨骼结构生成二维人体模型。

本申请实施例的转化模块20中通过将二维人体模型输入到预设的神经网络模型中生成三维人体模型,并通过三维人体模型输出人体骨骼关节关键点数据。

本申请实施例的深度估计模块30中具体地,可以通过利用deeperdepthpredictionwithfullyconvolutionalresidualnetworks生成的视频数据和人体骨骼二维图像关键点生成深度估计结果数据。

本申请实施例的运动数据模块40中通过加载三维人体模型并输出人体骨骼三维图像关键点和深度估计结果文件来生成mmd(mikumikudance)角色制作3d模组软件的运动数据。

本申请实施例的生成模块50中将预先准备好的动画模型和上述步骤中的运动数据,作为文件导入到mmd(mikumikudance)软件后可以生成带有动作的动画模型的视频动画内容。

根据本申请实施例,作为本实施例中的优选,如图7所示,所述获取模块10包括:第一配置单元101,第一获取单元102,所述第一配置单元101,用于配置用于二维图像关键点检测的第一预设模型;所述第一获取单元102,用于将获取的视频数据输入所述第一预设模型,输出人体骨骼的二维图像中的关键点;其中,所述第一配置单元101,用于配置已经过训练的openpose模型;所述第一获取单元102,用于将获取的视频输入所述openpose模型,输出人体骨骼二维图像关键点。

具体地,在所述第一配置单元101以及第一获取单元102中根据配置openpose的版本文件,并加载已训练好的模型。通过摄像头拍摄或从网上下载视频,将视频作为数据输入到配置好的openpose模型中,从而获取人体骨骼二维图像关键点。

根据本申请实施例,作为本实施例中的优选,如图8所示,所述转化模块20包括:第二配置单元201,第二获取单元202,所述第二配置单元201,用于配置用于三维图像关键点检测的第二预设模型;所述第二获取单元202,用于将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点;其中,所述第二配置单元201,用于配置3d-pose-baseline模型;所述第二获取单元202,用于将获取的二维图像中的关键点输入所述第二预设模型,输出转化结果得到三维图像中的人体骨骼关键点包括:将openpose模型的输出结果输入所述3d-pose-baseline模型,通过保留对应关节、舍去多余关节或对缺失关节平滑处理后输出转化结果得到三维图像中的人体骨骼关键点。

具体地,在所述第二配置单元201以及第二获取单元202中通过配置3d-pose-baseline模型和tensorflow环境,用于将人体骨骼二维图像关键点转为三维图像关键点。将人体骨骼二维图像关键点输入到3d-pose-baseline模型,获取人体骨骼三维图像关键点。需要注意的是,由于openpose输出的是18个关键点,其中5个头部关键点,13个躯干关键点。而3d-pose-baseline模型输出16个关键点,其中2个关键点,14个躯干关键点。对于两个模型的处理方法为:保留对应关节,舍去多余关节或者缺失关节通过smooth平滑方法将其平滑处理中的一种或多种。

根据本申请实施例,作为本实施例中的优选,如图9所示,所述深度估计模块30包括:第三配置单元301,第三获取单元302,所述第三配置单元301,用于配置用于单目图像深度估计的第三预设模型;所述第三获取单元302,用于将获取的视频数据再次输入所述第三预设模型,生成按照人体预设位置为中心的深度估计数据;其中,所述第三配置单元301,用于配置fcrn-depthprediction模型;所述第三获取单元302,用于将获取的视频数据再次输入fcrn-depthprediction模型,生成按照预设人体臀部位置为中心的深度估计数据。

具体地,在所述第三配置单元301以及所述第三获取单元302中配置fcrn-depthprediction模型,将训练好的模型参数导入。选用fcrn-depthprediction模型的可以使用模型中特有的fastup-projection模块,使得模型有快速且准确的预测出单张图片或视频里个空间的深度。同样,将通过摄像头拍摄或从网上下载视频数据作为数据输入到fcrn-depthprediction(deeperdepthpredictionwithfullyconvolutionalresidualnetworks)模型中。

根据本申请实施例,作为本实施例中的优选,如图10所示,所述生成模块50包括:整合单元501,可视化单元502,所述整合单元501,用于将所述深度估计数据整合到所述三维图像中的人体骨骼关键点上;所述视化单元502,用于根据包含有所述深度估计数据的三维图像人体骨骼关键点生成可视化动作数据,得到含有虚拟动画人物模型的视频图像;其中,所述整合单元501,用于将深度估计数据按照预设空间坐标轴的方向整合到所述三维图像中的人体骨骼关键点。

具体地,在所述整合单元501以及可视化单元502中生成以人体臀部为中心的深度估计数据。优选地,为了使预测的人体骨骼三维图像关键点的深度信息更加协调,仅取人体中心点臀部作为全身深度的参考。

在本申请中以使用:openpose模型、3d-pose-baseline模型以及fcrn-depthprediction模型为例,结合获取的人体骨骼二维图像关键点和人体骨骼三维图像关键点,配合pmxeditor软件以及mmd软件对本申请的实现原理做如下解释和说明。

步骤s1,配置最新的openpose版本,并使用已训练好的模型;

步骤s2,将从摄像头获取的视频作为数据输入到模型中,获取人体骨骼2d关键点;比如,通过摄像头拍摄或从网上下载视频,将视频作为数据输入到步骤1配置好的openpose模型中,从而获取人体骨骼2d关键点。

步骤s3,配置3d-pose-baseline模型和tensorflow环境用于将人体骨骼2d关键点转为3d关键点;

步骤s4,将步骤s2计算得到的数据送入步骤s3的模型中,获取人体骨骼3d关键点;将步骤2计算得到的数据送入步骤3的模型中,获取人体骨骼3d关键点。由于openpose输出的是18个关键点,其中5个头部关键点,13个躯干关键点。而3d-pose-baseline模型输出16个关键点,其中2个关键点,14个躯干关键点。对于两个模型的处理方法为:保留对应关节,舍去多余关节,缺失关节通过smooth方法将其平滑处理。如图11所示。

步骤s5,配置fcrn-depthprediction模型,将训练好的模型参数导入;配置fcrn-depthprediction模型,将训练好的模型参数导入。选用这个模型的原因是其特有的fastup-projection模块,使得模型有快速且准确的预测出单张图片或视频里个空间的深度。如图12所示。

步骤s6,同样将步骤s2的视频作为数据输入到模型中,生成以人体臀部为中心的深度估计数据;为了使步骤4预测的3d各个关键点的深度信息更加协调,仅取人体中心点臀部作为全身深度的参考。

步骤s7,将步骤s6的深度估计数据以z轴方向整合到步骤s4获取的3d关键点上;

步骤s8,利用pmxeditor软件生成csv文件;加载要为其指定跟踪动画人物的模型,显示骨骼标签,选中所有骨骼保存到csv文件。

步骤s9,将步骤s7生成的包含深度信息的3d人体骨骼关键点和步骤s8的csv文件相结合,做微调,最终生成vmd文件;

步骤s10,启动mmd软件,读取动画人物模型,然后加载步骤s9的运动,如图13所示。启动mikumikudance软件,加载与步骤s8相同的动画人物模型,如图14所示。然后加载步骤s9的运动,最终以视频格式输出动画人物仿真原视频人物的动画视频。

显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。

以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1