视频图像生成方法、装置、设备、介质和计算机程序产品与流程

文档序号:26584565发布日期:2021-09-10 18:39阅读:105来源:国知局
视频图像生成方法、装置、设备、介质和计算机程序产品与流程

1.本公开涉及计算机领域,进一步涉及人工智能、深度学习技术领域,尤其涉及视频图像生成方法、装置、设备、介质和计算机程序产品。


背景技术:

2.目前,音频驱动人像来生成视频已经广泛应用于虚拟主播、虚拟教育等场景。其中,音频驱动人像指的是基于音频确定相匹配的人像特征,利用人像特征输出人像,如利用与音频匹配的口型动作输出人像。
3.当前生成视频时经常采用关键点检测的方式,基于检测出的曲线边缘信息生成与音频相匹配的人像特征,得到人像画面。然而,采用这种方式得到的人像画面清晰度较差。


技术实现要素:

4.本公开提供了一种视频图像生成方法、装置、设备、介质和计算机程序产品。
5.根据第一方面,提供了一种视频图像生成方法,包括:获取目标语音;基于目标语音确定对象参数集合;对象参数集合包含目标语音的各个语音时间点对应的目标对象的对象参数;对于每个语音时间点,基于该语音时间点对应的对象参数,渲染目标对象的人像图像,得到渲染图像;基于各个语音时间点的渲染图像和目标对象的底版图像,生成目标视频图像。
6.根据第二方面,提供了一种视频图像生成装置,包括:信息获取单元,被配置成获取目标语音;集合确定单元,被配置成基于目标语音确定对象参数集合;对象参数集合包含目标语音的各个语音时间点对应的目标对象的对象参数;图像渲染单元,被配置成对于每个语音时间点,基于该语音时间点对应的对象参数,渲染目标对象的人像图像,得到渲染图像;视频生成单元,被配置成基于各个语音时间点的渲染图像和目标对象的底版图像,生成目标视频图像。
7.根据第三方面,提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上任意一项视频图像生成方法。
8.根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如上任意一项视频图像生成方法。
9.根据第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如上任意一项视频图像生成方法。
10.根据本公开的技术,提供一种视频图像生成方法,能够基于目标语音确定各个语音时间点对应的、目标对象的对象参数,并基于对象参数渲染目标对象的人像图像,得到渲染图像,再基于渲染图像和底版图像生成目标视频图像。这一过程能够确定各个语音时间点对应的对象参数,对象参数的划分粒度更细,得到更精准的渲染图像。并且由于底版图像包含更多的人像特征细节,在底版图像的基础上结合更精准的渲染图像,能够得到清晰度
更高的视频图像。
11.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
12.附图用于更好地理解本方案,不构成对本公开的限定。其中:
13.图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
14.图2是根据本公开的视频图像生成方法的一个实施例的流程图;
15.图3是根据本公开的视频图像生成方法的一个应用场景的示意图;
16.图4是根据本公开的视频图像生成方法的另一个应用场景的示意图;
17.图5是根据本公开的视频图像生成方法的另一个实施例的流程图;
18.图6是根据本公开的视频图像生成装置的一个实施例的结构示意图;
19.图7是用来实现本公开实施例的视频图像生成方法的电子设备的框图。
具体实施方式
20.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
21.需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
22.图1是根据本公开第一实施例的示例性系统架构示意图,其示出了可以应用本公开的视频图像生成方法的实施例的示例性系统架构100。
23.如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
24.用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以为手机、电脑以及平板等电子设备,在终端设备101、102、103中,可以显示基于目标音频与目标对象生成的合成视频,例如显示目标对象按照目标语音进行讲话的合成视频。
25.终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于电视、智能手机、平板电脑、电子书阅读器、车载电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
26.服务器105可以是提供各种服务的服务器,例如可以为终端设备101、102、103提供合成视频生成服务。服务器105可以获取需要进行合成的目标语音,并确定目标语音对应的对象参数集合,基于各个对象参数渲染目标对象的人像图像,得到渲染图像。并基于目标语音的各个时间点的渲染图像和目标对象的底版图像生成目标视频图像,以将目标视频图像
返回给终端设备101、102、103显示。
27.需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
28.需要说明的是,本公开实施例所提供的视频图像生成方法可以由终端设备101、102、103执行,也可以由服务器105执行。相应地,视频图像生成装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。
29.应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
30.继续参考图2,示出了根据本公开的视频图像生成方法的一个实施例的流程200。本实施例的视频图像生成方法,包括以下步骤:
31.步骤201,获取目标语音。
32.在本实施例中,执行主体(如图1中的服务器105或者终端设备101、102、103)可以从本地或者已建立连接的其他电子设备中获取需要进行合成的目标语音和目标对象。其中,目标语音可以为指定人员发出的语音,也可以为基于人工智能技术自动合成的机器语音,本实施例对此不做限定。进一步的,执行主体还可以获取目标对象,目标对象可以为需要呈现的指定人员,也可以为需要呈现的虚拟形象,本实施例对此不做限定。并且,目标语音和目标对象具有对应关系,该对应关系用于指示将目标对象对应的视觉画面与目标语音对应的听觉音频合成,实现控制目标对象按照目标语音发出语音。
33.步骤202,基于目标语音确定对象参数集合;对象参数集合包含目标语音的各个语音时间点对应的目标对象的对象参数。
34.在本实施例中,目标语音可以为具有一定时长的音频文件,目标语音的时长可以基于实际使用需求自由设定。执行主体在获取目标语音之后,可以进一步确定目标语音的每个语音时间点对应的、目标对象的对象参数。其中,对象参数用于描述目标对象的显示参数,可以包括但不限于口型显示参数、脸部表情显示参数、人体部位显示参数等,本实施例对此不做限定。并且,与每个语音时间对应的对象参数的数量可以为多个、且这多个对象参数之间可以按照显示顺序进行排序,在按照对象参数控制渲染图像时,可以基于排序顺序进行渲染。对于目标语音的各个语音时间点设定,可以按照指定间隔设定,如将每秒确定为一个语音时间点。又或者,执行主体可以先对目标语音进行语音分析,确定目标语音中的关键变化语音,将关键变化语音对应的时间点确定为语音时间点,这样可以选取最能够反映语音变化的时间点确定目标对象的对象参数,提高对象参数与目标语音之间的贴合度,对象参数更加精准。
35.步骤203,对于每个语音时间点,基于该语音时间点对应的对象参数,渲染目标对象的人像图像,得到渲染图像。
36.在本实施例中,在执行主体确定出对象参数集合之后,执行主体还可以对于每个语音时间点,基于该语音时间点对应的对象参数,渲染目标对象的人像图像,得到渲染图像。其中,目标对象的人像图像优选采用无表情的人像进行建模。渲染图像中的目标对象按照相应的对象参数进行处理,如按照对象参数的口型显示参数控制目标对象的口型展示、
按照对象参数的脸部表情显示参数控制目标对象的表情展示、按照对象参数的人体部位显示参数控制目标对象的五官显示等。优选的,人像图像采用三维人像图像。并且人像图像也可以采用二维人像图像,本实施例对此不做限定。此处的渲染技术可以采用现有的图形学渲染技术,在此不再赘述。
37.步骤204,基于各个语音时间点的渲染图像和目标对象的底版图像,生成目标视频图像。
38.在本实施例中,执行主体在确定出每个语音时间点对应的渲染图像之后,可以按照语音时间点,将渲染图像和目标对象的底版图像进行合成,得到合成图像,再基于合成图像生成目标视频图像。其中的渲染图像可以为包含目标对象的脸部的图像,底版图像可以为包含目标对象的身体的图像。对于每个语音时间点,可以将该语音时间点的渲染图像和底版图像进行合成,得到该语音时间点对应的合成图像。之后,按照各个语音时间点对应的合成图像进行图像输出,同时将目标语音作为音频输出,得到目标视频图像。其中,底版图像优选采用三维底版图像。并且底版图像也可以采用二维人像图像,本实施例对此不做限定。
39.继续参见图3,其示出了根据本公开的视频图像生成方法的一个应用场景的示意图。在图3的应用场景中,执行主体可以获取目标语音302,之后,确定目标语音中每个语音时间点对应的对象参数,得到对象参数集合302。利用对象参数集合302中的每个对象参数分别渲染目标对象的人像图像203,得到各个语音时间点对应的渲染图像304。基于渲染图像和底版图像305,生成合成视频306。具体的,执行主体可以从渲染图像304中提取口型部位对应的图像,将口型部位的图像替换至底版图像305中的口型部位,得到各个语音时间点对应的替换后图像,按照语音时间点输出该替换后图像以及目标语音,生成合成视频306。合成视频306中目标对象能够做出与当前语音时间点对应的目标语音相匹配的口型动作以及表情动作。请一并参阅图4,图4是本公开的一种三维图像建模的应用示意图,如图4所示,基于目标语音确定的对象参数集合,可以对目标对象的三维人像图像进行渲染,得到三维形式的渲染图像401。并且,还可以进一步确定相应三维形式的目标对象的底版图像402,基于渲染图像401和底版图像402,可以得到目标视频图像403。
40.本公开上述实施例提供的视频图像生成方法,能够确定各个语音时间点对应的对象参数,对象参数的划分粒度更细,得到更精准的渲染图像。并且由于底版图像包含更多的人像特征细节,在底版图像的基础上结合更精准渲染图像能够得到清晰度更高的视频图像。
41.继续参见图5,其示出了根据本公开的视频图像生成方法的另一个实施例的流程500。如图5所示,本实施例的视频图像生成方法可以包括以下步骤:
42.步骤501,获取目标语音。
43.在本实施例中,对于步骤501的详细描述请参照对于步骤201的详细描述,在此不再赘述。
44.步骤502,获取至少一张目标对象的中立表情图像。
45.在本实施例中,执行主体可以从本地数据库或者预先建立连接的其他电子设备中获取至少一张目标对象的中立表情图像,作为人脸建模的基础。
46.步骤503,基于中立表情图像的基础形状信息和/或纹理信息,对中立表情图像进
行建模,得到人像图像。
47.在本实施例中,执行主体可以基于中立表情图像的基础形状信息、纹理信息,利用3ddfa(3d dense face alignment,3d密集人脸对齐)算法或者deep3dfacereconstruction算法(一种三维人像重建算法)进行三维建模,得到三维人像图像。执行主体也可以采用现有的二维建模技术进行二维建模,得到二维人像图像。其中,基础形状信息指的是用于表示中立表情图像的表情基本形状信息,纹理信息指的是用于表示中立表情图像表面细节的信息。
48.步骤504,获取目标对象的初始底版图像。
49.在本实施例中,执行主体还可以获取目标对象的初始底版图像,用于对底版图像进行三维建模,得到三维底版图像,或者对底版图像进行二维建模,得到二维底版图像。其中,初始底版图像可以为包含目标对象的身体的图像。
50.步骤505,基于初始底版图像的轮廓信息和/或姿态信息,对初始底版图像进行建模,得到底版图像。
51.在本实施例中,执行主体可以基于初始底版图像的轮廓信息和/或姿态信息,对初始底版图像进行三维建模,得到三维底版图像,或者对初始底版图像进行二维建模,得到二维底版图像。对初始底版图像进行三维建模的具体步骤与基于中立表情图像的基础形状信息和/或纹理信息对中立表情图像进行三维建模的步骤相似,请参照对步骤503的详细描述,在此不再赘述。其中,初始底版图像也可以为中立表情的目标对象的图像。初始底版图像可以和中立表情图像为同一张图像,此时的中立表情图像也需要包含目标对象的身体。初始底版图像也可以和中立表情图像为不同的图像。进一步的,轮廓信息用于描述初始底版图像中目标对象的轮廓或者蒙版,在具体代码中,轮廓信息可以用参数mask表示。姿态信息用于描述初始底版图像中目标对象的姿态角。可选的,底版图像的数量可以为多个、并且多个底版图像之间具有呈现顺序关系,基于这种呈现顺序关系可以控制目标对象的姿势以及轮廓的轻微移动。
52.需要说明的是,上述步骤502至步骤503可以在步骤504至步骤505之前执行,也可以在步骤504至步骤505之后执行,也可以与步骤504至步骤505同时执行,本实施例中不做限定。
53.步骤506,基于目标语音和预先训练的神经网络模型,获取与目标语音相匹配的至少一个参数,作为对象参数集合。
54.在本实施例中,对象参数集合包括以下对象参数至少之一:表情参数;口型参数。表情参数可以包括但不限于脸颊动作参数、嘴角动作参数等,口型参数可以包括但不限于张嘴幅度、张嘴频率等。
55.其中,预先训练好的神经网络模型可以基于以下步骤训练得到:获取对应存储的样本语音以及样本表情和/或样本口型;将样本语音输入待训练的神经网络模型,得到神经网络模型输出的表情结果和/或口型结果;基于样本表情和表情结果之间的差异值和/或样本口型和口型结果之间的差异值调整神经网络模型的参数,直至模型满足预设的收敛条件,得到预先训练好的神经网络模型。
56.步骤507,对于每个语音时间点,基于该语音时间点在对象参数集合中对应的对象参数,渲染目标对象的人像图像,得到渲染图像。
57.在本实施例中,执行主体可以确定每个语音时间点对应的表情参数和/或口型参数,基于表情参数和/或口型参数渲染目标对象的人像图像,得到该语音时间点对应的渲染图像。这里可以采用图形学渲染技术实现渲染图像的生成,图形学渲染技术可以采用现有的渲染技术,在此不做赘述。
58.步骤508,响应于确定渲染图像存在待优化特征,对渲染图像进行特征优化,得到优化后的渲染图像。
59.在本实施例中,在获取渲染图像之后,执行主体可以对渲染图像进行图像分析,确定渲染图像是否存在需要进行优化的待优化特征。具体的,执行主体可以将渲染图像的图像特征和预先设置的待优化特征集合进行匹配,如果存在某个图像特征和待优化特征集合中的特征匹配成功,则确定渲染图像存在待优化特征。其中,预先设置的待优化特征集合中可以包括但不限于人脸部位残缺特征、纹理遮挡特征、扭曲变形特征、阴影特征等待优化特征。如果确定出渲染图像存在待优化特征,则可以对渲染图像进行特征优化。具体的,执行主体可以利用生成对抗网络技术预先训练得到人脸补全优化网络,人脸补全优化网络用于补全残缺的人体部位,如补全牙齿。执行主体还可以利用图像修复技术修复存在遮挡的纹理、存在扭曲变形的图像部分以及存在阴影的图像部分。
60.在本实施例的一些可选的实现方式中,基于各个语音时间点的渲染图像和目标对象的底版图像,生成目标视频图像可以包括:基于各个语音时间点对应的优化后的渲染图像和目标对象的底版图像,生成目标视频图像。
61.步骤509,对于每个语音时间点,从该语音时间点的渲染图像中确定指定部位对应的渲染图像,将指定部位对应的渲染图像替换至底版图像的指定部位,得到该语音时间点对应的视频图像帧。
62.在本实施例中,这里的渲染图像可以是进行特征优化之后的优化后的渲染图像。对于每个语音时间点,执行主体可以先获取该语音时间点对应的渲染图像,再从渲染图像中确定出指定部位对应的渲染图像。其中,指定部位对应的渲染图像可以包括口型部分对应的部位(嘴巴和/或下巴),或者,指定部位对应的渲染图像也可以包括眼睛、鼻子、头发等其他部位,本实施例对此不做限定。执行主体可以对渲染图像进行图像提取,从中提取得到指定部位对应的指定部位对应的渲染图像,再确定底版图像的指定部位,将指定部位对应的渲染图像替换至底版图像的指定部位,得到该语音时间点对应的视频图像帧。
63.可选的,在底版图像为多个、且多个底版图像之间具有呈现顺序关系的情况下,执行主体可以基于该呈现顺序关系选取符合目标语音的长度的若干底版图像,再针对每个语音时间点,确定与该语音时间点对应的底版图像,将该语音时间点对应的指定部位渲染图像替换至该底版图像的指定部位。基于替换后的各个底版图像,生成合成视频。
64.步骤510,基于各个语音时间点对应的视频图像帧,生成目标视频图像。
65.在本实施例中,执行主体可以汇总各个语音时间点对应的视频图像帧,按照目标语音的各个语音时间点,将该视频图像帧与目标语音相结合,生成目标视频图像。
66.本公开的上述实施例提供的视频图像生成方法,还可以利用神经网络模型确定目标语音对应的各个表情参数和/或口型参数,基于表情参数和/或口型参数控制目标对象的呈现,提高了目标对象的表情和/或口型与目标语音之间的适配性。并且,在基于表情参数和/或口型参数渲染人像图像,得到渲染图像的过程中,还可以在渲染图像存在待优化特征
的情况下,对渲染图像进行特征优化,例如补全目标对象的牙齿,进一步提升了目标对象的呈现效果。此外,在生成合成视频时,可以将指定部位渲染图像替换至底版图像的指定部位,实现了表情、口型、底版图像本身的动作相互的适配。
67.进一步参考图6,作为对上述各图所示方法的实现,本公开提供了一种视频图像生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种服务器或者终端设备中。
68.如图6所示,本实施例的视频图像生成装置600包括:信息获取单元601、集合确定单元602、图像渲染单元603、视频生成单元604。
69.信息获取单元601,被配置成获取目标语音。
70.集合确定单元602,被配置成基于目标语音确定对象参数集合;对象参数集合包含目标语音的各个语音时间点对应的目标对象的对象参数。
71.图像渲染单元603,被配置成对于每个语音时间点,基于该语音时间点对应的对象参数,渲染目标对象的人像图像,得到渲染图像。
72.视频生成单元604,被配置成基于各个语音时间点的渲染图像和目标对象的底版图像,生成目标视频图像。
73.在本实施例的一些可选的实现方式中,对象参数集合中包括以下对象参数至少之一:表情参数;口型参数。
74.在本实施例的一些可选的实现方式中,集合确定单元602进一步被配置成:基于目标语音和预先训练的神经网络模型,得到与目标语音相匹配的的至少一个对象参数,作为对象参数集合。
75.在本实施例的一些可选的实现方式中,上述装置还包括:图像优化单元,被配置成响应于确定渲染图像存在待优化特征,对渲染图像进行特征优化,得到优化后的渲染图像;视频生成单元604进一步被配置成:基于各个语音时间点对应的优化后的渲染图像和目标对象的底版图像,生成目标视频图像。
76.在本实施例的一些可选的实现方式中,视频生成单元604进一步被配置成:对于每个语音时间点,从该语音时间点的渲染图像中确定指定部位对应的渲染图像,将指定部位对应的渲染图像替换至底版图像的指定部位,得到该语音时间点对应的视频图像帧;基于各个语音时间点对应的视频图像帧,生成目标视频图像。
77.在本实施例的一些可选的实现方式中,上述装置还包括:人像确定单元,被配置成获取至少一张目标对象的中立表情图像;基于中立表情图像的基础形状信息和/或纹理信息,对中立表情图像进行建模,得到人像图像。
78.在本实施例的一些可选的实现方式中,上述装置还包括:底版确定单元,被配置成获取目标对象的初始底版图像;基于初始底版图像的轮廓信息和/或姿态信息,对初始底版图像进行建模,得到底版图像。
79.应当理解,视频图像生成装置600中记载的单元601至单元604分别与参考图2中描述的方法中的各个步骤相对应。由此,上文针对用生成合成视频的方法描述的操作和特征同样适用于装置600及其中包含的单元,在此不再赘述。
80.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
81.图7示出了用来实现本公开实施例的视频图像生成方法的电子设备700的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
82.如图6所示,设备700包括计算单元701,其可以根据存储在只读存储器(rom)702中的计算机程序或者从存储单元708加载到随机访问存储器(ram)703中的计算机程序,来执行各种适当的动作和处理。在ram703中,还可存储设备700操作所需的各种程序和数据。计算单元701、rom 702以及ram 703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。
83.设备700中的多个部件连接至i/o接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
84.计算单元701可以是各种具有处理和计算能力的通用和/或专用生成合成视频。计算单元701的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如视频图像生成方法。例如,在一些实施例中,视频图像生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由rom 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到ram 703并由计算单元701执行时,可以执行上文描述的视频图像生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行视频图像生成方法。
85.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
86.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
87.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供
指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd

rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
88.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
89.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
90.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端

服务器关系的计算机程序来产生客户端和服务器的关系。
91.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
92.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1