一种配置GPU的方法、装置、电子设备及存储介质与流程

文档序号:20838592发布日期:2020-05-22 17:11阅读:164来源:国知局
一种配置GPU的方法、装置、电子设备及存储介质与流程

本发明属于计算机图形领域,具体涉及一种配置gpu的方法、装置、电子设备及存储介质。



背景技术:

gpu(graphicsprocessingunit,图形处理器)是一种用于图形运算的微处理器。在开始运行gpu之前,需要对gpu进行配置。具体的,配置gpu的运行环境以及运行时所需要的数据等各种信息。

相关技术中,配置gpu所采用的方法包括:将gpu的运行环境以及运行时所需要的数据等各种信息直接写在gpu的程序中。

然而,由于不同程序所涉及信息不同,且程序的执行顺序对程序所涉及信息的配置顺序也存在影响,因此,相关技术中,用户在对gpu进行配置时,需要考虑这两方面因素,这使得配置gpu的过程较为繁琐,耗时较长。



技术实现要素:

为了解决现有技术中存在的上述问题,本发明提供了一种配置gpu的方法、装置、电子设备及存储介质。本发明要解决的技术问题通过以下技术方案实现:

第一方面,本发明实施例提供了一种配置gpu的方法,应用于gpu管理客户端,所述方法包括:

接收用户在所述gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数;

根据所述各项配置参数,生成gpu驱动可识别的工作数据;

将生成的工作数据发送至gpu,以使gpu应用所述工作数据。

在本发明的一个实施例中,所述根据所述各项配置参数,生成gpu驱动可识别的工作数据,包括:

根据预设的对应关系,确定各项配置参数所分别对应的、gpu驱动可识别的工作数据的生成方法;

针对每项配置参数,以该项配置参数作为对应的生成方法的输入参数,生成该项配置参数对应的gpu驱动可识别的工作数据;

其中,所述对应关系为:配置参数与gpu驱动可识别的工作数据的生成方法的对应关系。

在本发明的一个实施例中,所述各项配置参数包括:与gpu执行运算相关的各项数据信息以及各项gpu配置信息。

在本发明的一个实施例中,在将生成的工作数据发送至gpu,以使gpu应用所述工作数据之前,所述方法还包括:

将所生成的工作数据中,与所述gpu配置信息对应的工作数据进行封装,得到第一封装数据,并将所生成的工作数据中,与所述数据信息对应的工作数据进行封装,得到第二封装数据;

根据所述第一封装数据,生成gpu驱动可识别的第一配置文件,并根据所述第二封装数据,生成gpu驱动可识别的第二配置文件;

所述将生成的工作数据发送至gpu,以使gpu应用所述工作数据,包括:

将所述第一配置文件和所述第二配置文件发送至gpu,以使gpu应用所述第一配置文件中的工作数据和所述第二配置文件中的工作数据。

在本发明的一个实施例中,所述方法还包括:保存所述第一配置文件和所述第二配置文件。

在本发明的一个实施例中,所述方法还包括:

当接收到接收用户从已保存的第一配置文件和已保存的第二配置文件中,选择目标第一配置文件和目标第二配置文件进行导入的指令时,将所述目标第一配置文件和所述目标第二配置文件发送至gpu,以使gpu应用所述目标第一配置文件中的工作数据和所述目标第二配置文件中的工作数据。

在本发明的一个实施例中,所述各项gpu配置信息包括:

gpu工作时的开机画面、gpu工作时的告警画面、gpu工作时所需的硬件资源以及gpu所支持的图形处理类型。

第二方面,本发明实施例提供了一种配置gpu的装置,应用于gpu管理客户端,所述装置包括:

接收模块,用于接收用户在所述gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数;

生成模块,用于根据所述各项配置参数,生成gpu驱动可识别的工作数据;

发送模块,用于将生成的工作数据发送至gpu,以使gpu应用所述工作数据。

在本发明的一个实施例中,所述生成模块,包括确定子模块和生成子模块;

所述确定子模块,用于根据预设的对应关系,确定各项配置参数所分别对应的、gpu驱动可识别的工作数据的生成方法;其中,所述对应关系为:配置参数与gpu驱动可识别的工作数据的生成方法的对应关系;

所述生成子模块,用于针对每项配置参数,以该项配置参数作为对应的生成方法的输入参数,生成该项配置参数对应的gpu驱动可识别的工作数据。

在本发明的一个实施例中,所述各项配置参数包括:与gpu执行运算相关的各项数据信息以及各项gpu配置信息。

在本发明的一个实施例中,所述装置还包括:封装模块和配置文件生成模块;

所述封装模块,用于在所述发送模块将生成的工作数据发送至gpu,以使gpu应用所述工作数据之前,将所生成的工作数据中,与所述gpu配置信息对应的工作数据进行封装,得到第一封装数据,并将所生成的工作数据中,与所述数据信息对应的工作数据进行封装,得到第二封装数据;

所述配置文件生成模块,用于根据所述第一封装数据,生成gpu驱动可识别的第一配置文件,并根据所述第二封装数据,生成gpu驱动可识别的第二配置文件;

所述发送模块,将生成的工作数据发送至gpu,以使gpu应用所述工作数据,包括:

将所述第一配置文件和所述第二配置文件发送至gpu,以使gpu应用所述第一配置文件中的工作数据和所述第二配置文件中的工作数据。

在本发明的一个实施例中,所述装置还包括:保存模块;

所述保存模块,用于保存所述第一配置文件和所述第二配置文件。

在本发明的一个实施例中,所述装置还包括:导入模块;

所述导入模块,用于当接收到接收用户从已保存的第一配置文件和已保存的第二配置文件中,选择目标第一配置文件和目标第二配置文件进行导入的指令时,将所述目标第一配置文件和所述目标第二配置文件发送至gpu,以使gpu应用所述目标第一配置文件中的工作数据和所述目标第二配置文件中的工作数据。

第三方面,本发明实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;

存储器,用于存放计算机程序;

处理器,用于执行存储器上所存放的程序时,实现上述任一配置gpu的方法所述的方法步骤。

第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一配置gpu的方法所述的方法步骤。

本发明的有益效果:

本发明实施例提供的配置gpu的方法中,接收用户在gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数;根据各项配置参数,生成gpu驱动可识别的工作数据;将生成的工作数据发送至gpu,以使gpu应用这些工作数据。在这个过程中,用户不需要考虑程序所涉及信息,且无需考虑程序的执行顺序对程序所涉及的参数的配置顺序的影响,因此,本方案中配置gpu的过程较为精简,耗时较短,提高了gpu的配置效率。并且,本方案还可以降低对用户的编程专业性的要求。

以下将结合附图及实施例对本发明做进一步详细说明。

附图说明

图1是本发明实施例提供的一种配置gpu的方法的流程示意图;

图2是本发明实施例提供的另一种配置gpu的方法的流程示意图;

图3是本发明实施例提供的一种配置gpu的装置的结构示意图;

图4是本发明实施例提供的一种电子设备的结构示意图。

具体实施方式

下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。

需要说明的是,本发明实施例提供的配置gpu的方法的执行主体,可以为一种gpu管理客户端,该gpu管理客户端中设有配置gpu的软件模块。这里,gpu管理客户端具体为管理gpu的客户端软件,该gpu管理客户端软件可以安装于电子设备中。在具体应用中,该电子设备可以为含有gpu的终端设备,也可以为服务器。当该电子设备为终端设备时,该终端设备可以为台式计算机、便携式计算机、智能移动终端或者平板设备等等。当该电子设备为服务器时,该服务器可以为含有gpu的服务器;或者,该服务器可以与其他含有gpu的设备进行通信,从而可以利用自身所安装的gpu管理客户端软件对这些设备中的gpu进行管理。这里,其他含有gpu的设备可以为该服务器对应的客户端设备,也可以为与该服务器具有通信连接的其他服务器或服务器集群。

请参见图1,图1是本发明实施例提供的一种配置gpu的方法的流程示意图,该方法可以包括以下步骤:

步骤s10:接收用户在gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数。

这里,gpu配置界面可以为一个用户友好界面;相应的,该gpu配置界面中所包含的各项配置参数,为具有较高的用户友好性的配置参数。这样,对于gpu的用户而言,可以很容易对gpu进行配置。

本发明实施例中,可以预先综合考虑配置gpu所需的各种信息,如gpu的运行环境以及运行时所需数据等各种信息;然后,从用户友好性的角度出发,将相关的多个信息进行组合,构建一项配置参数;将不相关的信息独立地构建一项配置参数,从而得到具有用户友好性的各项配置参数;其中,在具体构建时,可以由编程人员根据编程经验进行构建。然后,在gpu配置界面中,设置相应的选项。这里,选项可以有输入框、下拉框或者勾选框等多种存在形式,本发明实施例对此不做具体限定。

为了方案清楚及布局清晰,后续对与gpu工作相关的各项配置参数进行举例说明。

该步骤中,当用户在gpu配置界面中完成对各项配置参数的配置,并关闭该gpu配置界面时,gpu管理客户端便可以接收到gpu配置界面关闭前所自动保存的与gpu工作相关的各项配置参数。在另一种实现方式中,该gpu配置界面还可以提供有对各项配置参数进行保存的按钮。这样,当用户在该gpu配置界面中点击该按钮时,gpu管理客户端便可以接收到用户所保存的、与gpu工作相关的各项配置参数。

步骤s20:根据所接收的各项配置参数,生成gpu驱动可识别的工作数据。

其中,根据所接收的各项配置参数,生成gpu驱动可识别的工作数据的具体实现方式存在多种。示例性的,在一种实现方式中,根据所接收的各项配置参数,生成gpu驱动可识别的工作数据,可以包括:

根据预设的对应关系,确定各项配置参数所分别对应的、gpu驱动可识别的工作数据的生成方法;

针对每项配置参数,以该项配置参数作为对应的生成方法的输入参数,生成该项配置参数对应的gpu驱动可识别的工作数据。

其中,预设的对应关系为:配置参数与gpu驱动可识别的工作数据的生成方法的对应关系。该对应关系中,每项配置参数所对应的、与gpu驱动可识别的工作数据的生成方法可以由编程人员预先编写完成。

可以理解的是,由于gpu配置界面中的配置参数具有较高的用户友好性,因此,在配置参数对应的gpu驱动可识别的工作数据的生成方法中,除了包含配置参数所指示工作数据的生成步骤,还可以包含附加的工作数据的生成步骤。例如,假设有一个配置gpu的输入/输出通道的配置参数,该配置参数对应的工作数据的生成方法中,除了可以包含打开或关闭各通道的工作数据的生成步骤,还可以包含打开或关闭各通道的时钟的工作数据的生成步骤,从而达到降低gpu功耗的效果。

步骤s30:将生成的工作数据发送至gpu,以使gpu应用该工作数据。

可以理解的是,由于生成的工作数据,可以直接被gpu驱动所识别,故将生成的工作数据发送至gpu,gpu便可以直接识别并应用该工作数据。

在实际应用中,gpu管理客户端和gpu可以同属于一个电子设备,如安装有gpu管理客户端的、且含有gpu的电子设备;此时,gpu管理客户端可以直接将生成的工作数据下发给gpu。

或者,gpu管理客户端和gpu也可以分属于不同的电子设备,例如,在一个未含有gpu的服务器上安装有gpu管理客户端,且该服务器所通信连接的其他设备上含有gpu;此时,gpu管理客户端通过该服务器,将生成的工作数据发送给其他设备上的gpu。

本发明实施例提供的配置gpu的方法中,接收用户在gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数;根据各项配置参数,生成gpu驱动可识别的工作数据;将生成的工作数据发送至gpu,以使gpu应用这些工作数据。在这个过程中,用户不需要考虑程序所涉及信息,且无需考虑程序的执行顺序对程序所涉及的参数的配置顺序的影响,因此,本方案中配置gpu的过程较为精简,耗时较短,提高了gpu的配置效率。并且,本方案还可以降低对用户的编程专业性的要求。

为了方案清楚及布局清晰,下面对与gpu工作相关的各项配置参数进行举例说明。

示例性的,与gpu工作相关的各项配置参数可以包括:与gpu执行运算所相关的各项数据信息以及各项gpu配置信息。

其中,各项gpu配置信息存在多种。例如,各项gpu配置信息可以包括:gpu工作时的开机画面、gpu工作时的告警画面、gpu工作时所需的硬件资源以及gpu所支持的图形处理类型。这里,gpu工作时所需的硬件资源如gpu支持的图形输入/输出通道等等;gpu所支持的图形处理类型如图像数据进行旋转、缩放、剪裁、颜色调整,和/或抗锯齿等。另外,各项gpu配置信息还可以包括:gpu运行的操作系统以及gpu所使用的openggl(opengraphicslibrary,开放式图形库)等等。

并且,上述的各项数据信息同样存在多种。例如,各项数据信息可以包括:gpu所使用的汇编数据、光标数据以及字库数据等等。需要说明的是,实际应用中,gpu配置信息以及与gpu执行运算所相关的数据信息并不局限于这里所列举的示例,任何属于gpu参数配置的信息以及与gpu执行运算所相关的数据信息,均适用于本发明实施例所提供的方法中。

可选地,在一种实现方式中,当与gpu工作相关的各项配置参数包括各项数据信息以及各项gpu配置信息这两种信息时,在将生成的工作数据发送至gpu,以使gpu应用该工作数据之前,本发明实施例提供的配置gpu的方法,还可以包括:

将所生成的工作数据中,与gpu配置信息对应的工作数据进行封装,得到第一封装数据,并将所生成的工作数据中,与数据信息对应的工作数据进行封装,得到第二封装数据;

根据第一封装数据,生成gpu驱动可识别的第一配置文件,并根据第二封装数据,生成gpu驱动可识别的第二配置文件;

相应的,步骤s30中,将生成的工作数据发送至gpu,以使gpu应用所述工作数据,可以包括:

将第一配置文件和第二配置文件发送至gpu,以使gpu应用第一配置文件中的工作数据和所述第二配置文件中的工作数据。

这里,gpu应用第一配置文件中的工作数据和所述第二配置文件中的工作数据,具体可以是gpu加载第一配置文件中的与gpu配置信息对应的工作数据,以及调用第二配置文件中的与数据信息对应的工作数据。

可以理解的是,采用配置文件的形式来承载工作数据,可以便于对工作数据进行集中管理和发送等。

其中,第一配置文件的文件类型,可以为.svs或.dll等等。在生成该第一配置文件时,可以按照该第一配置文件的文件类型所指示的文件写入格式,将与各项gpu配置信息对应的工作数据逐条写入一个初始的空白文件中,从而得到写入完成的第一配置文件。第二配置文件的文件类型,可以为.c或.txt等等。在生成该第二配置文件时,可以按照该第二配置文件的文件类型所指示的文件写入格式,将与各项数据信息对应的工作数据逐条写入一个初始的空白文件中,从而得到写入完成的第二配置文件。

该实现方式中,将工作数据进行封装,可以理解为将不同类型的工作数据归类到一起,以便后续生成不同类型的配置文件。在实际应用中,gpu管理客户端的gpu配置界面可以提供两个区域,一个区域用于配置各项gpu配置信息,另一个区域用于配置各项数据信息。或者,gpu配置界面可以提供两个子页面,一个子页面用于配置各项gpu配置信息,另一个子页面用于配置各项数据信息。这样,便于后续分别将两个区域中或两个页面中的配置参数对应的工作数据进行封装。当然,当gpu管理客户端中预先指定了封装规则时,gpu配置界面中的各项gpu配置信息和各项数据信息也可以任意排列。

在实际应用中,为了便于管理,gpu管理客户端中可以分别设置两个模块,一个模块用于对各项数据信息进行处理,另一个模块用于对各项gpu配置信息进行处理。这样,该实现方式中,将所生成的工作数据中,与gpu配置信息对应的工作数据进行封装,得到第一封装数据,并将所生成的工作数据中,与数据信息对应的工作数据进行封装,得到第二封装数据这两个步骤,可以由上述的两个模块分别执行;根据第一封装数据,生成gpu驱动可识别的第一配置文件,并根据第二封装数据,生成gpu驱动可识别的第二配置文件,同样由上述的两个模块分别执行。同理的,在步骤s20的具体实现方式中,根据预设的对应关系,确定各项配置参数所分别对应的工作数据的生成方法的步骤,也可以由这两个模块分别执行。

可选地,在一种可选的方案中,本发明实施例提供的配置gpu的方法,还可以包括保存第一配置文件和第二配置文件的步骤。

这里,将所生成的第一配置文件和第二配置文件进行保存,可以便于配置文件的共享发送和重复利用。

另外,在可以将第一配置文件和第二配置文件进行保存的方案的基础上,本发明实施例提供的配置gpu的方法,还可以包括:

当接收到用户从已保存的第一配置文件和已保存的第二配置文件中,选择目标第一配置文件和目标第二配置文件进行导入的指令时,将目标第一配置文件和目标第二配置文件发送至gpu,以使gpu应用该目标第一配置文件中的工作数据和该目标第二配置文件中的工作数据。

在实际应用中,gpu管理客户端中可以提供有导入第一配置文件以及导入第二配置文件的选项;当用户从已保存的第一配置文件和已保存的第二配置文件中,选中目标第一配置文件和目标第二配置文件并点击该选项时,则gpu管理客户端接收到指令,相应的执行导入配置文件的步骤。

为了方案清楚,采用图2对本发明实施例提供的另一种配置gpu的方法进行说明,如图2所示,该方法包含两个分支,其中,在左侧的分支中,可以包括以下步骤:

s201:接收用户在gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数;其中,各项配置参数包括:与gpu执行运算相关的各项数据信息以及各项gpu配置信息;

s202:根据所接收的各项gpu配置信息,生成gpu驱动可识别的第一配置文件,并根据所接收的各项数据信息,生成gpu驱动可识别的第二配置文件;

s203:将生成的第一配置文件和第二配置文件发送至gpu,以使gpu应用第一配置文件中的工作数据和第二配置文件中的工作数据;

s204:保存生成的第一配置文件和第二配置文件。

其中,步骤s201-s203的具体实现方式,在上文中已经进行过详细描述,此处不再赘述;另外,从图2中可以看到,步骤s204可以在步骤s202执行完毕后执行,也可以在步骤s203执行完毕后执行。

如图2所示,在右侧的分支中,可以包括以下步骤:

s211:接收用户从已保存的第一配置文件和已保存的第二配置文件中,选择目标第一配置文件和目标第二配置文件进行导入的指令;

s212:将目标第一配置文件和目标第二配置文件发送至gpu,以使gpu应用目标第一配置文件中的工作数据和目标第二配置文件中的工作数据。

其中,在步骤s211中,已保存的第一配置文件和已保存的第二配置文件,可以是左侧分支中所预先保存的第一配置文件和第二配置文件,也可以是预先通过共享等途径所直接获取的第一配置文件和第二配置文件。可以理解的是,步骤s211中已保存的第一配置文件可以有一个或多个,已保存的第二配置文件也可以有一个或多个。

以上,为对本发明实施例提供的配置gpu的方法所进行的全部说明。

相应于上述的配置gpu的方法,本发明实施例还提供了一种配置gpu的装置,应用于gpu管理客户端,所述装置包括:

接收模块301,用于接收用户在所述gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数;

生成模块302,用于根据所述各项配置参数,生成gpu驱动可识别的工作数据;

发送模块303,用于将生成的工作数据发送至gpu,以使gpu应用所述工作数据。

可选地,所述生成模块302,包括确定子模块和生成子模块;

所述确定子模块,用于根据预设的对应关系,确定各项配置参数所分别对应的、gpu驱动可识别的工作数据的生成方法;其中,所述对应关系为:配置参数与gpu驱动可识别的工作数据的生成方法的对应关系;

所述生成子模块,用于针对每项配置参数,以该项配置参数作为对应的生成方法的输入参数,生成该项配置参数对应的gpu驱动可识别的工作数据。

可选地,所述各项配置参数包括:与gpu执行运算相关的各项数据信息以及各项gpu配置信息。

可选地,所述装置还包括:封装模块和配置文件生成模块;

所述封装模块,用于在所述发送模块303将生成的工作数据发送至gpu,以使gpu应用所述工作数据之前,将所生成的工作数据中,与所述gpu配置信息对应的工作数据进行封装,得到第一封装数据,并将所生成的工作数据中,与所述数据信息对应的工作数据进行封装,得到第二封装数据;

所述配置文件生成模块,用于根据所述第一封装数据,生成gpu驱动可识别的第一配置文件,并根据所述第二封装数据,生成gpu驱动可识别的第二配置文件;

所述发送模块303,将生成的工作数据发送至gpu,以使gpu应用所述工作数据,包括:

将所述第一配置文件和所述第二配置文件发送至gpu,以使gpu应用所述第一配置文件中的工作数据和所述第二配置文件中的工作数据。

可选地,本发明实施例提供的配置gpu的装置,还可以包括:保存模块;

所述保存模块,用于保存所述第一配置文件和所述第二配置文件。

可选地,本发明实施例提供的配置gpu的装置,还可以包括:导入模块;

所述导入模块,用于当接收到用户从已保存的第一配置文件和已保存的第二配置文件中,选择目标第一配置文件和目标第二配置文件进行导入的指令时,将所述目标第一配置文件和所述目标第二配置文件发送至gpu,以使gpu应用所述目标第一配置文件中的工作数据和所述目标第二配置文件中的工作数据。

可选地,所述各项gpu配置信息包括:

gpu工作时的开机画面、gpu工作时的告警画面、gpu工作时所需的硬件资源以及gpu所支持的图形处理类型。

本发明实施例提供的配置gpu的装置,接收用户在gpu管理客户端的gpu配置界面中设置的、与gpu工作相关的各项配置参数;根据各项配置参数,生成gpu驱动可识别的工作数据;将生成的工作数据发送至gpu,以使gpu应用这些工作数据。在这个过程中,用户不需要考虑程序所涉及信息,且无需考虑程序的执行顺序对程序所涉及参数的配置顺序的影响,因此,本方案中配置gpu的过程较为精简,耗时较短,提高了gpu的配置效率。并且,本方案还可以降低对用户的编程专业性的要求。

本发明实施例还提供了一种电子设备,如图4所示,包括处理器401、通信接口402、存储器403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信,

存储器403,用于存放计算机程序;

处理器401,用于执行存储器403上所存放的程序时,实现上述任一配置gpu的方法所述的方法步骤。

上述电子设备提到的通信总线可以是外设部件互连标准(peripheralcomponentinterconnect,pci)总线或扩展工业标准结构(extendedindustrystandardarchitecture,eisa)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

通信接口用于上述电子设备与其他设备之间的通信。

存储器可以包括随机存取存储器(randomaccessmemory,ram),也可以包括非易失性存储器(non-volatilememory,nvm),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。

上述的处理器可以是通用处理器,包括中央处理器(centralprocessingunit,cpu)、网络处理器(networkprocessor,np)等;还可以是数字信号处理器(digitalsignalprocessing,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。

本发明还提供了一种计算机可读存储介质。在该计算机可读存储介质中存储有计算机程序,计算机程序被处理器执行时,实现上述任一实施例所述的配置gpu的方法。

可选地,该计算机可读存储介质可以为非易失性存储器(non-volatilememory,nvm),例如为至少一个磁盘存储器。

可选的,所述计算机可读存储器还可以是至少一个位于远离前述处理器的存储装置。

对于装置/电子设备/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行接合和组合。

尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。

本申请是参照本申请实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1