AI模型的包装方法、平台及电子设备与流程

文档序号:21100032发布日期:2020-06-16 20:43阅读:521来源:国知局
技术简介:
本专利针对传统AI模型部署复杂、学习成本高、产品化效率低的问题,提出通过预设打包接口按编程语言封装模型,结合服务框架选择与输入输出标准匹配的集成方案,将模型嵌入生成Docker镜像,实现标准化部署。该方法降低算法研究员学习门槛,提升模型产品化速度。
关键词:AI模型包装,服务框架集成,Docker镜像部署

本发明涉及人工智能技术领域,尤其是涉及一种ai模型的包装方法、平台及电子设备。



背景技术:

随着科技的快速发展,全球已经逐渐进入人工智能(artificialintelligence,简称ai)时代。ai作为一种应用技术,如何将ai模型快速转化为产品,从而实现商业落地,这将是目前在人工智能领域所要解决的迫切问题。

ai算法研究员使用深度学习框架对待解决的问题进行建模,然后对模型进行调参、训练,最后构建出一个可以解决实际问题的ai模型。但是,ai算法研究员训练好的ai模型,一般没办法直接产品化,不能直接使用,一般采用以下两种方案实现ai模型产品化,然后对外提供服务:1、将ai模型在物理机上部署,对外提供网络访问接口;2、将ai模型打包,嵌入宿主项目工程中,供宿主项目本地调用。

ai算法研究员一般不具备ai模型产品化的工程技术背景,ai模型产品化的工作一般由ai工程师完成的。ai工程师可能不具备ai模型算法的背景知识,对ai模型不熟悉或者在产品化过程中没办法对ai模型内部机制进行优化,可能需要花费大量的时间与ai算法研究员进行沟通,两者之间的工作需要保持紧密的联系,这将会导致ai模型产品化的进度缓慢。



技术实现要素:

本发明的目的在于提供一种ai模型的包装方法、平台及电子设备,以缓解ai模型产品化的进度缓慢的技术问题。

第一方面,本申请实施例提供了一种ai模型的包装方法,包括:

根据待包装的ai模型的编程语言,利用预设的打包接口对所述ai模型进行打包处理;

响应来自用户的选取指令,从服务框架备选库中选取服务框架,并确定与所述ai模型相匹配的输入输出标准;

将已打包处理的所述ai模型嵌入所述服务框架中。

在一个可能的实现方式中,所述将已打包处理的所述ai模型嵌入所述服务框架中的步骤,包括:

将已打包处理的所述ai模型与所述服务框架进行打包,生成docker镜像;

将所述ai模型的路径参数保存至所述服务框架中,使所述服务框架通过所述路径参数调用所述ai模型。

在一个可能的实现方式中,在所述将已打包处理的所述ai模型嵌入所述服务框架中的步骤之后,还包括:

提供对外的访问接口,使客户通过所述访问接口调用所述ai模型。

在一个可能的实现方式中,所述根据待包装的ai模型的编程语言,利用预设的打包接口对所述ai模型进行打包处理的步骤,包括:

响应来自用户的选择指令,选择待包装的ai模型;

确定所述ai模型的编程语言;

利用与所述ai模型的编程语言对应的打包接口对所述ai模型进行打包处理。

在一个可能的实现方式中,当所述ai模型的编程语言为python语言时,所述利用与所述ai模型的编程语言对应的打包接口对所述ai模型进行打包处理的步骤,包括:

基于预设的pythonlib库,将所述ai模型打包进入所述pythonlib库。

在一个可能的实现方式中,当所述ai模型的编程语言为c++语言时,所述利用与所述ai模型的编程语言对应的打包接口对所述ai模型进行打包处理的步骤,包括:

基于预设的编译模块,将所述ai模型进行编译,生成动态链接库。

在一个可能的实现方式中,在所述根据待包装的ai模型的编程语言,利用预设的打包接口对所述ai模型进行打包处理的步骤之后,还包括:

响应来自用户的标注指令,对已打包处理的所述ai模型标注属性信息;

将所述ai模型的属性信息保存至管理模块。

在一个可能的实现方式中,在所述根据待包装的ai模型的编程语言,利用预设的打包接口对所述ai模型进行打包处理的步骤之前,还包括:

响应来自用户的初始化指令,提供深度学习框架;

响应来自用户的训练指令,将所述深度学习框架训练成为ai模型。

在一个可能的实现方式中,所述服务框架备选库中包括http框架、rpc框架或ajax框架。

第二方面,本申请实施例提供了一种ai模型的包装平台,包括:

打包模块,用于根据待包装的ai模型的编程语言,利用预设的打包接口对所述ai模型进行打包处理;

选取模块,用于响应来自用户的选取指令,从服务框架备选库中选取服务框架,并确定与所述ai模型相匹配的输入输出标准;

嵌入模块,用于将已打包处理的所述ai模型嵌入所述服务框架中。

第三方面,本申请实施例提供了一种电子设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述ai模型的包装方法的步骤。

第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有机器可运行指令,所述计算机可运行指令在被处理器调用和运行时,所述计算机可运行指令促使所述处理器运行所述ai模型的包装方法。

本申请实施例提供的ai模型的包装方法中,首先针对ai模型的编程语言,利用相应的打包接口对所述ai模型进行打包处理;然后用户可以从服务框架备选库中选取服务框架,并确定与所述ai模型相匹配的输入输出标准,最后将已打包处理的ai模型嵌入所述服务框架中。因为本申请实施例中预先设置了服务框架备选库,所以ai算法研究员作为用户,能够方便的选择服务框架,并确定输入输出标准,不需要具备很多的工程技术知识,就可方便快捷的实现ai模型产品化,降低了ai算法研究员的学习成本,提高了ai模型产品化的速度。

为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。

附图说明

为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的ai模型的包装方法的流程图;

图2为本发明实施例提供的ai模型的包装方法的另一流程图;

图3为本发明实施例提供的ai模型的包装方法中步骤s203的详细流程图;

图4为本发明实施例提供的ai模型的包装平台的示意图;

图5为本发明实施例提供的电子设备的示意图。

具体实施方式

下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本申请实施例中所提到的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括其他没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。

如何将ai模型快速转化为产品,是人工智能领域所要解决的迫切问题。目前,对于ai模型的产品化,一般是通过以下操作流程:

ai算法研究员引入通用深度学习框架,在本地准备需要训练的数据,然后对初始模型进行训练、参数调整等,构建出一个可以解决实际问题的ai模型。ai算法研究员按照业务需求定义模型的输入和输出,完成简单的输入输出逻辑,再将包含ai模型的代码分享给ai工程师。然后ai工程师将代码嵌入自己的服务框架代码中,并将服务部署在物理机或者云上,对外提供服务。该服务的用户(ai模型的需求方)可以调用服务框架的对外服务接口,实现ai产品落地。

另外,有些ai模型被ai算法研究员训练完成后,可能没办法直接观察ai模型的效果,这可能需要ai工程师进行配置,将模型和现有的实际问题结合起来。以视觉类ai模型为例来说,ai算法研究员训练出人的眉眼表情等ai模型,交付给ai工程师。ai工程师将训练好的ai模型嵌入已经编写好的人脸unity工程框架中,在unity中对这些ai模型进行测试。如果发现效果不好,ai算法研究员可能需要调整参数或重新训练ai模型。ai算法研究员将ai模型重新训练好后,再交付给ai工程师。

以上过程需要经过多次重复,才能实现ai产品的落地。因此,一个ai算法研究员往往需要和一个ai工程师捆绑,而ai工程师手里可能有其他紧急的工作,就会延误ai算法研究员对模型训练的进度。

上述的操作流程,存在很多难点与不足,具体如下:

1、ai工程师对ai模型服务化的操作较为繁琐,需要ai工程师对ai模型熟悉,导入各种依赖包,然后对输入输出数据进行转码、编码操作,测试较为复杂。

2、ai模型在不同场景下,对外提供的服务方式不同,有的ai模型需要rpc接口,有的ai模型需要http接口,这无疑增加了开发难度。并且,ai模型的逻辑可能需要适配不同的协议接口,这时又需ai算法研究员修改模型代码,接着,ai工程师对新的ai模型按照新的模型进行编码。以上步骤会经过多次重复操作,这无疑延误了项目进度。

3、需要训练的数据存储在本地物理机上,有单点丢失的风险,并且不易于管理维护,对某些模型,数据至关重要,并且很难获取。

4、每个ai算法研究员可能技术背景各不相同,编写的逻辑代码风格各异,ai工程师对ai模型进行服务化的时候,实施起来难度较大,沟通成本较高。

5、模型测试期间,迭代可能会很快,如果ai算法研究员的逻辑编码结构风格变化较大,原有ai工程师设计的服务框架将不再适用,从而又增加服务部署的成本,同时也耽搁了算法ai算法研究员模型测试的进度。

6、因为ai模型经常迭代,但迭代前的版本并不是无用模型,也可能适用于其他业务场景。因此,如果仅仅从代码拷贝或者代码管理仓库的方式对ai模型进行代码管理,这样对模型服务化的进度会很低效。

7、ai工程师对ai算法研究员的模型代码进行服务化后,需要将服务部署到物理机上,考虑到负载均衡,可能部署到多台机器上,那就会在多台机器上操作同样的步骤,过程繁琐,且出现操作错误的概率很大;并且在物理机上,资源无法隔离,可能不同服务之间会互相影响,有很大隐患。

为优化以上问题,本发明实施例提供了一种ai模型的包装方法,可应用于ai模型的包装平台。如图1所示,该方法包括以下步骤:

s101:根据待包装的ai模型的编程语言,利用预设的打包接口对ai模型进行打包处理。

本发明实施例的ai模型的包装平台,提供了多种预设的打包接口供ai算法研究员(用户)选择,例如c++、python等。ai算法研究员选择好编程语言后,即可调用相应的打包接口,对ai模型进行打包处理。

s102:响应来自用户的选取指令,从服务框架备选库中选取服务框架,并确定与ai模型相匹配的输入输出标准。

该ai模型的包装平台,设置有服务框架备选库,其中提供了多种通用服务框架供ai算法研究员选择,如同步框架、异步框架、http框架、rpc框架等。ai算法研究员可以从服务框架备选库中选取所需的服务框架,并自定义服务框架的输入输出标准,使之与ai模型相匹配。

s103:将已打包处理的ai模型嵌入服务框架中。

配置好服务框架的输入输出标准之后,ai算法研究员就可以将步骤s101中已打包处理的ai模型嵌入服务框架中,使ai模型能够对外服务,实现ai模型产品化。

本方面实施例提供的ai模型的包装方法中,首先针对ai模型的编程语言,利用相应的打包接口对所述ai模型进行打包处理;然后用户可以从服务框架备选库中选取服务框架,并确定与所述ai模型相匹配的输入输出标准,最后将已打包处理的ai模型嵌入所述服务框架中。因为本申请实施例中预先设置了服务框架备选库,所以ai算法研究员作为用户,能够方便的选择服务框架,并确定输入输出标准,不需要具备很多的工程技术知识,就可方便快捷的实现ai模型产品化,降低了ai算法研究员的学习成本,提高了ai模型产品化的速度。

本发明实施例还提供了该ai模型的包装方法的另一实施方式,可应用于ai模型的包装平台。如图2所示,该方法包括以下步骤:

s201:响应来自用户的初始化指令,提供深度学习框架。

本发明实施例的ai模型的包装平台,提供了多种主流的深度学习框架,例如tensorflow、caffe、pytorch等。包装平台可接收来自ai算法研究员(用户)的初始化指令,并提供相应的深度学习平台。

这样ai算法研究员可在包装平台上构建独占的工作空间,将准备训练的数据导入包装平台,包装平台底层搭建分布式文件系统,ai算法研究员可选择数据的备份数,这份数据由该ai算法研究员独占,并且只有该ai算法研究员和其赋有权限的用户对这份数据可读可写,避免了数据丢失的风险。

s202:响应来自用户的训练指令,将深度学习框架训练成为ai模型。

ai算法研究员可在包装平台上输入各种训练指令,从而利用包装平台将深度学习框架训练成为所需的ai模型,解决了ai算法研究员寻找、内嵌深度学习框架的难点,帮助ai算法研究员快速训练出成型的ai模型。

具体示例如下:

ai算法研究员首先在包装平台提供的训练界面上设定网络结构、网络深度以及网络宽度等参数,构建基础的ai模型。然后ai算法研究员可在基础的ai模型上,设定ai模型的结构、深度、宽度的初始值,在工作空间内选择已导入的训练样本等训练数据,并不断调整参数。

经过以上训练过程即可完成ai模型的训练,ai算法研究员将训练好的ai模型进行存档,为后续的产品化提供基础。另外,ai算法研究员还可以在包装平台上设定输入和输出样式,对存档中的ai模型进行定制。

s203:根据待包装的ai模型的编程语言,利用预设的打包接口对ai模型进行打包处理。

本发明实施例的ai模型的包装平台,提供了多种预设的打包接口供ai算法研究员选择,例如c++、python等。ai算法研究员选择好编程语言后,即可调用相应的打包接口,对ai模型进行打包处理。如图3所示,具体可包括以下步骤:

s2031:响应来自用户的选择指令,选择待包装的ai模型。

ai算法研究员通过在包装平台上输入选择指令,在独占的工作空间中选择需要自己已经构建的ai模型,作为待包装的ai模型。

s2032:确定ai模型的编程语言。

ai算法研究员还可以继续在包装平台上选择构建的编程语言,例如c++、python等。

除了以上由ai算法研究员自行输入选择以外,也可以由包装平台自动识别待包装的ai模型的编程语言。

s2033:利用与ai模型的编程语言对应的打包接口对ai模型进行打包处理。

当ai模型的编程语言为python语言时,本步骤s2033具体包括:

基于预设的pythonlib库,将ai模型打包进入pythonlib库。python具有强大的标准库,python语言的核心只包含数字、字符串、列表、字典、文件等常见类型和函数,而由python标准库提供了系统管理、网络通信、文本处理、数据库接口、图形系统、xml处理等额外的功能。python标准库命名接口清晰,很容易学习和使用。

另外,python社区提供了大量的第三方模块,使用方式与标准库类似,例如科学计算、web开发、数据库接口、图形系统等领域。第三方模块可以使用python或者c语言编写。借助于拥有基于标准库的大量工具、能够使用低级语言和可以作为其他库接口的c++语音,python可用于其他语言与工具之间的胶水语言。

当ai模型的编程语言为c++语言时,本步骤s2033具体包括:

基于预设的编译模块,将ai模型进行编译,生成动态链接库。库提供一些可以给别的程序调用的内容,别的程序要调用它必须以某种方式指明它要调用。动态链接库可以理解为将源代码编译成目标代码后打成的库。该目标代码库可被其他进程在执行时动态调用。

c++语言是c语言的继承,它既可以进行c语言的过程化程序设计,又可以进行以抽象数据类型为特点的基于对象的程序设计,还可以进行以继承和多态为特点的面向对象的程序设计。c++擅长面向对象程序设计的同时,还可以进行基于过程的程序设计。c++不仅拥有计算机高效运行的实用性特征,同时提高了大规模程序的编程质量与程序设计语言的问题描述能力。

除c++、python之外,包装平台也能对其他编程语言的ai模型进行打包处理,在此不再一一详细描述。因为目前的ai模型大部分都是采用python或c++等语言编写的,所以利用包装平台提供的打包接口,ai算法研究员只需调用对应的打包接口就可以将训练好的ai模型进行打包处理。

在本实施例一个可能的实现方式中,在上述步骤s203之后,还包括以下步骤:

s204:响应来自用户的标注指令,对已打包处理的ai模型标注属性信息。

本发明实施例的包装平台基于ai模型不同的特性,提供了版本管理接口。基于ai模型的打包设计,ai算法研究员可以在包装平台上输入标注指令,对已打包处理的ai模型进行自定义版本号,还可对该版本进行注解注释等属性信息,方便ai算法研究员对ai模型的服务进行回溯。通过将ai算法研究员训练出来的ai模型在包装平台上按版本进行存储,不同版本对应不同的特性。这样既方便ai算法研究员对产品进行迭代,又可解决ai算法研究员管理ai模型的版本杂乱的难点。

s205:将ai模型的属性信息保存至管理模块。

ai模型的属性信息保存至包装平台的管理模块后,就可以基于ai模型的指定版本以及功能特性等属性信息,对ai模型按版本进行管理。这里的版本管理与代码管理有所不同,ai模型版本控制,针对的主体是独立的打包处理后的ai模型本身,并且可以以docker镜像的形式作为版本管理的基础。

docker的镜像概念类似于虚拟机里的镜像,是一个只读的模板,一个独立的文件系统,包括运行容器所需的数据,可以用来创建新的容器。例如:一个镜像可以包含一个完整的ubuntu操作系统环境,里面仅安装了mysql或用户需要的其它应用程序。也就是说,镜像是只读的,也可以理解为静态文件。

docker的镜像实际上由一层一层的文件系统组成,这种层级的文件系统被称为unionfs。镜像可以基于dockerfile构建,dockerfile是一个描述文件,里面包含若干条命令,每条命令都会对基础文件系统创建新的层次结构。

s206:响应来自用户的选取指令,从服务框架备选库中选取服务框架,并确定与ai模型相匹配的输入输出标准。

在一个可能的实现方式中,服务框架备选库中包括同步框架、异步框架、http框架、rpc框架或ajax框架。ai算法研究员可以根据实际应用场景,从服务框架备选库中选取所需的服务框架,并自定义服务框架的输入输出标准,使之与ai模型相匹配。

s207:将已打包处理的ai模型嵌入服务框架中。

ai算法研究员在包装平台的独占的工作空间选择需要产品化并已经打包处理后的ai模型,然后ai算法研究员在包装平台上选择所需的服务框架,这些服务框架是预先由ai工程师编写并内嵌至平台中的。ai算法研究员点击构建按钮,包装平台将打包处理后的ai模型嵌入服务框架中。

具体的,ai算法研究员利益包装平台将已打包处理的ai模型与服务框架进行打包,生成docker镜像,也就是将服务框架和ai模型打包为一个docker镜像。

将ai模型的路径参数保存至服务框架中,使服务框架通过路径参数调用ai模型。其中,路径参数可不可存储路径或者依赖信息,将ai模型的存储路径或者依赖信息作为路径参数保存至服务框架中后,服务框架内部可以通过路径参数调用该ai模型,然后进行对外服务。最后,按照ai模型打包处理后的输入输出标准,构建对外服务。

采用本发明实施例提供的ai模型的包装方法,ai算法研究员能够方便的选择服务框架,并确定输入输出标准,不需要具备很多的工程技术知识,就可方便快捷的实现ai模型产品化,降低了ai算法研究员的学习成本,提高了ai模型产品化的速度。

同时,ai工程师也不需要对ai模型熟悉,省去了ai算法研究员与ai工程师之间的反复调试,简化了ai模型产品化的测试过程。

在一个可能的实现方式中,该方法还包括以下步骤:

s208:提供对外的访问接口,使客户通过访问接口调用ai模型。

ai模型完成产品化后,包装平台对外提供ai模型服务的访问接口,客户(ai模型的使用方)可通过该访问接口实现ai模型功能的调用,从而方便快捷的实现ai模型的服务应用。其中,访问接口提供加密和非加密网络协议,同时也在ai模型内部支持同步机制或异步机制。将ai模型的服务在包装平台上进行统一管理,同时对ai模型的服务进行监控,当已服务化的ai模型在平台上出现任何异常,例如内存使用剧增等,就可根据配置的资源参数对服务进行自诊自愈,使ai模型的服务具有了自愈、稳定等特性。

本发明实施例还提供了一种ai模型的包装平台,用于对ai模型的训练、打包、包装、管理等。如图4所示,该ai模型的包装平台包括:

打包模块402,用于根据待包装的ai模型的编程语言,利用预设的打包接口对ai模型进行打包处理。

选取模块403,用于响应来自用户的选取指令,从服务框架备选库中选取服务框架,并确定与ai模型相匹配的输入输出标准。

嵌入模块404,用于将已打包处理的ai模型嵌入服务框架中。

在一种实施方式中,嵌入模块404具体用于:

将已打包处理的ai模型与服务框架进行打包,生成docker镜像;将ai模型的路径参数保存至服务框架中,使服务框架通过路径参数调用ai模型。

在一种实施方式中,该ai模型的包装平台还包括:

接口模块406,用于提供对外的访问接口,使客户通过访问接口调用ai模型。

在一种实施方式中,打包模块402具体用于:

响应来自用户的选择指令,选择待包装的ai模型;确定ai模型的编程语言;利用与ai模型的编程语言对应的打包接口对ai模型进行打包处理。

当ai模型的编程语言为python语言时,打包模块402基于预设的pythonlib库,将ai模型打包进入pythonlib库。

当ai模型的编程语言为c++语言时,打包模块402基于预设的编译模块,将ai模型进行编译,生成动态链接库。

在一种实施方式中,该ai模型的包装平台还包括:

管理模块405,用于响应来自用户的标注指令,对已打包处理的ai模型标注属性信息;将ai模型的属性信息进行保存。

在一种实施方式中,该ai模型的包装平台还包括:

训练模块401,用于响应来自用户的初始化指令,提供深度学习框架;响应来自用户的训练指令,将深度学习框架训练成为ai模型。

本发明实施例提供的ai模型的包装平台,与上述本发明实施例提供的ai模型的包装方法具有相同或相对应的技术特征,因此也能解决相同的技术问题,达到相同的技术效果。

如图5所示,本发明实施例还提供一种电子设备,电子终端500包括存储器501、处理器502,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述实施例提供的ai模型的包装方法的步骤。

参见图5,电子设备还包括:总线503和通信接口504,处理器502、通信接口504和存储器501通过总线503连接;处理器502用于执行存储器501中存储的可执行模块,例如计算机程序。

其中,存储器501可能包含高速随机存取存储器(randomaccessmemory,简称ram),也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。通过至少一个通信接口504(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。

总线503可以是isa总线、pci总线或eisa总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。

其中,存储器501用于存储程序,所述处理器502在接收到执行指令后,执行所述程序,前述本申请任一实施例揭示的过程定义的装置所执行的方法可以应用于处理器502中,或者由处理器502实现。

处理器502可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器502中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器502可以是通用处理器,包括中央处理器(centralprocessingunit,简称cpu)、网络处理器(networkprocessor,简称np)等;还可以是数字信号处理器(digitalsignalprocessing,简称dsp)、专用集成电路(applicationspecificintegratedcircuit,简称asic)、现成可编程门阵列(field-programmablegatearray,简称fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器501,处理器502读取存储器501中的信息,结合其硬件完成上述方法的步骤。

本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有机器可运行指令,计算机可运行指令在被处理器调用和运行时,计算机可运行指令促使处理器运行上述ai模型的包装方法。

在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。

在本发明所提供的几个实施例中,应该理解到,所公开的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

当前第1页1 2 
网友询问留言 留言:0条
  • 还没有人留言评论。精彩留言会获得点赞!