用于生成模型的方法和装置、用于识别信息的方法和装置与流程

文档序号:15853448发布日期:2018-11-07 10:33阅读:127来源:国知局
用于生成模型的方法和装置、用于识别信息的方法和装置与流程

本申请实施例涉及计算机技术领域,具体涉及用于生成模型的方法和装置、用于识别信息的方法和装置。

背景技术

随着深度学习逐渐被各行各业采用,通用的深度学习模型往往无法满足用户的定制化的ai(artificialintelligence,人工智能)需求。越来越多的用户会使用特定的数据,定制化训练自己的模型以适应特定的场景,如图像分类、物体检测、视频分析、声音识别、声纹识别等等。由于现有的模型生成工具通常支持有限的硬件设备,因此,用户利用现有的模型生成工具生成的模型往往适用于特定的硬件设备,而无法适用于除该特定的硬件设备以外的设备。



技术实现要素:

本申请实施例提出了用于生成模型的方法和装置、用于识别信息的方法和装置。

第一方面,本申请实施例提供了一种用于生成模型的方法,该方法包括:获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息;基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型;基于经转换后的模型生成用于进行深度学习预测的模型。

在一些实施例中,设备信息包括异构计算芯片类型标识和指令集版本;以及基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,包括:获取预置的与异构计算芯片类型标识和指令集版本相关联的参数转换模板和算子转换模板;对于待转换模型所包括的层,基于拓扑结构描述信息解析该层中的参数和算子,基于参数转换模板对该层中的参数进行转换,以及基于算子转换模板对该层中的算子进行转换。

在一些实施例中,基于经转换后的模型生成用于进行深度学习预测的模型,包括:响应于检测到模型压缩指令,对经转换后的模型进行模型压缩指令所指示的压缩操作,得到经压缩后的模型,将经压缩后的模型作为用于进行深度学习预测的模型;其中,模型压缩指令响应于预设的模型压缩选项被选中而生成,模型压缩选项包括以下至少一项:用于指示降低参数的精度的第一模型压缩选项、用于指示对模型中的层进行合并或裁剪的第二模型压缩选项、用于指示对模型的参数进行裁剪的第三模型压缩选项。

在一些实施例中,上述方法还包括:向用户提供与目标设备相应的软件开发工具包,其中,软件开发工具包用于提供与用于进行深度学习预测的模型相关联的模型预测接口。

在一些实施例中,上述方法还包括:生成与目标设备相应的、集成有用于进行深度学习预测的模型的应用。

第二方面,本申请实施例提供了一种用于识别信息的方法,该方法包括:响应于接收到与采用如第一方面中任一实现方式描述的方法生成的用于进行深度学习预测的模型相关联的待识别信息,确定当前所处的预测模式,其中,预测模式包括用于指示在目标设备本地进行预测的离线预测模式,目标设备是用于进行深度学习预测的模型所在的设备;响应于确定当前处于离线预测模式,利用用于进行深度学习预测的模型对待识别信息进行识别。

在一些实施例中,预测模式还包括混合模式,混合模式用于指示基于网络状况选取进行在线预测或离线预测;以及上述方法还包括:响应于确定当前处于混合模式,确定目标设备当前是否与云服务器通信连接;响应于确定目标设备当前未与云服务器通信连接,利用用于进行深度学习预测的模型对待识别信息进行识别。

在一些实施例中,在利用用于进行深度学习预测的模型对待识别信息进行识别之前,上述方法还包括:响应于检测到计算加速指令,基于预设的目标设备的设备信息,确定目标设备是否包括与计算加速指令相关联的异构计算芯片,其中计算加速指令响应于预设的计算加速选项被选中而生成,计算加速选项包括以下至少一项:用于指示调用网络处理器进行计算加速的第一计算加速选项、用于指示调用图形处理器进行计算加速的第二计算加速选项、用于指示调用现场可编程门阵列进行计算加速的第三计算加速选项;响应于确定目标设备包括异构计算芯片,将用于进行深度学习预测的模型中的与异构计算芯片相关联的层的运算调度至异构计算芯片上执行。

第三方面,本申请实施例提供了一种用于生成模型的装置,该装置包括:获取单元,被配置成获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息;转换单元,被配置成基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型;生成单元,被配置成基于经转换后的模型生成用于进行深度学习预测的模型。

在一些实施例中,设备信息包括异构计算芯片类型标识和指令集版本;以及转换单元进一步被配置成:获取预置的与异构计算芯片类型标识和指令集版本相关联的参数转换模板和算子转换模板;对于待转换模型所包括的层,基于拓扑结构描述信息解析该层中的参数和算子,基于参数转换模板对该层中的参数进行转换,以及基于算子转换模板对该层中的算子进行转换。

在一些实施例中,生成单元进一步被配置成:响应于检测到模型压缩指令,对经转换后的模型进行模型压缩指令所指示的压缩操作,得到经压缩后的模型,将经压缩后的模型作为用于进行深度学习预测的模型;其中,模型压缩指令响应于预设的模型压缩选项被选中而生成,模型压缩选项包括以下至少一项:用于指示降低参数的精度的第一模型压缩选项、用于指示对模型中的层进行合并或裁剪的第二模型压缩选项、用于指示对模型的参数进行裁剪的第三模型压缩选项。

在一些实施例中,上述装置还包括:软件开发工具包提供单元,被配置成向用户提供与目标设备相应的软件开发工具包,其中,软件开发工具包用于提供与用于进行深度学习预测的模型相关联的模型预测接口。

在一些实施例中,上述装置还包括:第一生成单元,被配置成生成与目标设备相应的、集成有用于进行深度学习预测的模型的应用。

第四方面,本申请实施例提供了一种用于识别信息的装置,该装置包括:确定单元,被配置成响应于接收到与采用如第一方面中任一实现方式描述的方法生成的用于进行深度学习预测的模型相关联的待识别信息,确定当前所处的预测模式,其中,预测模式包括用于指示在目标设备本地进行预测的离线预测模式,目标设备是用于进行深度学习预测的模型所在的设备;识别单元,被配置成响应于确定当前处于离线预测模式,利用用于进行深度学习预测的模型对待识别信息进行识别。

在一些实施例中,预测模式还包括混合模式,混合模式用于指示基于网络状况选取进行在线预测或离线预测;以及上述装置还包括:第一确定单元,被配置成响应于确定当前处于混合模式,确定目标设备当前是否与云服务器通信连接;第一识别单元,被配置成响应于确定目标设备当前未与云服务器通信连接,利用用于进行深度学习预测的模型对待识别信息进行识别。

在一些实施例中,上述装置还包括:第二确定单元,被配置成响应于检测到计算加速指令,基于预设的目标设备的设备信息,确定目标设备是否包括与计算加速指令相关联的异构计算芯片,其中,计算加速指令响应于预设的计算加速选项被选中而生成,计算加速选项包括以下至少一项:用于指示调用网络处理器进行计算加速的第一计算加速选项、用于指示调用图形处理器进行计算加速的第二计算加速选项、用于指示调用现场可编程门阵列进行计算加速的第三计算加速选项;调度单元,被配置成响应于确定目标设备包括异构计算芯片,将用于进行深度学习预测的模型中的与异构计算芯片相关联的层的运算调度至异构计算芯片上执行。

第五方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当该一个或多个程序被该一个或多个处理器执行,使得该一个或多个处理器实现如第一方面中任一实现方式描述的方法和如第二方面中任一实现方式描述的方法。

第六方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面中任一实现方式描述的方法和如第二方面中任一实现方式描述的方法。

本申请实施例提供的用于生成模型的方法和装置,通过获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息,以便基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型,以及基于经转换后的模型生成适用于目标设备的用于进行深度学习预测的模型。实现了将现有的模型转换为能够适用于目标设备的用于进行深度学习预测的模型。

本申请实施例提供的用于识别信息的方法和装置,通过响应于接收到与采用如第一方面任一实现方式描述的方法所生成的用于进行深度学习预测的模型相关联的待识别信息,而确定当前所处的预测模式,可以在确定当前处于离线预测模式时利用该用于进行深度学习预测的模型对待识别信息进行识别。从而有效利用了对预测模式的设置,可以使用户预先选择所需的预测模式,进而实现了预测服务的定制化。例如,在检测到用户预先选择了离线预测模式时,在本地利用上述用于进行深度学习预测的模型对待识别信息进行识别。

附图说明

通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:

图1是本申请的一个实施例可以应用于其中的示例性系统架构图;

图2是根据本申请的用于生成模型的方法的一个实施例的流程图;

图3是根据本申请的用于生成模型的方法的一个应用场景的示意图;

图4是根据本申请的用于识别信息的方法的一个实施例的流程图;

图5是根据本申请的用于生成模型的装置的一个实施例的结构示意图;

图6是根据本申请的用于识别信息的装置的一个实施例的结构示意图;

图7是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。

具体实施方式

下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。

图1示出了可以应用本申请的用于生成模型的方法和装置、用于识别信息的方法和装置的示例性系统架构100。

如图1所示,系统架构100可以包括终端设备101,网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光线电缆等等。

用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送信息等。终端设备101上可以部署有深度学习预测框架,该框架可以提供适用于不同设备的库环境,还可以提供操作界面以供用户使用。终端设备101可以利用该深度学习预测框架来接收用户的模型生成请求(例如通过该操作界面发送的模型生成请求),并对该请求进行分析等处理。

终端设备101可以是硬件,也可以是软件。当终端设备101为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、手持扫描仪、麦克风阵列、摄像头等等。当终端设备101为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。

服务器103可以是提供各种服务的服务器,例如用于存储终端设备101所需的、经训练后的模型的服务器。另外,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。

需要说明的是,本申请实施例所提供的用于生成模型的方法和用于识别信息的方法一般由终端设备101执行。相应地,用于生成模型的装置和用于识别信息的装置一般设置于终端设备101中。

需要指出的是,若终端设备101所要获取的模型已预先存储在本地,则系统架构100可以不包括服务器103。

应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

继续参考图2,示出了根据本申请的用于生成模型的方法的一个实施例的流程200。该用于生成模型的方法,包括以下步骤:

步骤201,获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息。

在本实施例中,用于生成模型的方法的执行主体(例如图1所示的终端设备)可以接收用户的模型生成请求,并基于该模型生成请求获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息。其中,目标设备可以是上述执行主体本身或上述执行主体所在的电子设备。

上述模型生成请求可以包括待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息,因此,上述执行主体可以从上述模型生成请求获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息。可选地,上述模型生成请求可以包括待转换模型的标识和目标设备的设备信息,因此,上述执行主体可以从上述模型生成请求直接获取目标设备的设备信息,以及根据该标识从所连接的服务器(例如图1所示的服务器)获取待转换模型和待转换模型的拓扑结构描述信息。应该理解,本实施例不对待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息的获取方法做任何限定。

在本实施例中,待转换模型可以是任意类型的深度学习框架下的、经训练后的模型。深度学习框架的类型例如可以包括tensorflow、caffe、theano、keras等等。其中,tensorflow是相对高阶的机器学习库,用户可以方便地用它设计神经网络结构。caffe全称为convolutionalarchitectureforfastfeatureembedding,是一个被广泛使用的开源深度学习框架。theano是一个高性能的符号计算及深度学习库。keras是高度模块化的神经网络库,使用python(面向对象的解释型计算机程序设计语言)实现,并可以同时运行在tensorflow和theano上。

另外,待转换模型的拓扑结构描述信息可以是对待转换模型的拓扑结构进行描述的拓扑结构描述文件。以caffe深度学习框架为例,该框架下的待转换模型的拓扑结构描述信息可以是.proto文件。需要说明的是,不同的模型可以具有不同的拓扑结构。以卷积神经网络为例,卷积神经网络的拓扑结构例如可以包括输入层、卷积层、池化层、全连接层。

在本实施例中,目标设备的设备信息例如可以包括目标设备的指令集版本。另外,该设备信息在包括指令集版本的同时,还可以包括异构计算芯片类型标识(例如目标设备所采用的异构计算芯片的类型名称)。其中,异构计算芯片的类型例如可以包括gpu(graphicsprocessingunit,图形处理器)、fpga(fieldprogrammablegatearray,现场可编程门阵列)、npu(neural-networkprocessingunit,网络处理器)等等。

步骤202,基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型。

在本实施例中,上述执行主体可以基于待转换模型的拓扑结构描述信息和目标设备的设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型。该经转换后的模型在上述执行主体本地所部署的深度学习预测框架提供的适用于目标设备的库环境下可直接进行前向预测。

作为示例,上述执行主体本地可以预先安装有模型转换工具,上述执行主体可以将拓扑结构描述信息和设备信息发送至模型转换工具,以使模型转换工具对待转换模型的参数和算子进行转换,从而得到适用于目标设备的经转换后的模型。

再例如,上述执行主体本地可以预先存储有参数转换模板和算子转换模板。若目标设备的设备信息包括目标设备所采用的异构计算芯片的类型标识和目标设备的指令集版本,则上述执行主体可以先从本地获取与该异构计算芯片类型标识和指令集版本相关联的参数转换模板和算子转换模板。而后,对于待转换模型所包括的层,例如每一层,上述执行主体可以基于拓扑结构描述信息解析该层中的参数和算子,基于该参数转换模板对该层中的参数进行转换,以及基于该算子转换模板对该层中的算子进行转换。从而,上述执行主体可以得到适用于目标设备的经转换后的模型。

需要说明的是,对于与目标设备的设备信息中的异构计算芯片类型标识和指令集版本相关联的参数转换模板和算子转换模板,该参数转换模板可以用于表征待转换模型所在的原始深度学习框架下的模型的参数与上述适用于目标设备的库环境下的参数之间的映射关系,例如关于参数精度的映射关系。该算子转换模板可以用于表征该原始深度学习框架下的模型的算子与该库环境下的算子之间的映射关系。

步骤203,基于经转换后的模型生成用于进行深度学习预测的模型。

在本实施例中,上述执行主体可以基于经转换后的模型生成用于进行深度学习预测的模型。作为示例,上述执行主体可以直接将经转换后的模型作为用于进行深度学习预测的模型,以使用户在目标设备上利用该用于进行深度学习预测的模型进行相关的预测操作。例如,若用于进行深度学习预测的模型应用于声音识别场景,则用户可以利用该模型对待识别的语音信息进行识别。若用于进行深度学习预测的模型应用于人脸识别场景,则用于可以利用该模型对待识别的人脸图像进行识别。

需要说明的是,上述执行主体通过对待转换模型进行转换,而后基于经转换后的模型生成用于进行深度学习预测的模型,可以实现无缝、快速地对接不同的深度学习框架下的模型。通过对不同的深度学习框架下的模型进行优化,可以将该模型应用于用户的目标设备,扩展了该模型在硬件设备方面的应用范围。

实践中,受限于移动设备的硬件特性,为了解决经转换后的模型在移动设备上运行时体积过大、功耗过高、速度过慢等问题,需要对经转换后的模型进行压缩。因此,上述执行主体可以向用户提供模型压缩选项,以供用户通过选取模型压缩选项而触发模型压缩指令。上述执行主体可以实时检测模型压缩指令,并在响应于检测到模型压缩指令,而对经转换后的模型进行模型压缩指令所指示的压缩操作,得到经压缩后的模型。上述执行主体可以将经压缩后的模型作为用于进行深度学习预测的模型。需要指出的是,通过向用户提供模型压缩选项,不仅可以实现对经转换后的模型的压缩,而且还可以实现模型压缩服务的定制化。

其中,模型压缩选项可以包括以下至少一项:用于指示降低参数的精度的第一模型压缩选项、用于指示对模型中的层进行合并或裁剪的第二模型压缩选项、用于指示对模型的参数进行裁剪的第三模型压缩选项。

需要说明的是,上述执行主体本地可以预先安装有模型压缩工具,上述执行主体可以利用该模型压缩工具对经转换后的模型进行模型压缩指令所指示的压缩操作。

当然,上述执行主体也可以利用预设的、与接收到的压缩指令所对应的模型压缩选项相关联的压缩算法对经转换后的模型进行压缩操作。作为示例,假设该压缩指令所对应的模型压缩选项是上述第三模型压缩选项,上述执行主体可以对经转换后的模型进行以下压缩操作:从经转换后的模型的各层中选取至少一层作为待压缩层;按照待压缩层在经转换后的模型中所处的层级的层级数由大到小的顺序,依次对每个待压缩层执行以下处理步骤:基于该待压缩层所包括的参数的总数量确定裁剪比率,基于该裁剪比率和参数值阈值,从该待压缩层所包括的参数中选取参数进行裁剪,并利用机器学习方法,基于预置的训练样本对经裁剪后的模型进行训练;将对选取出的各个待压缩层进行上述处理步骤后所得的模型确定为经压缩后的模型。

需要说明的是,经转换后的模型的每层可以具有对应的层级数。作为示例,假设经转换后的模型包括一个输入层、一个隐藏层和一个输出层,该输入层可以处于经转换后的模型的第一层,该输入层的层级数可以是1;该隐藏层可以处于经转换后的模型的第二层,该隐藏层的层级数可以是2;该输出层可以处于经转换后的模型的第三层,该输出层的层级数可以是3。

另外,上述执行主体本地可以预先存储有数值范围集合,其中,每个数值范围可以对应有裁剪比率。对于每个待压缩层,上述执行主体可以先在该数值范围集合中查找该待压缩层所包括的参数的总数量所在的数值范围,并将该数值范围对应的裁剪比率确定为与该待压缩层对应的裁剪比率。

在本实施例的一些可选的实现方式中,上述执行主体在生成用于进行深度学习预测的模型后,可以向用户提供与目标设备相应的sdk(softwaredevelopmentkit,软件开发工具包)。其中,该sdk可以用于向用户提供与所生成的用于进行深度学习预测的模型相关联的模型预测接口,该接口是应用程序编程接口(applicationprogramminginterface,api)。用户可以通过调用该模型预测接口进行预测操作。另外,该sdk还可以向用户提供以下至少一种api:数据采集、数据预处理、结果后处理。

这里,上述执行主体可以将上述sdk的链接地址发送给用户,以供用户下载上述sdk。当然,上述执行主体也可以直接将上述sdk存储至本地,以供用户使用。

在本实施例的一些可选的实现方式中,上述执行主体还可以生成与目标设备相应的、集成有所生成的用于进行深度学习预测的模型的应用。上述执行主体可以将该应用的链接地址发送给用户,以供用户下载该应用。当然,上述执行主体也可以直接将该应用存储至本地,以供用户使用。需要说明的是,上述执行主体本地可以预先安装有应用生成工具。上述执行主体可以将目标设备的设备信息和所生成的用于进行深度学习预测的模型发送给该应用生成工具,以使该应用生成工具生成该应用。

需要说明的是,上述sdk可以是上述执行主体面向具有移动设备应用开发能力的开发者提供的。上述应用可以是上述执行主体面向缺乏移动设备开发能力的开发者提供的。在提供上述sdk或生成上述应用之前,上述执行主体可以先获取用于描述用户的开发能力的信息。而后上述执行主体可以基于该信息确定是向用户提供上述sdk,还是生成上述应用以及向用户提供上述应用。

在本实施例的一些可选的实现方式中,上述执行主体还可以向用户提供计算加速选项,以供用户选择在利用所生成的用于进行深度学习预测的模型进行预测操作时是否调用异构计算芯片进行计算加速。其中,计算加速选项可以包括以下至少一项:用于指示调用网络处理器进行计算加速的第一计算加速选项、用于指示调用图形处理器进行计算加速的第二计算加速选项、用于指示调用现场可编程门阵列进行计算加速的第三计算加速选项。这样,通过向用户提供计算加速选项,不仅可以实现预测过程中的计算加速,还可以实现计算加速服务的定制化。

继续参见图3,图3是根据本实施例的用于生成模型的方法的应用场景的一个示意图。在图3的应用场景中,用户所持有的智能手机上可以预先部署有深度学习预测框架。该框架可以提供适用于不同设备的库环境,包括适用于上述智能手机的库环境。而且该框架还可以向用户提供操作界面以供用户通过该操作界面发送模型生成指令。如标号301所示,响应于上述智能手机接收到用户通过上述操作界面发送的模型生成指令,上述智能手机可以基于上述模型生成指令,获取待转换模型、待转换模型的拓扑结构描述信息和上述智能手机的设备信息,其中,该设备信息可以包括指令集版本号和异构计算芯片类型名称。而后,如标号302所示,上述智能手机可以将待转换模型、待转换模型的拓扑结构描述信息和上述设备信息输入预先安装的模型转换工具,以使模型转换工具对待转换模型的参数和算子进行转换,得到在适用于上述智能手机的库环境下可直接进前向预测的经转换后的模型。之后,如标号303所示,上述智能手机可以检测与待转换模型相关联的模型压缩指令。最后,如标号304所示,响应于上述智能手机未检测到模型压缩指令,上述智能手机可以将经转换后的模型作为用于进行深度学习预测的模型。这样,用户可以在上述智能手机上利用该用于进行深度学习的模型进行相关的预测操作。

本申请的上述实施例提供的方法,通过获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息,以便基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型,以及基于经转换后的模型生成适用于目标设备的用于进行深度学习预测的模型。实现了将现有的模型转换为能够适用于目标设备的用于进行深度学习预测的模型。

进一步参考图4,其示出了用于识别信息的方法的一个实施例的流程400。该用于识别信息的方法的流程400,包括以下步骤:

步骤401,响应于接收到与用于进行深度学习预测的模型相关联的待识别信息,确定当前所处的预测模式。

在本实施例中,用于识别信息的方法的执行主体(例如图1所示的终端设备)可以实时接收与用于进行深度学习预测的模型相关联的待识别信息,并在响应于接收到待识别信息而确定当前所处的预测模式。

其中,上述用于进行深度学习预测的模型可以是采用如图2所示的实施例描述的方法而生成的。这里,用户可以通过调用与目标设备相关联的sdk所提供的与上述用于进行深度学习预测的模型相关联的模型预测接口来发送待识别信息。其中,目标设备可以是上述执行主体本身或上述执行主体所在的设备,该设备上存储有上述用于进行深度学习预测的模型。当然,用户也可以通过与目标设备相应的、集成有上述用于进行深度学习预测的模型的应用来发送待识别信息。

需要说明的是,基于上述用于进行深度学习预测的模型的应用场景的不同,待识别信息的内容也会有所不同。例如,若上述用于进行深度学习预测的模型应用于人脸识别场景,那么待识别信息可以是待识别的人脸图像。若上述用于进行深度学习预测的模型应用于视频分析场景,那么待识别信息可以是待分析的视频。若上述用于进行深度学习预测的模型应用于声音识别场景,那么待识别信息可以是待识别的语音信息。

在本实施例中,上述执行主体可以向用户提供预测模式选项,以供用户选择采用哪种预测模式对待识别信息进行识别。其中,预测模式可以包括离线预测模式、在线预测模式和混合预测模式。离线预测模式可以用于指示在目标设备本地进行预测。在线预测模式可以用于指示利用云服务器进行预测,其中,云服务器可以存储有与上述用于进行深度学习预测的模型相对应的原始模型(例如图2所示的实施例中的待转换模型)。混合模式可以用于指示基于网络状况选取进行在线预测或离线预测。

另外,预测模式选项可以包括与离线预测模式相应的第一选项、与在线预测模式相应的第二选项和与混合模式相应的第三选项。上述执行主体可以通过检测哪个选项当前被选中来确定当前所处的预测模式。需要指出的是,通过向用户提供预测模式选项供用户选择,可以实现预测服务的定制化。

步骤402,响应于确定当前处于离线预测模式,利用用于进行深度学习预测的模型对待识别信息进行识别。

在本实施例中,响应于上述执行主体确定当前处于离线预测模式,上述执行主体可以利用上述用于进行深度学习预测的模型对待识别信息进行识别。例如将待识别信息直接输入上述用于进行深度学习预测的模型,从而得到识别结果。

可选地,上述执行主体可以直接将识别结果呈现给用户,还可以将识别结果输出至指定的存储位置。

在本实施例的一些可选的实现方式中,响应于上述执行主体确定当前处于混合预测模式,上述执行主体可以先检测目标设备是否与云服务器通信连接。若上述执行主体确定目标设备当前未与云服务器通信连接,则上述执行主体可以利用上述用于进行深度学习预测的模型对待识别信息进行识别。

应该理解,上述执行主体可以采用各种方法来检测目标设备是否与云服务器通信连接。作为示例,上述执行主体可以通过ping命令来测试云服务器的网络连通性。再例如,上述执行主体本地可以存储有用于实时记录目标设备与云服务器之间的通信连接状态(例如已通信连接、未通信连接等)的文件,上述执行主体可以通过检测该连接状态来确定目标设备是否与云服务器通信连接。

在本实施例的一些可选的实现方式中,响应于上述执行主体确定当前处于混合模式以及目标设备与云服务器通信连接,或者确定当前处于在线预测模式,上述执行主体可以将待识别信息发送至云服务器,以使云服务器对待识别信息进行识别,并返回识别结果。

在本实施例的一些可选的实现方式中,上述执行主体在利用上述用于进行深度学习预测的模型对待识别信息进行识别之前,可以检测计算加速指令。其中,计算加速指令响应于预设的计算加速选项(如图2所示的实施例描述的计算加速选项)被选中而生成。而后,响应于上述执行主体检测到计算加速指令,上述执行主体可以基于预置的目标设备的设备信息(如图2所示的实施例描述的设备信息),确定目标设备是否包括与计算加速指令相关联的异构计算芯片。最后,响应于上述执行主体确定目标设备包括该异构计算芯片,上述执行主体可以将上述用于进行深度学习预测的模型中的与该异构计算芯片相关联的层的运算调度至该异构计算芯片上执行。这样,在预测过程中,可以调用该异构计算芯片进行计算,从而可以提高预测速度。

需要说明的是,上述执行主体可以从上述用于进行深度学习预测的模型中提取出拓扑结构描述信息。对于上述用于进行深度学习预测的模型中的每个层,上述执行主体可以检测该拓扑结构描述信息中的与该层相关的描述信息是否包括与该异构计算芯片相关联的信息,例如该异构计算芯片的类别名称等。若包括与该异构计算芯片相关联的信息,则上述执行主体可以将该层确定为与该异构计算芯片相关联的层。另外,上述执行主体可以利用与该异构计算芯片相关联的硬件指令将与该异构计算芯片相关联的层的运算调度至该异构计算芯片上执行。

本申请的上述实施例提供的方法,通过响应于接收到与用于进行深度学习预测的模型(采用如图2所示的实施例描述的方法而生成的模型)相关联的待识别信息,而确定当前所处的预测模式,可以在确定当前处于离线预测模式时利用该用于进行深度学习预测的模型对待识别信息进行识别。从而有效利用了对预测模式的设置,可以使用户预先选择所需的预测模式,进而实现了预测服务的定制化。例如,在检测到用户预先选择了离线预测模式时,在本地利用上述用于进行深度学习预测的模型对待识别信息进行识别。

进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于生成模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。

如图5所示,本实施例的用于生成模型的装置500可以包括:获取单元501被配置成获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息;转换单元502被配置成基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型;生成单元503被配置成基于经转换后的模型生成用于进行深度学习预测的模型。

在本实施例中,用于生成模型的装置500中:获取单元501、转换单元502和生成单元503的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202和步骤203的相关说明,在此不再赘述。

在本实施例的一些可选的实现方式中,上述设备信息可以包括异构计算芯片类型标识和指令集版本;以及转换单元502可以进一步被配置成:获取预置的与异构计算芯片类型标识和指令集版本相关联的参数转换模板和算子转换模板;对于待转换模型所包括的层,基于拓扑结构描述信息解析该层中的参数和算子,基于参数转换模板对该层中的参数进行转换,以及基于算子转换模板对该层中的算子进行转换。

在本实施例的一些可选的实现方式中,生成单元503可以进一步被配置成:响应于检测到模型压缩指令,对经转换后的模型进行模型压缩指令所指示的压缩操作,得到经压缩后的模型,将经压缩后的模型作为用于进行深度学习预测的模型;其中,模型压缩指令可以响应于预设的模型压缩选项被选中而生成,模型压缩选项可以包括以下至少一项:用于指示降低参数的精度的第一模型压缩选项、用于指示对模型中的层进行合并或裁剪的第二模型压缩选项、用于指示对模型的参数进行裁剪的第三模型压缩选项。

在本实施例的一些可选的实现方式中,上述装置500还可以包括:软件开发工具包提供单元(图中未示出),被配置成向用户提供与目标设备相应的软件开发工具包,其中,软件开发工具包可以用于提供与用于进行深度学习预测的模型相关联的模型预测接口。

在本实施例的一些可选的实现方式中,上述装置500还可以包括:第一生成单元(图中未示出),被配置成生成与目标设备相应的、集成有用于进行深度学习预测的模型的应用。

本申请的上述实施例提供的装置,通过获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息,以便基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型,以及基于经转换后的模型生成适用于目标设备的用于进行深度学习预测的模型。实现了将现有的模型转换为能够适用于目标设备的用于进行深度学习预测的模型。

进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种用于识别信息的装置的一个实施例,该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。

如图6所示,本实施例的用于识别信息的装置600可以包括:确定单元601被配置成响应于接收到与用于进行深度学习预测的模型(采用如图2所示的实施例描述的方法而生成的模型)相关联的待识别信息,确定当前所处的预测模式,其中,预测模式可以包括用于指示在目标设备本地进行预测的离线预测模式,目标设备可以是用于进行深度学习预测的模型所在的设备;识别单元602被配置成响应于确定当前处于离线预测模式,利用用于进行深度学习预测的模型对待识别信息进行识别。

在本实施例中,用于识别信息的装置600中:确定单元601和识别单元602的具体处理及其所带来的技术效果可分别参考图4对应实施例中的步骤401和步骤402的相关说明,在此不再赘述。

在本实施例的一些可选的实现方式中,预测模式还可以包括混合模式,混合模式可以用于指示基于网络状况选取进行在线预测或离线预测;以及上述装置600还可以包括:第一确定单元(图中未示出),被配置成响应于确定当前处于混合模式,确定目标设备当前是否与云服务器通信连接;第一识别单元(图中未示出),被配置成响应于确定目标设备当前未与云服务器通信连接,利用用于进行深度学习预测的模型对待识别信息进行识别。

在本实施例的一些可选的实现方式中,上述装置600还可以包括:第二确定单元(图中未示出),被配置成响应于检测到计算加速指令,基于预设的目标设备的设备信息,确定目标设备是否包括与计算加速指令相关联的异构计算芯片,其中,计算加速指令可以响应于预设的计算加速选项被选中而生成,计算加速选项可以包括以下至少一项:用于指示调用网络处理器进行计算加速的第一计算加速选项、用于指示调用图形处理器进行计算加速的第二计算加速选项、用于指示调用现场可编程门阵列进行计算加速的第三计算加速选项;调度单元(图中未示出),被配置成响应于确定目标设备包括异构计算芯片,将用于进行深度学习预测的模型中的与异构计算芯片相关联的层的运算调度至异构计算芯片上执行。

下面参考图7,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的终端设备101)的计算机系统700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。

如图7所示,计算机系统700包括中央处理单元(cpu)701,其可以根据存储在只读存储器(rom)702中的程序或者从存储部分708加载到随机访问存储器(ram)703中的程序而执行各种适当的动作和处理。在ram703中,还存储有系统700操作所需的各种程序和数据。cpu701、rom702以及ram703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。

以下部件连接至i/o接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(crt)、液晶显示器(lcd)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如lan卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至i/o接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(cpu)701执行时,执行本申请的系统中限定的上述功能。

需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、rf等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如”c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、转换单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息的单元”。

作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备:获取待转换模型、待转换模型的拓扑结构描述信息和目标设备的设备信息;基于拓扑结构描述信息和设备信息,对待转换模型的参数和算子进行转换,得到适用于目标设备的经转换后的模型;基于经转换后的模型生成用于进行深度学习预测的模型。还可以使得该电子设备:响应于接收到与用于进行深度学习预测的模型相关联的待识别信息,确定当前所处的预测模式,其中,预测模式包括用于指示在目标设备本地进行预测的离线预测模式,目标设备是用于进行深度学习预测的模型所在的设备;响应于确定当前处于离线预测模式,利用用于进行深度学习预测的模型对待识别信息进行识别。

以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1