模型结构的获取方法及装置与流程

文档序号:30655763发布日期:2022-07-06 00:52阅读:158来源:国知局
模型结构的获取方法及装置与流程

1.本技术涉及计算机技术领域,特别是涉及一种模型结构的获取方法及装置、基于硬件算力约束的模型确定方法及装置、语义识别方法及装置、电子设备、机器可读介质。


背景技术:

2.基于变换器的双向编码器表示技术(bert,bidirectional encoder representation from transformers),通过在大量无标注的训练数据上进行自监督预训练的过程,可以学习得到大量的数据结构化信息,因而可以在数据分类、数据匹配等下游任务中获得很高的精度,从而得到了广泛应用。
3.在目前,将bert模型应用于具体的部署环境,需要通过固定的采样方式从bert模型中采样局部结构(子模型)进行训练,并从训练后的bert模型中提取局部结构,组成满足部署环境的算力约束的待部署模型,最后可以将待部署模型部署在环境中进行使用。
4.但是,目前的方案中,采用固定的采样方式进行bert模型的训练,会导致训练效率或训练精度较差,另外,在待部署模型的构建过程中,需要对提取局部结构进行效果评估,这会产生较多计算开销,导致算力成本提升。


技术实现要素:

5.本技术实施例提供了一种模型结构的获取方法、一种基于硬件算力约束的模型确定方法、一种语义识别方法,以解决相关技术中训练效率或训练精度较差、算力成本提升的问题。
6.相应的,本技术实施例还提供了一种模型结构的获取装置、一种基于硬件算力约束的模型确定装置、一种语义识别装置、电子设备以及存储介质,用以保证上述方法的实现及应用。
7.为了解决上述问题,本技术实施例公开了一种模型结构的获取方法,所述方法包括:
8.在对包括多个子模型的模型集合进行迭代训练的过程中,根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作;
9.在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率;
10.根据目标设备的算力资源约束条件和所述第二采样概率,从所述模型集合中选取目标子模型,并根据所述目标子网络获取目标模型。
11.本技术实施例公开了一种基于硬件算力约束的模型确定方法,所述方法包括:
12.获取电子设备的算力资源约束值;
13.在对包括多个子模型的模型集合进行迭代训练的过程中,根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作;
14.在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率;
15.根据所述电子设备的算力资源约束值和所述第二采样概率,从所述模型集合中选取目标子模型以构成供所述电子设备使用的目标模型,所述目标子模型的资源需求量之和小于或等于所述算力资源约束值。
16.本技术实施例公开了一种语义识别方法,包括:
17.获取待识别语料;
18.将所述待识别语料输入目标模型,得到所述待识别语料的语义识别结果;
19.其中,所述目标模型为基于上述模型结构的获取方法所确定得到的。
20.本技术实施例公开了一种模型结构的获取装置,所述装置包括:
21.第一选择模块,用于在对包括多个子模型的模型集合进行迭代训练的过程中,根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作;
22.第一终止迭代模块,用于在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率;
23.第一构建模块,用于根据目标设备的算力资源约束条件和所述第二采样概率,从所述模型集合中选取目标子模型,并根据所述目标子网络获取目标模型。
24.本技术实施例公开了一种基于硬件算力约束的模型确定装置,包括:
25.第一获取模块,用于获取电子设备的算力资源约束值;
26.第二选择模块,用于在对包括多个子模型的模型集合进行迭代训练的过程中,根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作;
27.第二终止迭代模块,用于在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率;
28.第二构建模块,用于根据所述电子设备的算力资源约束值和所述第二采样概率,从所述模型集合中选取目标子模型以构成供所述电子设备使用的目标模型,所述目标子模型的资源需求量之和小于或等于所述算力资源约束值。
29.本技术实施例公开了一种语义识别装置,包括:
30.第二获取模块,用于获取待识别语料;
31.识别模块,用于将所述待识别语料输入目标模型,得到所述待识别语料的语义识别结果;
32.其中,所述目标模型为基于上述模型结构的获取装置所确定得到的。
33.本技术实施例还公开了一种电子设备,包括:处理器;和存储器,其上存储有可执行代码,当所述可执行代码被执行时,使得所述处理器执行如本技术实施例中一个或多个所述的方法。
34.本技术实施例还公开了一个或多个机器可读介质,其上存储有可执行代码,当所述可执行代码被执行时,使得处理器执行如本技术实施例中一个或多个所述的方法。
35.与相关技术相比,本技术实施例包括以下优点:
36.本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足目标设备的算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
附图说明
37.图1是本技术实施例的一种模型结构的获取方法的架构图;
38.图2是本技术实施例的一种模型集合的结构框图;
39.图3是本技术实施例的一种子模型的结构示意图;
40.图4是本技术实施例的一种模型结构的获取方法在文本处理场景的应用示意图;
41.图5是本技术实施例的一种模型结构的获取方法在图像处理场景的应用示意图;
42.图6是本技术实施例的一种模型结构的获取方法在音频处理场景的应用示意图;
43.图7是本技术实施例的一种模型结构的获取方法的步骤流程图;
44.图8是本技术实施例的一种基于硬件算力约束的模型确定方法实施例的步骤流程图;
45.图9是本技术实施例的一种语义识别方法实施例的步骤流程图;
46.图10是本技术实施例的另一种模型结构的获取方法实施例的步骤流程图;
47.图11是本技术实施例的一种模型结构的获取装置的框图;
48.图12是本技术实施例的一种基于硬件算力约束的模型确定装置的框图;
49.图13是本技术实施例的一种语义识别装置的框图;
50.图14是本技术一实施例提供的装置的结构示意图。
具体实施方式
51.为使本技术的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本技术作进一步详细的说明。
52.为使本领域技术人员更好地理解本技术,以下对本技术涉及的概念进行说明:
53.bert模型:是一种预训练的语言表征模型,其不再采用传统的单向语言模型进行预训练,或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的掩码语言模型(mlm,masked language model),以致能生成深度的双向语言表征,bert模型采用深层的双向变换器(transformer)组件来构建整个模型,因此最终生成能融合左右上下文信息的深层双向语言表征。
54.子模型:也称作子网络,是bert模型中的一个局部结构,子模型可以独立存在,能够实现数据的输入、运算以及结果的输出。
55.超网络(supernet):由所有子模型结构构成的一个结构总成,可以为后续的模型搜索提供总体空间,即本技术的模型集合。
56.模型搜索:通过神经网络架构搜索技术(nas,neural architecture search)实现的一种通过建模设计,可自动的搜索和选择合适模型结构的方法。
57.搜索空间:用于实现模型搜索的超网络的尺寸,具体是一种基于尺寸参数构建的搜索范围,如通过模型的层数、每层通道数、注意力权重个数可以构建一个搜索空间。
58.词嵌入(wordembedding):文本处理场景中,使用高维向量表示自然语言中的词,用于将自然语言文本序列,即由词组成的一个或者多个句子,转化为向量序列,以便于输入给神经网络模型进行计算。
59.采样方式:超网络的训练过程是通过多轮迭代,从超网络中选取出各种子模型进行训练,最终将超网络充分训练至收敛状态,并且其中任意采样的子模型也是训练收敛状态,采样方式即为从超网络中选取何种子模型的方式。
60.伯努利分布(bernoulli distribution):又名两点分布或0-1分布,例如抛硬币的正面或反面,物品有缺陷或没缺陷,病人康复或未康复,这些满足只有两种可能,试验结果相互独立且对立的随机变量称为伯努利随机变量。
61.算力资源约束条件:由于不同的电子设备具有不同大小的硬件资源,因此不同的硬件能够提供给模型的部署空间的大小也不同,算力资源约束条件反映了这种对模型部署空间的大小的限制。
62.本技术实施例可以应用在构建满足电子设备的算力资源约束条件的目标模型,以将目标模型部署在电子设备的场景,这种场景下,可以在对具有较大搜索空间的模型集合(超网络)进行迭代训练时,通过选择合适的采样方式,来提高具有较大搜索空间的模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,之后,可以根据场景中存在的不同电子设备各自的算力资源约束条件,对模型集合进行模型搜索,选取其中的目标子模型以构成满足该算力资源约束条件的目标模型,最后可以将目标模型下发至电子设备进行部署。
63.具体的,参照图1,其示出了本技术实施例提供的一种模型结构的获取方法的架构图,图1示出的服务器包括:搜索空间设计模块、训练模块、基于资源约束的模型建立模块。
64.其中,搜索空间设计模块可以基于参数去定义bert模型的结构,bert模型结构可以有多种选择,主要的选择维度有层数m、每层神经网络的通道数x等,搜索空间设计模块可以基于这些参数构建搜索空间,其意义是设计bert模型结构相关维度的可选范围。另外,搜索空间设计模块还可以设置模型的输入结构,例如在文本处理环境下,可以设置模型的输入为词嵌入向量序列。
65.训练模块可以通过多轮迭代训练,完成整个模型集合和其中子模型的参数收敛,从而获得一个训练好的模型集合.
66.基于资源约束的模型建立模块可以获取电子设备针对模型部署的算力资源约束条件,并根据算力资源约束条件和第二采样概率进行模型搜索操作,具体为从模型集合中选取满足精度要求和算力资源约束条件的目标子模型,并根据所述目标子网络获取目标模型,最后可以将目标模型发送至电子设备进行部署。例如,图1中,最后搜索到了子模型a+子模型b的结构作为目标模型的结构。
67.在本技术实施例中,参照图2,其示出了本技术实施例提供的一种模型集合的结构框图,模型集合中的每一行表示模型集合的一层,第一层为模型集合的输入层,一层中的一
个节点用于反映一个神经元,一层中神经元的数量则为该层的通道数,图2示出的模型集合的示例中,模型集合包括3层,每层包括3个神经元,相邻两层之间神经元的连接线用于表示神经元之间的输入输出关系,在模型集合中选取神经元以形成局部结构,即可得到一个子模型。
68.例如,参照图3,其示出了本技术实施例提供的一种子模型的结构示意图,基于图2示出的模型集合,可以选取第一层的神经元a和b,构成子模型(1);基于模型集合选取第一层的神经元a和神经元b,以及第二层的神经元d,构成子模型(2);基于模型集合选取第一层的神经元a、神经元b和神经元c、第二层的神经元d和神经元e,以及第三层的神经元g和神经元h,构成子模型(3),图3仅示出了所有子模型结构中的三个子模型结构,对剩余子模型结构并不一一示出。
69.模型的训练目标具有两个诉求:训练时间短、计算量小的诉求和训练精度高的诉求,这两个诉求又存在一定互斥性,具体体现在若保持较高的训练精度,需设置较大的搜索空间,但较大的搜索空间会导致训练时间和计算量提高,因此如何避免训练的开销过大,且保持足够大的搜索空间,获得足够优的训练精度,是本技术实施例需解决的重要问题。
70.在实际应用中,由于模型精度是重要的需求指标,因此需要模型具有较大的搜索空间,使得优化方案旨在在较大搜索空间下,保证较优的模型精度,相关技术可以采用如剪枝,量化,蒸馏等压缩手段在保证模型精度的基础上减少计算量,但这些过程需要人工大量参与来预先设计合适的压缩空间,这会导致压缩的模型失去其灵活性,并且需要消耗极大的资源来调整架构参数。这样的压缩工作是十分繁琐的,并会产生极大的压缩成本。
71.在本技术实施例中,可以基于nas技术进行bert模型的搜索,该技术可以降低对人工调参的依赖,节约压缩成本,还可以具有较大的搜索空间,保证模型精度,以及自适应的调整参数,提高训练效率。本技术实施例的模型搜索过程包括:过程1、基于选取合适采样方式的模型训练和训练过程中模型参数的联合优化;过程2、基于算力资源约束条件的目标模型构建。
72.针对过程1,训练模块每次迭代训练需要从模型集合中选取子模型进行训练,该过程称为子模型的采样训练,本技术实施例的训练模块可以提供两种采样方式:均匀采样方式(随机采样)和优化采样方式,并基于上一次迭代训练的结果,通过策略选取函数从两种采样方式中选取目标采样方式,以将目标采样方式作为当前迭代训练采用的采样方式。
73.其中,图1示出的均匀采样方式可以针对固定的采样概率π对子模型m进行采样,使得每个子模型都有相同的概率被选出来进行训练,对子模型具有较高的采样探索范围,但是这种方式在使用巨大的搜索空间时会导致整体训练收敛时间也很长;图1示出的优化采样方式将搜索空间建模为一个线性的概率分布函数为概率分布参数,m为子模型,优化采样方式可以优先训练结构更优(训练效果更好)的子模型,在使用这种方式时,有可能在训练早期,具有全局最优结构的子模型还没有收敛,导致过早聚焦于局部次优结构子模型上反复采样训练,对其余子模型缺少采样探索,使得无法搜索到真正全局最优的子模型结构,从而陷入局部最优。
74.根据分析可知,优化采样方式导致的局部最优的问题是求解过程中对子模型缺少采样探索,通过引入均匀采样方式可以改善这一问题,本技术实施例的训练模块可以量化出一个概率分布参数θ(第一采样概率)来反映一次迭代操作后子模型的训练质量,并基于
概率分布参数θ确定该迭代操作的采样效果得分,概率分布参数θ具体为优化采样方式构建的函数中针对子模型的采样概率,最后基于上一次迭代训练的采样效果得分,通过策略选取函数从两种采样方式中选取目标采样方式,以将目标采样方式作为当前迭代训练采用的采样方式,策略选取函数即可实现在优化采样方式和均匀采样方式这两种方式中进行切换的目的,使得采样时既能充分探索各种子模型,又能重点训练那些更有优势的子模型。
75.本技术实施例通过上述方式,可以使得每一轮迭代训练都具有合适自己的采样方式,这样可以解决反复的随机采样造成的训练时间过长的问题,也可以解决反复的优化采样造成的网络陷入局部最优的问题。另外,由于本技术实施例将概率分布参数θ作为可训练优化的模型参数,达到了训练过程中概率分布参数θ和模型集合自身的权重参数的联合优化,训练模块在完成模型集合的训练后,模型集合中的子模型都具有各自训练好的概率分布参数θ(第二采样概率),该第二采样概率可以用于反映子模型的训练精度,使得子模型的质量具有了量化表现,从而有助于展开后续基于算力资源约束条件的模型搜索操作。
76.其中,在数学上概念上,上述局部最优,指的是对于一个问题的解在一定范围或区域内最优,或者说解决问题或达成目标的手段在一定范围或限制内最优;而上述全局最优,指的是针对一定条件/环境下的一个问题/目标,若一项决策和所有解决该问题的决策相比是最优的。
77.针对上述过程2提出的目标模型构建,相关技术可以采用逐一遍历的方式对训练好的模型集合中的每个子模型进行精度测试,获得子模型的质量得分,之后再在算力资源约束条件下选取目标子模型,并根据所述目标子网络获取目标模型,但是,这种方式需要在测试验证过程使用大量的测试数据集,导致精度测试的开销过大。
78.在本技术实施例中,由于模型集合训练完成后,子模型都各自训练好的概率分布参数θ(第二采样概率)可以用于反映子模型的训练精度,使得子模型的质量具有了量化表现,因此基于资源约束的模型建立模块可以获取电子设备针对模型部署的算力资源约束条件,并根据算力资源约束条件和子模型的第二采样概率进行模型搜索操作,具体为将,从第二采样概率直接作为选取目标子模型的指导参数,从模型集合中选取满足精度要求和算力资源约束条件的目标子模型,并根据所述目标子网络获取目标模型,这些过程省去了精度测试的开销,降低了计算量,并且这些过程中模型本身的参数(权重等)不需要重新训练,从而实现了通过一次训练即可得到满足不同资源的需求的子模型结构,进一步降低了计算量。
79.在一种实现方式中,参照图4,其示出了本技术实施例提供的一种模型结构的获取方法在文本处理场景的应用示意图,本技术实施例可以基于电子设备的算力资源约束值,从统一的基于文本处理训练得到的模型集合中选取目标子模型构建满足该电子设备的算力需求的文本处理模型,假设电子设备包括移动终端、个人电脑、计算服务端,本技术实施例即可基于移动终端、个人电脑、计算服务端各自不同的算力资源约束条件,从统一的模型集合中对应提炼多个不同的文本处理模型分别与移动终端、个人电脑、计算服务端一一对应。
80.具体的,图4示出了文本处理场景下的应用示意,这种场景下,bert模型可以通过大量无标注的语言数据上进行自监督预训练的过程,学习到大量的自然语言结构化信息,在移动终端部署了文本处理模型1后,可以将待识别语料转换为词嵌入向量序列输入文本
处理模型1,得到文本处理模型1输出的待识别语料的识别结果,识别结果可以进一步应用于后续的文本分类、文本匹配等场景,提高这些场景的文本处理精度,待识别语料的识别结果实际上是具备更强语义信息的向量序列。文本处理模型在个人电脑、计算服务端中的应用方式同理,本技术实施例不作赘述。
81.在另一种实现方式中,参照图5,其示出了本技术实施例提供的一种模型结构的获取方法在图像处理场景的应用示意图,假设电子设备包括移动终端、个人电脑、计算服务端,本技术实施例即可基于移动终端、个人电脑、计算服务端各自不同的算力资源约束条件,从训练好的模型集合中对应提炼多个不同的图像处理模型分别与移动终端、个人电脑、计算服务端一一对应。在移动终端部署了图像处理模型1后,可以将待识别图像提取特征,构建图像特征向量序列输入图像处理模型1,得到图像处理模型1输出的待识别图像的识别结果,识别结果可以进一步应用于后续的图像分类、图像匹配等场景,提高这些场景的图像处理精度。图像处理模型在个人电脑、计算服务端中的应用方式同理,本技术实施例不作赘述。
82.在另一种实现方式中,参照图6,其示出了本技术实施例提供的一种模型结构的获取方法在音频处理场景的应用示意图,假设电子设备包括移动终端、个人电脑、计算服务端,本技术实施例即可基于移动终端、个人电脑、计算服务端各自不同的算力资源约束条件,从训练好的模型集合中对应提炼多个不同的音频处理模型分别与移动终端、个人电脑、计算服务端一一对应。在移动终端部署了音频处理模型1后,可以将待识别音频提取特征,构建音频特征向量序列输入音频处理模型1,得到音频处理模型1输出的待识别音频的识别结果,识别结果可以进一步应用于后续的音频分类、音频匹配等场景,提高这些场景的音频处理精度。音频处理模型在个人电脑、计算服务端中的应用方式同理,本技术实施例不作赘述。
83.需要说明的是,本技术实施例中获取在训练模型集合时用到的训练数据(文本、图像、音频等)、目标模型应用过程中输入的待识别对象(文本、图像、音频等)以及其他使用到的信息、信号或数据的过程,都是在遵照所在地国家相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
84.本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
85.参照图7,其示出了本技术实施例提供的一种模型结构的获取方法的步骤流程图,包括:
86.步骤101,在对包括多个子模型的模型集合进行迭代训练的过程中,根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作。
87.在本技术实施例中,可以量化出一个概率分布参数θ(第一采样概率)来反映一次迭代操作后子模型的训练质量,并将概率分布参数θ作为选取迭代操作对应的采样方式的指导参数,概率分布参数θ具体为优化采样方式构建的函数中针对子模型的采样概率,优化采样方式可以将搜索空间建模为一个线性的概率分布函数优化采样方式可以优先训练结构更优(训练效果更好)的子模型,即每次迭代操作后,模型集合中的每个子模型都会获得一个概率分布参数θ,概率分布参数θ越大,说明子模型的训练精度越高,即子模型被优化采样方式选取的几率越大,其中,所有子模型的概率分布参数θ可以利用其中的信息熵的累加值得到一个采样效果得分(也可以利用子网络的准确率、固定的经验参数来计算采样效果得分),采样效果得分用于反映概率分布参数θ的不确定性,采样效果得分越小,概率分布参数θ的不确定性越小,使得下一次迭代操作采用优化采样方式的概率越低(前次迭代后概率分布参数θ的不确定性越小,后续迭代更优选采用平均采样方式来提高对子模型的采样探索范围,避免陷入局部最优);采样效果得分越大,不确定性越大,使得下一次迭代操作采用优化采样方式的概率越高(前次迭代后概率分布参数θ的不确定性越大,后续迭代更优选采用优化采样方式来提高子模型的训练精度,从而降低概率分布参数θ的不确定性)。
88.由上述论述可知,第一迭代操作结束后子模型的第一采样概率可以对第二迭代操作选取何种采样方式起到指导作用,因此本技术实施例通过从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式,可以达到采样方式动态切换的目的,使得采样时既能充分探索各种子模型,又能重点训练那些更有优势的子模型,使得每一轮迭代训练都具有合适自己的采样方式,这样可以解决反复的随机采样造成的训练时间过长的问题,也可以解决反复的优化采样造成的网络陷入局部最优的问题。
89.步骤102,在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率。
90.在本技术实施例中,在执行了至少一次的迭代操作完成模型集合的训练后,模型集合中子模型的概率分布参数θ可以作为子模型的第二采样概率,用于反映子模型的训练精度,第二采样概率越大,说明子模型的训练精度越高,使得子模型的质量具有了量化表现,从而有助于展开后续基于算力资源约束条件的模型搜索操作。
91.需要说明的是,每次迭代操作结束时,各个子模型的采样概率可以构建成为一个概率分布,参照图1,当执行了至少一次的迭代操作完成模型集合的训练后,各个子模型的第二采样概率可以构建得到一个线性分布。
92.步骤103,根据目标设备的算力资源约束条件和所述第二采样概率,从所述模型集合中选取目标子模型,并根据所述目标子网络获取目标模型。
93.针对不同电子设备具有不同硬件资源的情况,模型的部署也需满足不同电子设备各自的算力资源约束条件;从而需基于模型集合提炼不同量级的目标模型以满足不同的算力资源约束条件;例如,针对算力较强的计算服务端建立高算力的重量目标模型,针对算力较弱的移动终端建立低算力的轻量目标模型。目标设备可以为智能设备,移动终端,服务器,或者服务器集群等。
94.在本技术实施例中,可以获取电子设备针对模型部署的算力资源约束条件,并根据算力资源约束条件和第二采样概率进行模型搜索操作,具体为从模型集合中选取满足精度要求和算力资源约束条件的目标子模型,并根据所述目标子网络获取目标模型,最后可
以将目标模型发送至电子设备进行部署。
95.由于模型集合训练完成后,子模型各自训练好的第二采样概率可以直接作为选取目标子模型的指导参数,从模型集合中选取满足精度要求和算力资源约束条件的目标子模型,并根据所述目标子网络获取目标模型,这些过程省去了精度验证的开销,降低了计算量。
96.综上所述,本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
97.参照图8,示出了本技术的一种基于硬件算力约束的模型确定方法实施例的步骤流程图。包括:
98.步骤201,获取电子设备的算力资源约束值。
99.步骤202,在对包括多个子模型的模型集合进行迭代训练的过程中,根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作。
100.步骤203,在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率。
101.步骤204,根据所述电子设备的算力资源约束值和所述第二采样概率,从所述模型集合中选取目标子模型以构成供所述电子设备使用的目标模型,所述目标子模型的资源需求量之和小于或等于所述算力资源约束值。
102.本技术实施例可以应用在构建满足电子设备的算力资源约束条件的目标模型,以将目标模型部署在电子设备的场景,这种场景下,可以在对具有较大搜索空间的模型集合(超网络)进行迭代训练时,通过选择合适的采样方式,来提高具有较大搜索空间的模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,之后,可以根据场景中存在的不同电子设备各自的算力资源约束条件,对模型集合进行模型搜索,选取其中的目标子模型以构成满足该算力资源约束条件的目标模型,最后可以将目标模型下发至电子设备进行部署。
103.综上所述,本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
104.参照图9,示出了本技术的一种语义识别方法实施例的步骤流程图。包括:
105.步骤301,获取待识别语料。
106.步骤302,将所述待识别语料输入目标模型,得到所述待识别语料的语义识别结果。
107.其中,所述目标模型为基于上述模型结构的获取方法所确定得到的。
108.在本技术实施例中,参照图4示出的文本处理场景,电子设备部署了基于文本处理的目标模型后,可以将待识别语料转换为词嵌入向量序列输入目标模型,得到目标模型输出的待识别语料的语义识别结果,语义识别结果可以进一步应用于后续的文本分类、文本匹配等场景,提高这些场景的文本处理精度。另外,本技术实施例还可以应用与其他场景,如图5示出的图像处理场景和图6示出的音频处理场景,本技术实施例不作赘述。
109.综上所述,本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
110.参照图10,示出了本技术的另一种模型结构的获取方法实施例的步骤流程图。包括:
111.步骤401,获取网络结构参数的选择范围。
112.步骤402,根据所述网络结构参数的选择范围建立包括多个子模型的模型集合。
113.可选的,网络结构参数包括:网络总层数、每层网络的通道数、注意力权重个数中的一种或多种;所述选择范围中的多个可选值呈阶梯递增式分布。
114.针对步骤401-402,在对模型进行结构搜索之前,可以基于参数去定义模型集合的网络结构,网络结构可以有多种选择,主要的选择维度有层数m、每层神经网络的通道数x等,基于这些参数构建搜索空间,其意义是设计模型集合的网络结构相关维度的可选范围。另外,还可以设置模型的输入结构,例如在文本处理环境下,可以设置模型的输入为词嵌入向量序列。
115.具体的,网络结构参数包括:网络总层数、每层网络的通道数、注意力权重个数中的一种或多种,例如,图2示出的模型集合的结构为:模型集合包括3层,每层包括3个神经元,相邻两层之间神经元的连接线用于表示神经元之间的输入输出关系,在模型集合中选取神经元以形成局部结构,即可得到一个子模型。
116.另外,模型的训练过程类似于人的学习过程,人的学习过程是由简单到复杂的过程,通过类比这种学习方式,对模型集合的训练也可以采用先学习较易的子模型再学习较难的子模型的方式,这样的训练方式有助于降低训练过程中出现过拟合和欠拟合的现象发生的几率。
117.因此本技术实施例中的选择范围中包括的可选值可以呈阶梯递增式分布,从而构建由简单到复杂排布的多个子模型,使得训练过程与人的学习过程匹配,提高后续的训练
效率。
118.例如,假设设置网络总层数、每层网络的通道数这两个参数来确定搜索空间的大小,层数可选范围为[1,12]中的任一整数,每层通道数可选{128,256,512}三种通道数,则这两个参数组合起来就有12
×
3=36种子网络的结构可选,且这两个范围中的可选值都呈由简到难的阶梯递增式分布,从而可以得到结构由简到难的多个子模型。在实际应用中,为了保证较大的搜索空间,可以针对多个维度的参数提供较大可选范围,从而达到10的10次方以上种子网络的可选结构。
[0119]
步骤403,在对包括多个子模型的模型集合进行迭代训练的过程中,根据所述第一采样概率,计算与所述第一迭代操作对应的采样效果得分,所述采样效果得分越小,所述第一迭代操作的采样效果越佳。
[0120]
在本技术实施例中,可以量化出一个概率分布参数θ(采样概率)来反映一次迭代操作后子模型的训练质量,并基于概率分布参数θ可以确定该迭代操作的采样效果得分。
[0121]
具体的,图1示出的优化采样方式将搜索空间建模为一个线性的概率分布函数为概率分布参数,m为子模型,若通过w表示模型本身的参数(如权重等参数),则模型结构的获取过程可以建模为:
[0122][0123]
其中,是指子模型n(w,m)在训练数据集上的损失函数值,m为子模型的网络结构,ω为其网络权重,因此损失函数期望值可通过优化概率分布参数θ和超网络权重w来使得其损失值最小,其求解过程可通过随机自然梯度(sng,stochastic natural gradients)的方式进行实现。
[0124]
进一步的,本技术实施例具体是根据上次迭代操作的采样训练效果,来决定当前要执行的迭代操作优选需采用的采样方式,因此,本技术实施例需要根据上次迭代操作后所有子模型的概率分布参数θ计算得到一个采样效果得分ρ,采样效果得分ρ用于反映概率分布参数θ的不确定性,采样效果得分ρ越小,当前要执行的迭代操作优先选取平均采样方式的几率就越大,这代表前次迭代后概率分布参数θ的不确定性较小,后续迭代更优选采用平均采样方式来提高对子模型的采样探索范围,避免陷入局部最优;采样效果得分ρ越大,当前要执行的迭代操作优先选取优化采样方式的几率就越大,这代表前次迭代后概率分布参数θ的不确定性较大,后续迭代更优选采用优化采样方式来提高子模型的训练精度,从而降低概率分布参数θ的不确定性。
[0125]
步骤404,根据预设的方式选取函数和所述采样效果得分,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式。
[0126]
可选的,步骤404具体可以包括:
[0127]
子步骤4041,根据伯努利分布函数、预设的采样次数和所述采样效果得分,从预设的均匀采样方式和优化采样方式中选取目标采样方式,使得第二迭代操作按照所述目标采样方式从所述模型集合中选取待训练的子模型进行训练。
[0128]
其中,所述均匀采样方式用于按照固定的选取概率选取所述子模型;所述优化采样方式针对训练效果更好的子模型具有更高的选取概率。
[0129]
在本技术实施例中,可以引入伯努利分布函数来实现迭代操作
中选取均匀采样方式还是选取优化采样方式的判断,其中,定义函数h具有k的几率去选择当前采用优化采样方式,有n-k的几率去选择当前采用平均采样方式,n为采样次数(固定的已知值),k为当前采用优化采样方式的几率,ρ为前次迭代操作的采样效果得分,ρ
max
为采样效果得分的归一化处理结果。
[0130]
可选的,子步骤4041具体可以包括:
[0131]
子步骤40411,计算所述采样效果得分的归一化处理结果。
[0132]
子步骤40412,将所述采样效果得分与所述归一化处理结果的比值,确定为所述伯努利分布函数中用于选取所述优化采样方式的目标概率;所述采样效果得分与所述目标概率呈正比例关系。
[0133]
子步骤40413,根据所述伯努利分布函数、所述采样次数和所述目标概率,从所述均匀采样方式和所述优化采样方式中选取目标采样方式。
[0134]
针对子步骤40411-40412可以看出,伯努利分布函数中ρ越大,k越大;ρ越小,k越小,即第一迭代操作结束后子模型的第一采样概率可以对第二迭代操作选取何种采样方式起到指导作用,因此本技术实施例通过从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式,可以达到采样方式动态切换的目的,使得采样时既能充分探索各种子模型,又能重点训练那些更有优势的子模型,使得每一轮迭代训练都具有合适自己的采样方式,这样可以解决反复的随机采样造成的训练时间过长的问题,也可以解决反复的优化采样造成的网络陷入局部最优的问题。
[0135]
可选的,步骤403具体可以包括:
[0136]
子步骤4031,将所述子模型的第一采样概率的对数的累加值,作为与所述第一迭代操作对应的采样效果得分。
[0137]
在本技术实施例的一种实现方式中,可以将所有子模型的概率分布参数θ利用其中的信息熵的累加值得到一个采样效果得分,具体为将所有子模型的第一采样概率的对数的累加值,作为与第一迭代操作对应的采样效果得分。
[0138]
另外,也可以利用子网络的准确率、固定的经验参数来计算采样效果得分,本技术实施例对此不作限定。
[0139]
步骤405,按照所述第二采样概率对所述子模型进行排序,得到目标序列。
[0140]
步骤406,从所述目标序列中第二采样概率最大的子模型开始,选取符合算力资源约束条件的目标子模型,并根据所述目标子网络获取目标模型。
[0141]
针对步骤405-406,由于模型集合训练完成后,子模型各自训练好的第二采样概率可以直接作为选取目标子模型的指导参数,从模型集合中选取满足精度要求和算力资源约束条件的目标子模型,并根据所述目标子网络获取目标模型,这些过程省去了精度测试的开销,降低了计算量。
[0142]
具体的,可以从目标序列中第二采样概率最大的子模型开始,选取符合算力资源约束条件的目标子模型,从而使得最够构建的目标模型的精度最大化。
[0143]
可选的,步骤406具体可以包括:
[0144]
子步骤4061、获取所述模型集合中的子模型的资源需求量。
[0145]
子步骤4062、从所述目标序列的起点开始选取一个或多个目标子模型,并确定每次选取操作所选取的目标子模型的模型精度,每次选取的目标子模型的资源需求量之和,
小于或等于与所述算力资源约束条件对应的资源上限值。
[0146]
子步骤4063、将所述模型精度最大的选取操作所选取的目标子模型构成所述目标模型。
[0147]
可选的,资源上限值包括:模型参数量上限值、模型单次计算量上限值、模型内存使用量上限值中的至少一种。
[0148]
在本技术实施例中,目标设备的算力资源约束条件可以量化为一个是否超出资源上限值的判断过程,即构建的目标模型的资源需求量之和小于或等于资源上限值,可以认为目标模型满足算力资源约束条件。
[0149]
例如,假设一个目标设备的算力资源约束条件为部署的目标模型的参数量不超过50兆,训练好的目标模型中具有三个子模型:子模型a(第二采样概率0.8,参数量30兆)、子模型b(第二采样概率0.7,参数量10兆)、子模型c(第二采样概率0.6,参数量20兆),则可以先按照第二采样概率的大小进行排序(假设由大到小排序),得到目标序列:{子模型a、子模型b、子模型c},另外,由于需要目标模型的参数总量不超过50兆的上限,则可以有两种目标模型的构建:目标模型1包括子模型a,目标模型2包括子模型a和子模型b,则最后可以通过验证集验证目标模型1和目标模型2各自的精度值,并选取精度值更大的目标模型发送至目标设备进行部署。
[0150]
由于整个目标模型的获取过程直接以子模型各自训练好的第二采样概率作为选取目标子模型的指导参数,从而省去了精度测试的开销,并且提高了目标子模型的确定效率。
[0151]
需要说明的是,本技术实施例还可以引入奖励函数,在算力资源约束条件下进一步优化概率分布函数奖励函数具体如:
[0152][0153]
其中,m是某一个子模型的网络结构,acc(m)是指该子模型在目标数据集上的正确率,为资源消耗计算函数,和分别是指子网络和超网络的资源消耗,ω为资源限制阈值,在基于奖励函数选取目标子模型的过程中,超网络的权重w是保持不变且不需用重新训练的,因此从而实现了通过一次训练即可得到满足不同资源的需求的子模型结构,进一步降低了计算量。
[0154]
综上所述,本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
[0155]
参照图11,其示出了本技术实施例提供的一种模型结构的获取装置的框图,包括:
[0156]
第一选择模块501,用于在对包括多个子模型的模型集合进行迭代训练的过程中,
根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作;
[0157]
第一终止迭代模块502,用于在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率;
[0158]
第一构建模块503,用于根据目标设备的算力资源约束条件和所述第二采样概率,从所述模型集合中选取目标子模型,并根据所述目标子网络获取目标模型。
[0159]
可选的,所述第一选择模块501,包括:
[0160]
第一计算子模块,用于根据所述第一采样概率,计算与所述第一迭代操作对应的采样效果得分,所述采样效果得分越小,所述第一迭代操作的采样效果越佳;
[0161]
选取子模块,用于根据预设的方式选取函数和所述采样效果得分,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式。
[0162]
可选的,所述选取子模块,包括:
[0163]
伯努利单元,用于根据伯努利分布函数、预设的采样次数和所述采样效果得分,从预设的均匀采样方式和优化采样方式中选取目标采样方式,使得第二迭代操作按照所述目标采样方式从所述模型集合中选取待训练的子模型进行训练;
[0164]
其中,所述均匀采样方式用于按照固定的选取概率选取所述子模型;所述优化采样方式针对训练效果更好的子模型具有更高的选取概率。
[0165]
可选的,所述第一计算子模块,包括:
[0166]
累加单元,用于将所述子模型的第一采样概率的对数的累加值,作为与所述第一迭代操作对应的采样效果得分;
[0167]
所述伯努利单元,包括:
[0168]
归一化子单元,用于计算所述采样效果得分的归一化处理结果;
[0169]
累加子单元,用于将所述采样效果得分与所述归一化处理结果的比值,确定为所述伯努利分布函数中用于选取所述优化采样方式的目标概率;所述采样效果得分与所述目标概率呈正比例关系;
[0170]
选取子单元,用于根据所述伯努利分布函数、所述采样次数和所述目标概率,从所述均匀采样方式和所述优化采样方式中选取目标采样方式。
[0171]
可选的,所述第一构建模块503,包括:
[0172]
排序子模块,用于按照所述第二采样概率对所述子模型进行排序,得到目标序列;
[0173]
筛选子模块,用于从所述目标序列中第二采样概率最大的子模型开始,选取符合算力资源约束条件的目标子模型,并根据所述目标子网络获取目标模型。
[0174]
可选的,所述筛选子模块,包括:
[0175]
获取单元,用于获取所述模型集合中的子模型的资源需求量;
[0176]
比较单元,用于从所述目标序列的起点开始选取一个或多个目标子模型,并确定每次选取操作所选取的目标子模型的模型精度,每次选取的目标子模型的资源需求量之和,小于或等于与所述算力资源约束条件对应的资源上限值;
[0177]
选取单元,用于将所述模型精度最大的选取操作所选取的目标子模型构成所述目标模型。
[0178]
可选的,所述资源上限值包括:模型参数量上限值、模型单次计算量上限值、模型内存使用量上限值中的至少一种。
[0179]
可选的,还包括:
[0180]
第三获取模块,用于获取网络结构参数的选择范围;
[0181]
搜索空间设计模块,用于根据所述网络结构参数的选择范围建立包括多个子模型的模型集合。
[0182]
可选的,所述网络结构参数包括:网络总层数、每层网络的通道数、注意力权重个数中的一种或多种;
[0183]
所述选择范围中的多个可选值呈阶梯递增式分布。
[0184]
综上,本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
[0185]
参照图12,其示出了本技术实施例提供的一种基于硬件算力约束的模型确定装置的框图,包括:
[0186]
第一获取模块601,用于获取电子设备的算力资源约束值;
[0187]
第二选择模块602,用于在对包括多个子模型的模型集合进行迭代训练的过程中,根据第一迭代操作结束后所述子模型的第一采样概率,从预设的至少两个采样方式中选取第二迭代操作所采用的目标采样方式;所述第二迭代操作为所述第一迭代操作的下一次迭代操作;
[0188]
第二终止迭代模块603,用于在执行了至少一次的迭代操作后,获得所述模型集合中子模型的第二采样概率;
[0189]
第二构建模块604,用于根据所述电子设备的算力资源约束值和所述第二采样概率,从所述模型集合中选取目标子模型以构成供所述电子设备使用的目标模型,所述目标子模型的资源需求量之和小于或等于所述算力资源约束值。
[0190]
综上,本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
[0191]
参照图13,其示出了本技术实施例提供的一种语义识别装置的框图,包括:
[0192]
第二获取模块701,用于获取待识别语料;
[0193]
识别模块702,用于将所述待识别语料输入目标模型,得到所述待识别语料的语义识别结果;
[0194]
其中,所述目标模型为基于模型结构的获取装置所确定得到的。
[0195]
综上,本技术实施例中,可以在对模型集合进行多次迭代训练的过程中,通过为每次迭代操作动态的选择合适的采样方式,来提高模型集合的训练效率和精度,使得模型集合及其中的子模型高效率且高精度的充分训练至收敛状态,从而解决了采用固定采样方式进行训练而产生的训练效率或训练精度较差的问题,另外,本技术实施例还可以通过第二采样概率来对子模型的训练精度进行量化,进而在对模型集合进行模型搜索的过程中,将第二采样概率直接作为选取目标子模型的指导参数,选取其中的目标子模型以构成满足算力资源约束条件的目标模型,使得模型获取过程不需要再进行额外的子模型精度验证操作,降低了计算开销。
[0196]
本技术实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块(programs),该一个或多个模块被应用在设备时,可以使得该设备执行本技术实施例中各方法步骤的指令(instructions)。
[0197]
本技术实施例提供了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得电子设备执行如上述实施例中一个或多个所述的方法。本技术实施例中,所述电子设备包括终端设备、服务端(集群)等各类型的设备。
[0198]
本公开的实施例可被实现为使用任意适当的硬件,固件,软件,或及其任意组合进行想要的配置的装置,该装置可包括终端设备、服务端(集群)等电子设备。图14示意性地示出了可被用于实现本技术实施例中所述的各个实施例的示例性装置1000。
[0199]
对于一个实施例,图14示出了示例性装置1000,该装置具有一个或多个处理器1002、被耦合到(一个或多个)处理器1002中的至少一个的控制模块(芯片组)1004、被耦合到控制模块1004的存储器1006、被耦合到控制模块1004的非易失性存储器(nvm)/存储设备1008、被耦合到控制模块1004的一个或多个输入/输出设备1010,以及被耦合到控制模块1004的网络接口1012。
[0200]
处理器1002可包括一个或多个单核或多核处理器,处理器1002可包括通用处理器或专用处理器(例如图形处理器、应用处理器、基频处理器等)的任意组合。在一些实施例中,装置1000能够作为本技术实施例中所述终端设备、服务端(集群)等设备。
[0201]
在一些实施例中,装置1000可包括具有指令1014的一个或多个计算机可读介质(例如,存储器1006或nvm/存储设备1008)以及与该一个或多个计算机可读介质相合并被配置为执行指令1014以实现模块从而执行本公开中所述的动作的一个或多个处理器1002。
[0202]
对于一个实施例,控制模块1004可包括任意适当的接口控制器,以向(一个或多个)处理器1002中的至少一个和/或与控制模块1004通信的任意适当的设备或组件提供任意适当的接口。
[0203]
控制模块1004可包括存储器控制器模块,以向存储器1006提供接口。存储器控制器模块可以是硬件模块、软件模块和/或固件模块。
[0204]
存储器1006可被用于例如为装置1000加载和存储数据和/或指令1014。对于一个实施例,存储器1006可包括任意适当的易失性存储器,例如,适当的dram。在一些实施例中,存储器1006可包括双倍数据速率类型四同步动态随机存取存储器(ddr4sdram)。
[0205]
对于一个实施例,控制模块1004可包括一个或多个输入/输出控制器,以向nvm/存储设备1008及(一个或多个)输入/输出设备1010提供接口。
[0206]
例如,nvm/存储设备1008可被用于存储数据和/或指令1014。nvm/存储设备1008可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(一个或多个)非易失性存储设备(例如,一个或多个硬盘驱动器(hdd)、一个或多个光盘(cd)驱动器和/或一个或多个数字通用光盘(dvd)驱动器)。
[0207]
nvm/存储设备1008可包括在物理上作为装置1000被安装在其上的设备的一部分的存储资源,或者其可被该设备访问可不必作为该设备的一部分。例如,nvm/存储设备1008可通过网络经由(一个或多个)输入/输出设备1010进行访问。
[0208]
(一个或多个)输入/输出设备1010可为装置1000提供接口以与任意其他适当的设备通信,输入/输出设备1010可以包括通信组件、音频组件、传感器组件等。网络接口1012可为装置1000提供接口以通过一个或多个网络通信,装置1000可根据一个或多个无线网络标准和/或协议中的任意标准和/或协议来与无线网络的一个或多个组件进行无线通信,例如接入基于通信标准的无线网络,如wifi、2g、3g、4g、5g等,或它们的组合进行无线通信。
[0209]
对于一个实施例,(一个或多个)处理器1002中的至少一个可与控制模块1004的一个或多个控制器(例如,存储器控制器模块)的逻辑封装在一起。对于一个实施例,(一个或多个)处理器1002中的至少一个可与控制模块1004的一个或多个控制器的逻辑封装在一起以形成系统级封装(sip)。对于一个实施例,(一个或多个)处理器1002中的至少一个可与控制模块1004的一个或多个控制器的逻辑集成在同一模具上。对于一个实施例,(一个或多个)处理器1002中的至少一个可与控制模块1004的一个或多个控制器的逻辑集成在同一模具上以形成片上系统(soc)。
[0210]
在各个实施例中,装置1000可以但不限于是:服务端、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)等终端设备。在各个实施例中,装置1000可具有更多或更少的组件和/或不同的架构。例如,在一些实施例中,装置1000包括一个或多个摄像机、键盘、液晶显示器(lcd)屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路(asic)和扬声器。
[0211]
其中,检测装置中可采用主控芯片作为处理器或控制模块,传感器数据、位置信息等存储到存储器或nvm/存储设备中,传感器组可作为输入/输出设备,通信接口可包括网络接口。
[0212]
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
[0213]
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
[0214]
本技术实施例是参照根据本技术实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中
指定的功能的装置。
[0215]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0216]
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0217]
尽管已描述了本技术实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本技术实施例范围的变更和修改。
[0218]
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
[0219]
以上对本技术所提供的一种模型结构的获取方法及装置、基于硬件算力约束的模型确定方法及装置、语义识别方法及装置、电子设备、机器可读介质,进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的一般技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本技术的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1