一种基于深度学习模型的多任务实现方法、装置与流程

文档序号:31073758发布日期:2022-08-09 21:26阅读:188来源:国知局
一种基于深度学习模型的多任务实现方法、装置与流程

1.本发明涉及人工智能领域,特别地,涉及一种基于深度学习模型的多任务实现方法。


背景技术:

2.深度学习被引入机器学习使其更接近于最初的目标
‑‑‑‑
人工智能(ai,artificial intelligence)。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字、图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
3.深度学习模型是由多个单层非线性网络叠加而成的,其打破了传统神经网络对层数的限制,可根据设计需要选择网络层数。
4.现有的基于深度学习模型的多任务实现方法,通常是为每个任务分别设计独立的网络结构,各网络结构集成到应用设备上,独立进行处理以实现对应的任务,这导致功耗较大。


技术实现要素:

5.本发明提供了一种基于深度学习模型的多任务实现方法,以降低多任务实现的功耗。
6.本发明提供的一种基于深度学习模型的多任务实现方法,包括:用于将待处理任务数据经深度学习模型中的第一特征提取单元进行特征提取,得到第一特征提取结果,将第一特征提取结果经所述深度学习模型中的第二特征提取单元进行特征提取,得到第二特征提取结果,以此类推,将第i-1特征提取结果经所述深度学习模型中的第i特征提取单元进行特征提取,得到第i特征提取结果;分别基于来自至少两个特征提取单元输出的特征结果,进行任务处理,其中,第一特征提取单元为:至少两个以上待处理任务所共有的特征提取单元,第二特征提取单元为:第一特征提取单元处理后的当前剩余任务所共有的特征提取单元中,除去第一特征提取单元之外剩余的特征提取单元,以此类推,第i特征提取单元为:除去i-1个特征提取单元所处理任务之后剩余任务所共有的特征提取单元中,除去第一特征提取单元、第二特征提取单元、直至第i-1单元之外剩余的特征提取单元,i为大于1的自然数。
7.较佳地,每个所述特征提取单元至少包括具有设定网络层数的特征提取器,
其中,网络层数按照如下方式设定:将各个任务所需特征提取器的网络层数进行排序,将相同网络层数保留为一个网络层数,得到排序结果,该排序结果中包括不等的网络层数,设置第一特征提取单元中的第一特征提取器的网络层数为:排序结果中具有最小值的第一网络层数,设置第二特征提取单元中的第二特征提取器的网络层数为:排序结果中与所述第一网络层数相邻、且大于所述第一网络层数的第二网络层数,与所述第一网络层数之间的差值,以此类推,设置第i特征提取单元中的第i特征提取器的网络层数为:排序结果中与所述第i-1网络层数相邻、且大于所述第i-1网络层数的第i网络层数,与所述第i-1网络层数的之间的差值。
8.较佳地,所述多任务包括:语音关键词识别任务,语音识别任务,音色转换任务;所述第一特征提取单元对待处理的语音数据进行特征提取,得到第一特征提取结果,第一特征提取结果经第一分类器处理,得到关键词预测结果,所述第二特征提取单元对第一特征提取结果进行特征提取,得到第二特征提取结果,第二特征提取结果依次经上采样特征提取器、生成器处理,得到音色转换结果,所述第三特征提取单元对第二特征提取结果进行特征提取,得到第三特征提取结果,第三特征提取结果经第二分类器处理,得到字预测结果。
9.较佳地,所述第一特征提取单元包括下采样特征提取器以及第一特征提取器,所述第二特征提取单元包括第二特征提取器,所述第三特征提取单元包括第三特征提取器,所述第一分类器包括用于进行关键词分类的第二全连接层,所述第二分类器包括用于进行字分类的第三全连接层,所述上采样特征提取器包括用于上采样特征提取的反卷积层,所述生成器包括用于生成转换语音的第四全连接层。
10.较佳地,所述下采样特征提取器包括以下依次相连的卷积下采样层、第一全连接层,所述第一特征提取器包括依次连接的第一特征提取层和第二特征提取层,所述第一全连接层的输出送至所述第一特征提取层;所述第二特征提取器包括依次连接的第三特征提取层和第四特征提取层,第二特征提取层的输出送至第三特征提取层、以及第二全连接层,所述第三特征提取器包括依次连接的第五特征提取层、第六特征提取层、第七特征提取层、第八特征提取层、第九特征提取层、第十特征提取层,第四特征提取层的输出送至第五特征提取层、以及反卷积层,第十特征提取层的输出送至第三全连接层,所述反卷积层的输出送至第四全连接层。
11.较佳地,每个所述特征提取层依次进行第一前馈处理、多头注意力处理、卷积处
理、第二前馈处理、归一化处理;所述深度学习模型按照如下方式进行训练:将样本任务数据输入至所述深度学习模型,根据深度学习模型输出的各样本任务结果,确定各样本任务的损失函数值,融合各样本任务的损失函数值,得到融合损失函数值,根据融合损失函数值,调整深度学习模型的模型参数;其中,融合损失函数值为各样本任务损失函数值的加权之和。
12.本发明还提供一种基于深度学习模型的多任务实现装置,该装置包括:深度学习模型中的第一特征提取单元,用于对待处理任务数据进行特征提取,得到第一特征提取结果,深度学习模型中的第二特征提取单元,用于将第一特征提取结果进行特征提取,得到第二特征提取结果,以此类推,深度学习模型中的第i特征提取单元,用于将第i-1特征提取结果进行特征提取,得到第i特征提取结果;深度学习模型中的任务处理单元,用于分别基于来自至少两个以上特征提取单元输出的特征结果进行任务处理,其中,第一特征提取单元为:至少两个待处理任务所共有的特征提取单元,第二特征提取单元为:第一特征提取单元处理后的当前剩余任务所共有的特征提取单元中,除去第一特征提取单元之外剩余的特征提取单元,以此类推,第i特征提取单元为:除去i-1个特征提取单元所处理任务之后剩余任务所共有的特征提取单元中,除去第一特征提取单元、第二特征提取单元、直至第i-1单元之外剩余的特征提取单元,i为大于1的自然数。
13.较佳地,每个所述特征提取单元至少包括具有设定网络层数的特征提取器,所述网络层数按照如下方式设定:将各个任务所需特征提取器的网络层数进行排序,将相同网络层数保留为一个网络层数,得到排序结果,该排序结果中包括不等的网络层数,设置第一特征提取单元中的第一特征提取器的网络层数为:排序结果中具有最小值的第一网络层数,设置第二特征提取单元中的第二特征提取器的网络层数为:排序结果中与所述第一网络层数相邻、且大于所述第一网络层数的第二网络层数与所述第一网络层数之间的差值,以此类推,设置第i特征提取单元中的第i特征提取器的网络层数为:排序结果中与所述第i-1网络层数相邻、且大于所述第i-1网络层数的第i网络层数,与所述第i-1网络层数的之间的差值。
14.较佳地,所述多任务包括:语音关键词识别任务,语音识别任务,音色转换任务;任务处理单元包括第一分类器、第二分类器、以及用于进行音色转换的上采样特征提取器和生成器;所述第一特征提取单元被配置为对待处理的语音数据进行特征提取,得到第一特征提取结果,所述第一分类器对第一特征提取结果进行关键词分类处理,得到关键词预测结果,所述第二特征提取单元被配置为对第一特征提取结果进行特征提取,得到第二特征提取结果,第二特征提取结果依次经上采样特征提取器、生成器处理,得到音色转换结果,所述第三特征提取单元被配置为对第二特征提取结果进行特征提取,得到第三特征提取结果,所述第二分类器对第三特征提取结果进行字分类处理,得到字预测结果。
15.较佳地,所述第一特征提取单元包括下采样特征提取器以及第一特征提取器,所述第二特征提取单元包括第二特征提取器,所述第三特征提取单元包括第三特征提取器,所述第一分类器包括用于进行关键词分类的第二全连接层,所述第二分类其包括用于进行字分类的第三全连接层,所述上采样特征提取器包括用于上采样特征提取的反卷积层,所述生成器包括用于生成转换语音的第四全连接层。
16.较佳地,所述下采样特征提取器包括下依次相连的卷积下采样层、第一全连接层,所述第一特征提取器包括依次连接的第一特征提取层和第二特征提取层,所述第一全连接层的输出送至所述第一特征提取层;所述第二特征提取器包括依次连接的第三特征提取层和第四特征提取层,第二特征提取层的输出送至第三特征提取层、以及第二全连接层,所述第三特征提取器包括依次连接的第五特征提取层、第六特征提取层第七特征提取层、第八特征提取层、第九特征提取层、第十特征提取层,第四特征提取层的输出送至第五特征提取层、以及反卷积层,第十特征提取层的输出送至第三全连接层,所述反卷积层的输出送至第四全连接层。
17.较佳地,每个所述特征提取层包括依次连接的第一前馈网络层、多头注意力网络层、卷积网络层、第二前馈网络层、归一化网络层。
18.本技术还提供一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现任一所述基于深度学习模型的多任务实现方法的步骤。
19.本技术提供的一种基于深度学习模型的多任务实现方法,通过将各任务所需的特征提取单元逐单元地共用,使得各特征提取单元可输出各任务所需特征以进行相应的任务处理,这样,用于实现各任务的既有深度学习模型得以融合,降低了深度模型的总参数量,从而降低了任务实现过程中的功耗;并且,由于多任务的实现过程中只需保留各特征提取单元的输出结果,相比于保留待处理任务的原始数据,所占资源大幅降低,有利于进一步降低系统功耗。
附图说明
20.图1为本技术基于深度学习模型的多任务实现方法的一种流程示意图。
21.图2为目前通过3个深度学习模型来分别进行语音关键词识别、语音识别、音色转换的一种示意图。
22.图3 为目前通过kws模型、asr模型、vc模型进行语音识别的一种示意图。
23.图4为本技术实施例实现语音识别多任务的深度学习模型的一种示意图。
24.图5为本技术实施例基于融合深度学习模型进行语音识别的一种示意图。
25.图6为conformer结构的一种示意图。
26.图7为采用conformer结构实现各特征提取单元以及融合深度学习模型的一种示意图。
27.图8为本技术实施例基于深度学习模型的多任务实现装置的一种示意图。
28.图9为本技术实施例基于深度学习模型的多任务实现装置的另一种示意图。
具体实施方式
29.为了使本技术的目的、技术手段和优点更加清楚明白,以下结合附图对本技术做进一步详细说明。
30.本技术的一种基于深度学习模型的多任务实现方法,通过将各任务所需的特征提取单元逐单元地共用,使得各特征提取单元可输出各任务所需特征以进行相应的任务处理。
31.参见图1所示,图1为本技术基于深度学习模型的多任务实现方法的一种流程示意图。不失一般性地,用于将待处理任务数据经深度学习模型中的第一特征提取单元进行特征提取,得到第一特征提取结果,将第一特征提取结果经深度学习模型中的第二特征提取单元进行特征提取,得到第二特征提取结果,以此类推,将第i-1特征提取结果经深度学习模型中的第i特征提取单元进行特征提取,得到第i特征提取结果;其中,第一特征提取单元为:至少两个以上待处理任务所共有的特征提取单元,第二特征提取单元为:第一特征提取单元处理后的当前剩余任务所共有的特征提取单元中,除去第一特征提取单元之外剩余的特征提取单元,以此类推,第i特征提取单元为:除去i-1个特征提取单元所处理任务之后剩余任务所共有的特征提取单元中,除去第一特征提取单元、第二特征提取单元、直至第i-1单元之外剩余的特征提取单元,i为大于1的自然数。
32.分别基于来自至少两个特征提取单元输出的特征结果,进行任务处理。
33.例如,假设有4个任务,每个任务所需要的特征提取的网络层数分别是:2、2、7、10,那么:
第一特征提取单元为该4个任务所共有的特征提取单元,即,从网络层数2、2、7、10可见,所共有的特征单元的网络层数为2,这样,通过第一特征提取单元可用于完成第一任务、以及第二任务的特征提取,以便实现第一任务和第二任务。
34.继第一特征提取单元之后,当前剩余任务(2个剩余任务)特征提取单元的网络层数分别为7、10,所共有的特征单元的网络层数为7,由于第一特征提取单元已提供的网络层数有2层,则第二特征提取单元为从7中除去第一特征提取单元之外剩余的5层,通过第一特征提取单元、第二特征提取单元可用于完成第三任务的特征提取,以便实现第三任务。
35.同样地,继第三特征提取单元之后,当前剩余任务(1个剩余任务)特征提取单元的网络层数10,由于第一特征提取单元已提供的网络层数有2层,第二特征提取单元已可提供的网络层数有5层,则第三特征提取单元为从10中除去第一特征提取单元、第二特征提取单元之外所剩余的3层,通过第一特征提取单元、第二特征提取单元、第三特征提取单元可用于完成第四任务的特征提取,以便实现第四任务。
36.作为另一示例,每个所述特征提取单元至少包括具有设定网络层数的特征提取器,其中,网络层数按照如下方式设定:将各个任务所需特征提取器的网络层数进行排序,将相同网络层数保留为一个网络层数,得到排序结果,该排序结果中包括不等的网络层数,设置第一特征提取单元中的第一特征提取器的网络层数为:排序结果中具有最小值的第一网络层数,设置第二特征提取单元中的第二特征提取器的网络层数为:排序结果中与所述第一网络层数相邻、且大于所述第一网络层数的第二网络层数,与所述第一网络层数之间的差值,以此类推,设置第i特征提取单元中的第i特征提取器的网络层数为:排序结果中与所述第i-1网络层数相邻、且大于所述第i-1网络层数的第i网络层数,与所述第i-1网络层数的之间的差值。
37.例如,假设有4个任务,每个任务所需要的特征提取的网络层数分别是:2、7、2、10,那么:对每个任务所需要的特征提取的网络层数进行排序,得到排序结果依次为2,2,7,10,其中,排序结果具有两个相同的网络层数2,故仅保留其中一个,这样,排序结果为2,7,10;则:第一特征提取单元中的第一特征提取器的网络层数为排序结果中的最小值,其为2,即,第一特征提取单元中包括两个网络层数的特征提取器,第二特征提取单元中的第二特征提取器的网络层数为排序结果中7与2之间的差值,其为5,即:第二特征提取单元中包括五个网络层数的特征提取器,第三特征提取单元中的第三特征提取器的网络层数为排序结果中10与7之间的差值,其为3,即:第三特征提取单元中包括三个网络层数的特征提取器。
38.所述深度学习模型按照如下方式进行训练:将样本任务数据输入至所述深度学习模型,
根据深度学习模型输出的各样本任务结果,确定各样本任务的损失函数值,融合各样本任务的损失函数值,得到融合损失函数值,其中,融合损失函数值为各样本任务的损失函数值的加权之和;根据融合损失函数值,调整深度学习模型的模型参数。
39.其中,融合损失函数值可用数学式表示为:l=其中,l表示融合损失函数值,表示样本任务j的损失函数值的加权系数,表示样本任务j的损失函数值,j表示深度学习模型所处理的多任务的总数,为大于1的自然数。
40.为便于理解本技术,以下以基于深度学习模型的语音识别任务为例来说明多任务的实现,所应理解的是,本技术不限于此,任何基于深度学习的多任务实现也可适用,包括且不限于图像分类及识别、人脸识别、视频分类、行为识别、图像超分辨率重建、纹理识别、行人检测、场景标记、门牌识别、手写体字符识别、图像检索、人体运行行为识别等。
41.当前语音领域常见的语音到文字、语音到语音的应用有:语音关键词识别(kws,keyword spotting)、语音识别(asr,automatic speech recognition)、音色转换(vc,voice conversion)。每一个应用可理解为深度学习中的每一个任务。业界当前的实现方式是分别设计3个深度学习模型,每个深度学习模型独立地进行处理,如果将这3个深度学习模型集成到应用端上,例如,集成到终端设备上,功耗将变得非常大。
42.参见图2所示,图2为目前通过3个深度学习模型来分别进行语音关键词识别、语音识别、音色转换的一种示意图。图中,(a)为kws模型的结构,用于识别输入的语音数据中关键词预测结果,例如关键词时序预测概率结果,该kws模型包括依次连接的下采样特征提取器1、具有2层网络深度的特征提取器1、以及分类器1;(b)为asr模型的结构,用于识别输入的语音数据中字预测结果,例如,字时序预测概率结果,该asr模型包括依次连接的下采样特征提取器2、具有10层网络深度的特征提取器2、以及分类器2;(c)代表vc模型的结构,用于将输入的语音数据进行音色转换的转换结果,包括依次连接的下采样特征提取器3、具有4层网络深度的特征提取器3、以及上采样特征提取器、生成器。图中,“特征提取器2”、“特征提取器10”、“特征提取器4”中的数字用以示意特征提取器的网络深度,即网络层数。
43.参见图3所示,图3为目前通过kws模型、asr模型、vc模型进行语音识别的一种示意图。待识别的语音数据首先经过kws模型,若kws模型唤醒后,进行任务逻辑判断,即,判断是否进行asr处理,如果是,则将待识别的语音数据输入至asr模型,同样地,如果需要进行vc处理,则将待识别的语音数据输入至 vc模型,由于3个模型互相独立,在系统设计的时候需要一直存储待识别的语音数据,以保证asr模型和vc模型接触到的语音片段是完整的。如此,即便kws模型已经处理过部分语音片段,asr模型、vc模型总会再次对完整的语音数据进行处理。
44.此外,由于上述3个深度学习模型独立运行,因此,在模型训练过程中,也需要分别训练3个深度学习模型,这也导致训练的工作量大,效率低,训练效果不佳。
45.有鉴于此,本技术实施例将kws模型、asr模型、vc模型中具有类似结构的下采样特征提取器、以及部分特征提取器合并为第一特征提取单元,以使得kws模型、asr模型、vc模
型共享第一特征提取单元,将asr模型、vc模型中的特征提取器合并为第二特征提取单元,以使得asr模型、vc模型共享第二特征提取单元,将asr模型中剩余的特征提取器确定为第三特征提取单元。
46.参见图4所示,图4为本技术实施例实现语音识别多任务的深度学习模型的一种示意图。第一特征提取单元作为kws、asr、vc三个模型的公共特征提取器,由下采样特征提取器和具有2层网络层数的第一特征提取器组成,第一特征提取器的输出送入第二特征提取单元中具有2层网络层数的第二特征提取器的同时,送入第一分类器,以实现kws功能;第二特征提取单元作为asr和vc的公共特征提取器,由第二特征提取器组成,第二特征提取器的输出送入第三特征提取单元的同时,也送入vc的上采样特征提取器,从而实现vc功能;第三特征提取单元作为asr的特征提取器,由具有6层网络层数的第三特征提取器组成,其第三特征提取器的输出送入第二分类器,以实现asr功能。
47.这样,就等同于一个融合深度学习模型实现了3个任务,从而获得3个功能。通过各模型的融合,将大幅降低融合深度学习模型参数量,使得融合深度学习模型计算时功耗降低。例如,假设每层特征提取器需要1m参数、分类器需要1m参数,那么,融合前,kws模型因包括下采样特征提取器1和具有2层网络层数的特征提取器1、分类器1而需要4m参数,asr模型因包括下采样特征提取器2和具有10层网络层数的特征提取器2、分类器2而需要12m参数,vc模型因包括下采样特征提取器3和具有4层网络层数的特征提取器3、以及上采样特征提取器、生成器而需要7m参数,三个模型共计需要23m参数。按照本实施例融合深度学习模型后,因融合深度学习模型整体上包括下采样特征提取器、2层的第一特征提取器、2层的第二特征提取器、6层的第三特征提取器、以及上采样特征提取器、分类器1、分类器2、生成器,共计需要15m参数,如此融合深度学习模型在特征提取器方面压缩了15/23,即35%左右。
48.参见图5所示,图5为本技术实施例基于融合深度学习模型进行语音识别的一种示意图。待识别语音数据经过第一特征提取单元和第一分类器进行语音关键词识别,若kws唤醒后,进行任务逻辑判断,即,判断是否进行asr处理,如果是,则将第一特征提取单元的输出送入第二特征提取单元,第二特征提取单元的输出送入第三特征提取单元,并判断是否进行asr处理,如果是,则第二特征提取单元的输出还送入上采样特征提取器。其中,第三特征提取单元的输出送入第二分类器,从而实现asr处理,上采样特征提取器的输出送入生成器,从而实现vc处理。从上述融合深度学习模型的处理过程来看,本技术实施例与独立模型的处理的不同在于,第一特征提取单元、第二特征提取单元、第三特征提取单元是有联系的,第一特征提取单元的输出可以直接送入第二特征提取单元,这样只需保留第一特征提取单元的输出结果,不需要保存待识别的语音片段,而第一特征提取单元一般会将待识别的语音片段压缩至原始信号的八分之一,所以同等情况下,所占资源是图2中(a)的八分之一。
49.参见图6所示,图6为conformer结构的一种示意图。图中,conformer包括依次连接的卷积下采样层(convolution subsampling)、全连接层(dense)、以及特征提取层(block),其中,卷积下采样层(convolution subsampling)、全连接层构成下采样特征提取器,特征提取层包括依次连接的第一前馈网络层(feed forward)、多头注意力网络层(multihead attention)、卷积网络层 ( convolution) 、第二前馈网络层、归一化网络层
(norm),用以构成一层特征提取器。
50.参见图7所示,图7为采用conformer结构实现各特征提取单元以及融合深度学习模型的一种示意图。图中,(a)为第一特征提取单元,包括依次连接的卷积下采样层、第一全连接层、第一特征提取层、第二特征提取层;(b)为第二特征提取单元,包括依次连接的第三特征提取层、第四特征提取层,(c)为第三特征提取单元,包括依次连接的第五特征提取层、第六特征提取层、第七特征提取层、第八特征提取层、第九特征提取层、以及第十特征提取层。(d)为融合深度学习模型,包括依次连接的(a)中的第一特征提取单元、(b )中的第二特征提取单元、(c)中的第三特征提取单元,其中,第二特征提取层的输出还连接有第二全连接层,用于进行关键词分类,第二特征提取层的输出还依次连接有反卷积层(transposed convolution)、以及第四全连接层,该反卷积层用于实现上采样特征提取器,该第四全连接层用于实现生成器,第十特征提取层的输出连接有第三全连接层,用于进行字分类。
51.当对融合深度学习模型进行训练时,将样本语音数据输入至融合深度学习模型,根据样本关键词时序预测概率结果、样本字时序预测概率结果、样本转换结果三者的融合损失函数值,调整融合深度学习模型的模型参数。其中,损失函数值可用数学式表达为:其中,、为加权系数,取值在0到1之间,可根据深度学习模型的设计需要而确定,、、分别为样本关键词时序预测概率结果的损失函数值、样本字时序预测概率结果的损失函数值、样本转换结果的损失函数值,l为融合损失函数值。
52.本实施例将基于融合深度学习模型的多个任务合并,降低了深度学习模型的总参数量,从而降低了深度学习模型的资源消耗;由于运行过程中只需保留第一特征提取单元压缩后的特征输出,使系统所占资源大幅降低。两者效果叠加,使得本实施例的功耗将远远小于非融合的深度学习模型的功耗;同时,也正因为将原来独立的各个深度学习模型合而为一,kws、asr、vc模型互相关联互相影响,在训练时既提升了公共特征提取器的特征提取能力,又提高了kws、asr、vc的性能,既降低了模型参数调整的难度,又提高了模型参数调整的效率。
53.参见图8所示,图8为本技术实施例基于深度学习模型的多任务实现装置的一种示意图,该装置包括:第一特征提取单元,用于对待处理任务数据进行特征提取,得到第一特征提取结果,第二特征提取单元,用于将第一特征提取结果进行特征提取,得到第二特征提取结果,以此类推,第i特征提取单元,用于将第i-1特征提取结果进行特征提取,得到第i特征提取结果;任务处理单元,用于基于来自至少两个特征提取单元输出的特征结果进行任务处理,其中,第一特征提取单元为:至少两个以上待处理任务所共有的特征提取单元,
第二特征提取单元为:第一特征提取单元处理后的当前剩余任务所共有的特征提取单元中,除去第一特征提取单元之外剩余的特征提取单元,以此类推,第i特征提取单元为:除去i-1个特征提取单元所处理任务之后剩余任务所共有的特征提取单元中,除去第一特征提取单元、第二特征提取单元、直至第i-1单元之外剩余的特征提取单元,i为大于1的自然数。
54.上述各个特征提取单元、任务处理单元构成本技术实施例的深度学习模型。
55.参见图9所示,图9为本技术实施例基于深度学习模型的多任务实现装置的另一种示意图,该装置包括:存储器和处理器,所述存储器存储有计算机程序,所述处理器执行计算机程序以实现基于深度学习模型的多任务实现方法的步骤。
56.存储器可以包括随机存取存储器(random access memory,ram),也可以包括非易失性存储器(non-volatile memory,nvm),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
57.上述的处理器可以是通用处理器,包括中央处理器(central processing unit,cpu)、网络处理器(network processor,np)等;还可以是数字信号处理器(digital signal processing,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
58.本发明实施例还提供了一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现基于深度学习模型的多任务实现方法的步骤。
59.对于装置/网络侧设备/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
60.在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
61.以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1