一种用于移动终端图像分割模型训练方法和装置与流程

文档序号:30048252发布日期:2022-05-17 14:04阅读:138来源:国知局
一种用于移动终端图像分割模型训练方法和装置与流程

1.本发明涉及图像处理技术领域,特别是涉及一种用于移动终端图像分割模型训练方法、一种用于移动终端图像分割模型训练装置、一种电子设备个一种存储介质。


背景技术:

2.图像分割广泛应用于多种场景,其中天空分割则多用于图像美化、去雾及后期制作等方向。传统的天空分割采用高斯滤波或边缘提取算子对图像进行处理,耗时长、计算量大难以应用于实时领域。而利用深度学习训练的神经网络模型通常参数量较大,效果虽好但是无法部署在手机等移动终端,通常需要网络传输至云端服务器进行处理,在极端条件下缺少鲁棒性,成本也偏高。


技术实现要素:

3.鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种用于移动终端图像分割模型训练方法、一种用于移动终端图像分割模型训练装置、一种电子设备和一种存储介质。
4.为了解决上述问题,本发明实施例公开了一种用于移动终端图像分割模型训练方法,包括:获取图像分割训练样本集,初始模型,助教模型以及学生模型;所述图像分割训练样本集包括粗标注数据和第一精标注数据;所述初始模型的参数量大于所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;采用所述教师模型标注所述粗标注数据,生成第二精标注数据和难例数据;结合所述第二精标注数据、所述难例数据以及所述第一精标注数据得到全量数据集合;采用所述全量数据集合训练所述助教模型;基于所述全量数据集合,采用训练后的助教模型蒸馏训练所述学生模型,得到图像分割模型,所述图像分割模型用于在移动终端进行图像分割处理。
5.可选地,所述结合所述第二精标注数据、所述难例数据以及所述第一精标注数据得到全量数据集合的步骤包括:将所述第一精标注数据与所述第二精标注数据结合得到精标注数据集合;在所述精标注数据集合上增加所述难例数据生成全量数据集合。
6.可选地,所述采用所述全量数据集合训练所述助教模型的步骤包括:针对所述全量数据集合进行标注;采用标注后的全量数据集合训练所述助教模型。
7.可选地,所述基于所述全量数据集合,采用训练后的助教模型蒸馏训练所述学生
模型,得到图像分割模型的步骤包括:采用所述助教模型在所述全量数据集合上,对所述学生模型进行蒸馏训练;采用所述精标注数据集合对蒸馏训练后的学生模型进行训练,得到预训练模型;采用预设的多种监督策略训练所述预训练模型,生成图像分割模型。
8.可选地,所述采用所述助教模型在所述全量数据集合上,对所述学生模型进行蒸馏训练的步骤包括:将所述助教模型作为所述蒸馏训练的监督模型,采用全量数据集合对所述学生模型进行蒸馏。
9.可选地,所述采用所述精标注数据集合对蒸馏训练后的学生模型进行训练,得到预训练模型的步骤包括:采用所述精标注数据集合对蒸馏训练后的学生模型进行训练;当所述蒸馏训练后的学生模型输出的平均损失恒定时,降低所述蒸馏训练后的学生模型的损失约束权重,采用所述精标注数据集合对降低损失约束权重的学生模型进行训练,得到预训练模型。
10.可选地,所述监督策略包括损失函数,所述采用预设的多种监督策略训练所述预训练模型,生成图像分割模型的步骤包括:采用多种损失函数逐一训练所述预训练模型,生成图像分割模型。
11.本发明实施例还公开了一种用于移动终端图像分割模型训练装置,包括:获取模块,用于获取图像分割训练样本集,初始模型,助教模型以及学生模型;所述图像分割训练样本集包括粗标注数据和第一精标注数据;所述初始模型的参数量大于所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;第一训练模块,用于采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;标注模块,用于采用所述教师模型标注所述粗标注数据,生成第二精标注数据和难例数据;结合模块,用于结合所述第二精标注数据、所述难例数据以及所述第一精标注数据得到全量数据集合;第二训练模块,用于采用所述全量数据集合训练所述助教模型;第三训练模块,用于基于所述全量数据集合,采用训练后的助教模型蒸馏训练所述学生模型,得到图像分割模型,所述图像分割模型用于在移动终端进行图像分割处理。
12.本发明实施例还公开了一种电子设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的用于移动终端图像分割模型训练方法的步骤。
13.本发明实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述的用于移动终端图像分割模型训练方法的步骤。
14.本发明实施例包括以下优点:本发明实施例通过获取图像分割训练样本集,初始模型,助教模型以及学生模型;所述图像分割训练样本集包括粗标注数据和第一精标注数据;所述初始模型的参数量大于
所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;采用所述教师模型标注所述粗标注数据,生成第二精标注数据和难例数据;结合所述第二精标注数据、所述难例数据以及所述第一精标注数据得到全量数据集合;采用所述全量数据集合训练所述助教模型;基于所述全量数据集合,采用训练后的助教模型蒸馏训练所述学生模型,得到图像分割模型,所述图像分割模型用于在移动终端进行图像分割处理。通过全量数据训练初始模型得到教师模型,再通过教师模型训练助教模型,最后再利用助教模型蒸馏训练学生模型,通过大模型引导小模型循序渐进进行训练,在保留精度的前提下,神经网络模型不断变小,从而实现精度与速度的兼顾。
附图说明
15.图1是本发明的一种用于移动终端图像分割模型训练方法实施例的步骤流程图;图2是本发明的一种用于移动终端图像分割模型训练方法实施例的步骤流程图;图3是本发明的一种用于移动终端图像分割模型训练装置实施例的结构框图。
具体实施方式
16.为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
17.参照图1,示出了本发明的一种用于移动终端图像分割模型训练方法实施例的步骤流程图,具体可以包括如下步骤:步骤101,获取图像分割训练样本集,初始模型,助教模型以及学生模型;所述图像分割训练样本集包括粗标注数据和第一精标注数据;所述初始模型的参数量大于所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;在实际用于中,可以从指定地址获取图像分割训练样本集,初始模型,助教模型以及学生模型。其中,所述指定地址可以是本地存储地址,也可以是第三方存储地址,本发明实施例对此不作具体限定。
18.对于所述图像分割训练样本集,其包括粗标注数据和第一精标注数据;对于粗标注数据和第一精标注数据的区分,可以采用人工标注的方式进行区分。需要说明的是,第一精标注为图像分割训练样本集中的精标注数据。
19.此外,初始模型,助教模型以及学生模型的结构相同,参数量不同。具体地,所述初始模型的参数量大于所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;即按照参数量从大到小排序即为{初始模型,助教模型,学生模型}。
20.步骤102,采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;采用精标注数据训练初始模型,保证教师模型是最优的精度。其中教师模型用于标注所述图像分割训练样本集,即对图像分割训练样本集中的数据进行分类标注。
21.步骤103,采用所述教师模型标注所述粗标注数据,生成第二精标注数据和难例数据;采用教师模型标注粗标注数据,对获取到的粗标注数据进行更细化的分类标注,
生成第二精标注数据和难例数据。需要说明的是,第二精标注为教师模型针对粗标注数据中的数据进行标注生成的精标注数据。
22.步骤104,结合所述第二精标注数据、所述难例数据以及所述第一精标注数据得到全量数据集合;将标注后的第二精标注数据、难例数据以及第一精标注数据进行结合得到全量数据对应的全量数据集合。
23.步骤105,采用所述全量数据集合训练所述助教模型;采用全量数据集合训练助教模型,以便于将教师模型的巨大参数量进行降低,得到参数量较小的助教模型。
24.步骤106,基于所述全量数据集合,采用训练后的助教模型蒸馏训练所述学生模型,得到图像分割模型,所述图像分割模型用于在移动终端进行图像分割处理。
25.在本发明实施例中,训练后的助教模型在全量数据集合上,蒸馏训练学生模型,以进一步地将对数据量更小的学生模型进行训练,得到可以用于在移动终端进行图像分割处理的图像分割模型。以使得最终训练得到的图像分割模型可以部署于移动终端上。
26.本发明实施例通过获取图像分割训练样本集,初始模型,助教模型以及学生模型;所述图像分割训练样本集包括粗标注数据和第一精标注数据;所述初始模型的参数量大于所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;采用所述教师模型标注所述粗标注数据,生成第二精标注数据和难例数据;结合所述第二精标注数据、所述难例数据以及所述第一精标注数据得到全量数据集合;采用所述全量数据集合训练所述助教模型;基于所述全量数据集合,采用训练后的助教模型蒸馏训练所述学生模型,得到图像分割模型,所述图像分割模型用于在移动终端进行图像分割处理。通过全量数据训练初始模型得到教师模型,再通过教师模型训练助教模型,最后再利用助教模型蒸馏训练学生模型,通过大模型引导小模型循序渐进进行训练,在保留精度的前提下,神经网络模型不断变小,从而实现精度与速度的兼顾。
27.参照图2,示出了本发明的另一种用于移动终端图像分割模型训练方法实施例的步骤流程图,具体可以包括如下步骤:步骤201,获取图像分割训练样本集,初始模型,助教模型以及学生模型;所述图像分割训练样本集包括粗标注数据和第一精标注数据;所述初始模型的参数量大于所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;从服务器的存储地址中,获取图像分割训练样本集,初始模型,助教模型以及学生模型。其中,图像分割训练样本集为经过人工筛选天空分割数据及其标注得到第一精标注数据和粗标注数据。具体地,筛选的方法可以是快速二义性筛选,选择留下的被认为标注正确且准确,被划分为第一精标注数据,而剩下的则被分为粗标注数据待用。
28.而初始模型,助教模型以及学生模型均为卷积模型,具有相同的结构,而参数量不同。具体地初始模型的参数量大于助教模型的参数量,助教模型的参数量大于学生模型的参数量。
29.步骤202,采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;
所述初始模型拥有较大的参数量,且输入尺寸为1024x512,训练完成有较高的精度的神经网络模型。因此,可以采用第一精标注数据训练初始模型,得到教师模型;以追求最优的模型精度。
30.步骤203,采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;在实际应用中,可以将粗标数据输入到的教师模型中,采用教师模型针对粗标注数据进行推理标注,生成教师模型对于粗标注数据的标注,舍弃粗标注数据的原有标注以新标注替代之。
31.然后采用快速二义性筛选对新标注的粗标注数据进行筛选,将标注准确的数据和标注确定为第二精标注数据;将标注依然不准确的数据和标注确定为难例数据。
32.步骤204,将所述第一精标注数据与所述第二精标注数据结合得到精标注数据集合;整合第二精标注数据到第一精标注数据中,得到精标注数据集合,以得到尽量多的精标注数据用于模型训练。并用精标注数据集合对教师模型继续进行训练。需要说明的是,继续训练指将上一轮训练好的教师模型作为预训练模型,训练前加载教师模型权重,在新的精标注数据集合上进行训练。以尽可能利用已有的数据榨干教师模型的上升空间,为后面步骤中标注的数据提高标注置信度;提高教师模型的泛化能力。
33.步骤205,在所述精标注数据集合上增加所述难例数据生成全量数据集合;在实际用于中,可以将当前的教师模型作为基线模型,默认教师模型所输出的掩膜数据准确,采用当前的教师模型对难例数据进行推理标注,并将得到的标注及难例数据一同并入精标数据集生成全量数据集合。其中,并入时需在标注文件中进行标记,以区分难例数据和原精标数据。
34.步骤206,采用所述全量数据集合训练所述助教模型;若直接使用学生模型对学生模型进行蒸馏训练,会因为模型参数量差距过大而导致学生模型难以学习教师模型的分布,最终难以收敛,且如果在蒸馏训练时对教师模型输入比它训练时的输入小的尺寸的图像,蒸馏效果会大打折扣。因此,可以采用全量数据集合训练助教模型,使得助教模型既学习了教师模型的分布,又将输入转为与学生模型相同的尺寸,为后面步骤中的蒸馏训练进行了铺垫。
35.在本发明的一可选实施例中,所述采用所述全量数据集合训练所述助教模型的步骤包括:子步骤s2061,针对所述全量数据集合进行标注;子步骤s2062,采用标注后的全量数据集合训练所述助教模型。
36.采用教师模型针对全量数据集合进行标注,用标注后的全量数据集合对助教模型进行训练,此训练环节与教师模型的训练相同。其中实时助教模型与教师模型除backbone外的结构相同,backbone采用相对更小的resnet18进行特征提取,输入改为512x256进行训练。
37.步骤207,采用所述助教模型在所述全量数据集合上,对所述学生模型进行蒸馏训练;在全量数据集合上,基于助教模型对输入的训练数据进行推理,对学生模型进行
蒸馏训练。
38.具体地,将所述助教模型作为所述蒸馏训练的监督模型,采用全量数据集合对所述学生模型进行蒸馏。即助教模型作为蒸馏训练中的监督者,对学生模型进行蒸馏训练。其中,蒸馏训练是指在模型训练过程中,助教模型冻结权重参数不进行训练,只对输入的训练数据进行推理,将得到助教模型推理后的掩膜数据,同掩膜数据的教师模型标注一同参与学生模型的损失计算,最终得到的损失做加权处理再进行反向传播更新权重参数。
39.其中,助教生成的掩膜数据与学生模型的掩膜数据之间为js散度距离损失约束,其目的在于让学生模型学习助教模型的输出分布;而教师模型的标注与学生模型输出之间使用diceloss进行损失约束,其目的在于让学生模型学习真实掩膜数据对应的掩膜形状大小和位置。
40.需要说明的是,js散度度量了两个概率分布的相似度,基于kl散度的变体,解决了kl散度非对称的问题。其中,js散度是对称的,其取值是 0到 1之间,因此可以度量为距离。
41.kl散度及js散度定义如下:其中p1 、p2为所需判断的两种分布,此处对应助教模型和学生模型的输出;x为输出矩阵中的某一个数值,x为该输出的所有数值集合;kl和js分别代表两种散度的算法函数,不带(x)的p为以分布为输出全体,加减和除法均按矩阵进行运算。
42.diceloss是一种集合度量函数,通常用于计算两个样本的相似度,取值范围在[0,1]之间,在发明实施例中,该diceloss主要的作用是对模型预测的掩膜区域与真实标注的掩膜区域计算面积与形状和位置的差异,与js散度约束分布形成互补。具体地,所述diceloss定义如下:其中p1 、p2同样为所需判断的两种分布,对应助教模型和学生模型的输出。
[0043]
此外,还可以将两种损失会以一定比例权重进行加权融合,作为反向传播时的总损失。
[0044]
步骤208,采用所述精标注数据集合对蒸馏训练后的学生模型进行训练,得到预训练模型;撤掉助教蒸馏,助教模型对学生模型的影响,采用所述精标注数据集合对蒸馏训练后的学生模型进行训练,得到预训练模型。
[0045]
在本发明的一可选实施例中,所述采用所述精标注数据集合对蒸馏训练后的学生模型进行训练,得到预训练模型的步骤包括:子步骤2081,采用所述精标注数据集合对蒸馏训练后的学生模型进行训练;子步骤2082,当所述蒸馏训练后的学生模型输出的平均损失恒定时,降低所述蒸馏训练后的学生模型的损失约束权重,采用所述精标注数据集合对降低损失约束权重的学
生模型进行训练,得到预训练模型。
[0046]
采用精标注数据集合对蒸馏训练后的学生模型进行持续的训练,当学生模型每个轮次输出的平均损失连续若干轮没有继续下降时,则降低js散度损失的权重,往复几次,直至降为0,最终只计算教师模型的标注与学生模型的输出的损失。在此状态下,训练学生模型直至损失震荡,即损失若干轮内不再下降,停止训练,获得预训练模型。
[0047]
此外,均还可以对难例数据对应输出得到的损失值进行权重加成,以提高模型对于难例的关注度,增加模型的泛化能力与鲁棒性。
[0048]
步骤209,采用预设的多种监督策略训练所述预训练模型,生成图像分割模型;所述图像分割模型用于在移动终端进行图像分割处理。
[0049]
对预训练模型交替更改采用的预设多种监督策略,精调得到最终的轻量化小模型即为图像分割模型,以可以部署于移动终端进行图像分割处理。
[0050]
在本发明的一可选实施例中,所述监督策略包括损失函数,所述采用预设的多种监督策略训练所述预训练模型,生成图像分割模型的步骤包括:子步骤s209,采用多种损失函数逐一训练所述预训练模型,生成图像分割模型。
[0051]
在实际应用中,在不改变预训练模型的模型结构的前提下,以其权重参数作为预训练参数,在精标注数据集合上进行训练,同时降低学习率,增大每一批送入预训练模型的样本数量,通常每批送入样本越多,一轮次内预训练模型的迭代次数会越少,同时损失下降的振荡程度也会越小。此处参数调整是为了让小模型在高置信度的数据中提升精度,寻找最优解。
[0052]
首先单独使用diceloss(函数),在改变数据的情况下不同时改变损失,以求平稳过渡以及使得模型在对应类别的形状、大小和位置方面学习到更多的内容。
[0053]
然后将模型的损失函数调整为交叉熵损失,让预训练模型去关注每个像素的类别,可以让预训练模型分割的边缘柔化,类与类之间有明显的过渡,交叉熵损失约束下的模型输出,在类别交界线附近的会有更多的像素的数值在0.5附近,而不是全部集中于0和1附近。
[0054]
最后将损失函数换为lovasz loss(函数),将预训练模型的噪声降低,生成图像分割模型。
[0055]
本发明实施例通过图像分割训练样本集中的第一精标注数据和粗标注数据;使用精标注数据对初始模型进行训练得到教师模型;将粗标数据输入教师模型得到教师模型的标注,再将第二精标数据并整合至第一精标注数据;利用精标注数据集合训练教师模型;教师模型标注难例数据,得到全量数据集合;利用全量数据集合和教师标注训练助教模型;利用助教模型与学生模型进行模型蒸馏训练得到学生模型;再用精标注数据集合对学生模型进行微调训练;交替改变监督策略,得到最终的轻量化图像分割模型。通过循序渐进的训练方法,在尽可能保留精度的前提下,模型不断变小,从而实现精度与速度的兼顾。
[0056]
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
[0057]
参照图3,示出了本发明的一种用于移动终端图像分割模型训练装置实施例的结构框图,具体可以包括如下模块:获取模块301,用于获取图像分割训练样本集,初始模型,助教模型以及学生模型;所述图像分割训练样本集包括粗标注数据和第一精标注数据;所述初始模型的参数量大于所述助教模型的参数量,所述助教模型的参数量大于所述学生模型的参数量;第一训练模块302,用于采用所述第一精标注数据训练所述初始模型,得到教师模型,所述教师模型用于标注所述图像分割训练样本集;标注模块303,用于采用所述教师模型标注所述粗标注数据,生成第二精标注数据和难例数据;结合模块304,用于结合所述第二精标注数据、所述难例数据以及所述第一精标注数据得到全量数据集合;第二训练模块305,用于采用所述全量数据集合训练所述助教模型;第三训练模块306,用于基于所述全量数据集合,采用训练后的助教模型蒸馏训练所述学生模型,得到图像分割模型,所述图像分割模型用于在移动终端进行图像分割处理。
[0058]
在本发明的一可选实施例中,所述结合模块304包括:第一标注子模块,用于将所述第一精标注数据与所述第二精标注数据结合得到精标注数据集合;增加子模块,用于在所述精标注数据集合上增加所述难例数据生成全量数据集合。
[0059]
在本发明的一可选实施例中,所述第二训练模块305包括:第二标注子模块,用于针对所述全量数据集合进行标注;助教模型训练子模块,用于采用标注后的全量数据集合训练所述助教模型。
[0060]
在本发明的一可选实施例中,所述第三训练模块306包括:蒸馏子模块,用于采用所述助教模型在所述全量数据集合上,对所述学生模型进行蒸馏训练;学生模型训练子模块,用于采用所述精标注数据集合对蒸馏训练后的学生模型进行训练,得到预训练模型;交替监督子模块,用于采用预设的多种监督策略训练所述预训练模型,生成图像分割模型。
[0061]
在本发明的一可选实施例中,所述蒸馏子模块包括:蒸馏单元,用于将所述助教模型作为所述蒸馏训练的监督模型,采用全量数据集合对所述学生模型进行蒸馏。
[0062]
在本发明的一可选实施例中,所述学生模型训练子模块包括:学生模型训练单元,用于采用所述精标注数据集合对蒸馏训练后的学生模型进行训练;权重调整单元,用于当所述蒸馏训练后的学生模型输出的平均损失恒定时,降低所述蒸馏训练后的学生模型的损失约束权重,采用所述精标注数据集合对降低损失约束权重的学生模型进行训练,得到预训练模型。
[0063]
在本发明的一可选实施例中,所述监督策略包括损失函数,所述交替监督子模块
包括:交替训练单元,用于采用多种损失函数逐一训练所述预训练模型,生成图像分割模型。
[0064]
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
[0065]
本发明实施例还提供了一种电子设备,包括:处理器和存储介质,所述存储介质存储有所述处理器可执行的计算机程序,当电子设备运行时,所述处理器执行所述计算机程序,以执行如本发明实施例任一项所述的方法。具体实现方式和技术效果与方法实施例部分类似,这里不再赘述。
[0066]
本发明实施例还提供了一种计算机可读存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如本发明实施例任一项所述的方法。具体实现方式和技术效果与方法实施例部分类似,这里不再赘述。
[0067]
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
[0068]
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0069]
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0070]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0071]
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0072]
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
[0073]
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作
之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
[0074]
以上对本发明所提供的一种用于移动终端图像分割模型训练方法和一种用于移动终端图像分割模型训练装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1