网络模型训练方法、装置、设备、介质及程序产品与流程

文档序号:29980691发布日期:2022-05-11 12:39阅读:124来源:国知局
网络模型训练方法、装置、设备、介质及程序产品与流程

1.本公开涉及深度学习技术领域,尤其涉及图像分割技术领域,公开了一种网络模型训练方法及装置、电子设备、存储有计算机指令的非瞬时计算机可读存储介质、计算机程序产品。


背景技术:

2.医学图像分割领域主要可分为两大类型的分割,一种是结构分割(例如脑组织、肺部、肝脏及心脏等),另一种是病灶分割。近年来深度学习在医学图像分割领域取得了非常好的效果,具有高鲁棒、精度更高、速度更快的优势。一般来讲,深度学习需要大量的标注数据来完成模型的训练,然而由于医学图像主要为三维影像,且医学图像质量较传统自然图像相比对比度差,标注难度大、标注非常耗时,导致医学图像分割领域,标注数据量都比较少,这极大地限制了深度学习在医学图像分割领域中的应用。


技术实现要素:

3.本公开至少提供了一种网络模型训练方法、装置、设备、程序产品以及存储介质。
4.根据本公开的一方面,提供了一种网络模型训练方法,包括:
5.基于多张第一样本图像针对目标对象的标注信息,生成目标对象对应的概率图谱;
6.基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到预训练模型;
7.基于多张第三样本图像和第三样本图像对目标对象的标注信息,对预训练模型进行训练,得到针对目标对象的图像分割模型。
8.根据本公开的另一方面,提供了一种网络模型训练方法,包括:
9.基于多张第一样本图像针对目标对象的标注信息,生成目标对象对应的概率图谱;
10.基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到图像恢复模型。
11.根据本公开的另一方面,提供了一种网络模型训练装置,包括:
12.第一图谱确定模块,用于基于多张第一样本图像针对目标对象的标注信息,生成目标对象对应的概率图谱;
13.预训练模块,用于基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到预训练模型;
14.分割模型训练模块,用于基于多张第三样本图像和第三样本图像对目标对象的标注信息,对预训练模型进行训练,得到针对目标对象的图像分割模型:
15.根据本公开的另一方面,提供了一种网络模型训练装置,包括:
16.第二图谱确定模块,用于基于多张第一样本图像针对目标对象的标注信息,生成
目标对象对应的概率图谱;
17.恢复模型训练模块,用于基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到图像恢复模型。
18.根据本公开的另一方面,提供了一种电子设备,包括:
19.至少一个处理器;以及
20.与该至少一个处理器通信连接的存储器;其中,
21.该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
22.根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
23.根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现本公开任一实施例中的方法。
24.根据本公开的技术利用概率图谱和没有标注的图像,即第二样本图像进行预训练,能够得到包含质量较高的网络参数的预训练模型,在此基础之上,再利用少量的有标注的医学图像,即第三样本图像对预训练模型进行进一步地训练,得到的图像分割模型能够确定分割精度较高的医学图像的分割结果。
25.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
26.附图用于更好地理解本方案,不构成对本公开的限定。其中:
27.图1是根据本公开网络模型训练方法的流程图之一;
28.图2是根据本公开预训练模型的训练方法的流程图;
29.图3是根据本公开编码器的结构示意图;
30.图4是根据本公开图像分割模型的训练方法的流程图;
31.图5是根据本公开网络模型训练方法的流程图之二;
32.图6是根据本公开网络模型训练方法的流程图之三;
33.图7是根据本公开网络模型训练方法的流程图之四;
34.图8是根据本公开网络模型训练装置的结构示意图之一;
35.图9是根据本公开网络模型训练装置的结构示意图之二;
36.图10是根据本公开的电子设备的结构示意图。
具体实施方式
37.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
38.医学图像分割领域主要可分为两大类型的分割,一种是结构分割(例如脑组织、肺部、肝脏及心脏等),另一种是病灶分割。近年来深度学习在医学图像分割领域取得了非常
好的效果,具有高鲁棒、精度更高、速度更快的优势。一般来讲,深度学习需要大量的标注数据来完成模型的训练,然而由于医学图像主要为三维影像,且医学图像质量较传统自然图像相比对比度差,标注难度大、标注非常耗时,导致医学图像分割领域,标注数据量都比较少,这极大地限制了深度学习在医学图像分割领域中的应用。
39.针对该技术缺陷,本公开至少提供了一种网络模型训练方法、装置、设备、程序产品以及存储介质。本公开利用概率图谱和没有标注的图像,即第二样本图像进行预训练,能够得到包含质量较高的网络参数的预训练模型,在此基础之上,再利用少量的有标注的医学图像,即第三样本图像对预训练模型进行进一步地训练,得到的图像分割模型能够确定分割精度较高的医学图像的分割结果。
40.下面通过具体的实施例对本公开的网络模型训练方法进行说明。
41.图1示出了本公开实施例的网络模型训练方法的流程图,该实施例的执行主体可以是具有计算能力的设备。如图1所示,本公开实施例的网络模型训练方法可以包括如下步骤:
42.s110、基于多张第一样本图像针对目标对象的标注信息,生成目标对象对应的概率图谱。
43.上述第一样本图像可以是有标注信息的医学图像,例如可以是有肝脏对应的标注信息的腹部图像。上述标注信息具体可以包括胸部图像中各个像素段点是否属于肝脏的信息。
44.概率图谱包括预设尺寸的图像中各个像素点属于目标对象的概率,上述预设尺寸的图像与下述第二样本图像具有相同的分辨率和尺寸,这样才能结合概率图谱和各张第二样本图像进行模型训练,得到具有较高的图像还原精度的预训练模型。
45.s120、基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到预训练模型。
46.上述第二样本图像是没有目标对象的标注信息的图像,例如可以是没有肝脏对应的标注信息的腹部图像。第二样本图像与第一样本图像的来源可以不相同,但是两者均需要包括目标对象,例如,两者均需要包括肝脏。
47.由于第二样本图像不需要标注信息,因此第二样本图像比较容易获得,用于训练预训练模型的第二样本图像的数量比较多,预训练模型能够得到充分的训练,其图像恢复能力或图像还原能力较强,精度较高。预训练模型具有较高的图像还原能力表示其能够提取到较为准确地图像特征,以此为指导进一步对预训练模型进行训练,能够得到具有较高的图像分割精度的图像分割模型。
48.上述目标对象在对应的图像中的位置相对固定,因此结合概率图谱对预训练模型进行训练,能够提高预训练模型恢复目标对象对应的图像块的精度。例如,肝脏在腹部图像中的位置相对固定,概率图谱能够较为准确地表征对应的像素点是否属于肝脏,结合肝脏对应的概率图谱对预训练模型进行训练,能够提高预训练模型恢复肝脏对应的图像块的精度。
49.s130、基于多张第三样本图像和第三样本图像对目标对象的标注信息,对预训练模型进行训练,得到针对目标对象的图像分割模型。
50.上述第三样本图像可以是有标注信息的医学图像,例如可以是有肝脏对应的标注
信息的腹部图像。第三样本图像可以是与上述第一样本图像相同的图像,也可以是不同的图像,本公开对此并不进行限定
51.利用第三样本图像对目标对象的标注信息对目标对象的图像分割进行有监督的学习,能够得到对目标对象具有较高的分割精度的图像分割模型。
52.上述预训练模型是结合概率图谱训练得到的,其能够提取到较为准确地图像特征,在预训练模型的基础上,即将预训练模型的参数作为初始参数,进一步进行分割模型的训练,实现了将多张第一样本图像中的先验信息,即概率图谱中的信息融合到第二样本图像训练得到的预训练模型中,来提升该预训练模型用于图像分割中的迁移能力,从而能够提升对图像中对象或结构的分割精度。
53.在一些实施例中,可以利用如下步骤生成上述概率图谱:
54.首先,针对每张第一样本图像,基于第一样本图像针对目标对象的标注信息,生成第一样本图像针对目标对象的掩膜图像;之后,基于各张第一样本图像对应的掩膜图像,生成目标对象对应的概率图谱。
55.上述掩膜图像与第二样本图像的尺寸和分辨率相同。
56.上述掩膜图像可以是表征其中的各个像素点是否为目标对象的二值图像,因此在确定该掩膜图像的时候需要基于第一样本图像针对目标对象的标注信息。具体地,在某一像素点的标注信息表示该像素点属于目标对象时,该像素点在掩膜图像中的像素值为1;在该像素点的标注信息表示该像素点不属于目标对象时,该像素点在掩膜图像中的像素值为0。
57.在得到各张第一样本图像的掩膜图像之后,将各张掩膜图像中相同位置的像素点的像素值进行求和后取平均的运算,得到对应像素点是否属于目标对象的概率,例如,可以利用如下公式确定某一像素点的概率:
[0058][0059]
式中,p
posion
表示位置为(x,y,z)的像素点的概率;n表示掩膜图像的数量,(x,y,z)表示该像素点的位置坐标,i
i(x,y,z)
表示第i张掩膜图像中位置为(x,y,z)的像素点的像素值。
[0060]
根据上述方式可以确定各个像素点的是否属于目标对象的较为准确地概率,之后利用各个像素点的概率形成概率图谱。上述概率图谱可以准确地反映目标对象在图像中的位置信息,在目标对象的分割和还原中能起到很好的指导作用。
[0061]
由于不同的第一样本图像的分辨率和尺寸可能不同,为了提高生成的概率图谱的准确性,在生成各第一样本图像的掩膜图像前,可以分别对每张第一样本图像进行预处理,以统一所有第一样本图像到预设分辨率和预设尺寸。之后再基于预处理后的第一样本图像,生成对应的掩膜图像。
[0062]
上述预处理可以包括第一预处理操作和第二预处理操作。示例性地,可以利用如下步骤对某一张第一样本图像进行预处理,并生成第一样本图像对应的掩膜图像:
[0063]
首先,对该第一样本图像进行第一预处理操作,得到具有预设分辨率的第一图像;之后,对第一图像进行第二预处理操作,得到具有预设尺寸的第二图像;最后,基于第一样
本图像针对目标对象的标注信息和第二图像,生成目标对象对应的掩膜图像。
[0064]
示例性地,预设分辨率可以是1mm*1mm*1mm的图像分辨率;具体可以利用三线性插值算法将第一样本图像变统一为具有预设分辨率的第一图像。预设尺寸可以是所有第一样本图像的最大尺寸,第二预处理操作可以是padding补齐方法。
[0065]
在一些实施例中可以利用如下步骤进行预训练模型的训练:
[0066]
首先,对概率图谱中包括的各个概率进行取反操作,得到目标图谱;之后,基于目标图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,直到满足训练的第一截止条件,得到预训练模型。上述第一截止条件具体可以是迭代次数,也可以是预训练模型的图像恢复精度。
[0067]
由于概率图谱中概率的值越大的像素点表明该像素点为目标对象的概率越大,同时也是最容易学到的,而数值越小表明该像素点的分割难度一般越大,因此,为了更精确地学习到目标对象的边缘,可以将概率图谱中各个概率进行取反操作,之后进行模型训练。取反操作的目的是将原来较大概率变为较小的概率。
[0068]
示例性地,上述取反操作具体可以是对于值为零的概率不进行取反操作,对于不为零的概率,计算1减去该概率后得到的值,并将得到的值作为取反操作的结果,构成目标图谱中的概率。
[0069]
在进行预训练模型的训练之前,需要将各张第二样本图像分别分割成多个图像块,并分别掩膜掉各张第二样本图像中的至少一个图像块。示例性地,针对某一张第二样本图像,可以将其分割形成的多个图像块排列成一个队列,之后将该队列中的各个图像块的顺序打乱,之后将排列在该队列的队尾的75%的图像块掩膜掉。
[0070]
在进行预训练模型的训练时,将各张第二样本图像剩余的图像块输入待训练的预训练模型,预训练模型输出各张第二样本图像对应的预测还原图像;之后,基于各张第二样本图像、各张预测还原图像以及目标图谱,确定图像恢复损失信息;最后,基于图像恢复损失信息,以恢复各张第二样本图像中被掩膜掉的图像块为目标,对待训练的预训练模型进行训练,得到训练好的预训练模型。
[0071]
示例性地,在确定上述图像恢复损失信息时,首先基于各张第二样本图像、各张预测还原图像确定被掩膜掉的各个图像块中各个像素点的损失信息,之后,利用对应像素点在目标图谱中的概率对损失信息进行加权,这样就促使预训练模型训练生成的时候对一些比较难、比较少见的像素点,例如边缘像素点进行重点关注,从而能够有效提高预训练模型的训练精度。最后,可以将掩膜掉的各个图像块中各个像素点加权后的损失信息进行求和运算,得到上述图像恢复损失信息。
[0072]
示例性地,如图2所示,可以将某一张第二样本图像2a掩膜掉部分图像块之后剩余的图像块2b或图像块对应的信息输入预训练模型中的编码器中,编码器对输入的图像块或信息进行图像特征的处理,得到编码信息2c,并基于得到的编码信息将掩膜掉的图像块的信息按照其在图像中的位置插入没有被掩膜掉的图像块的信息形成的队列或列表中。之后,将进行信息插入操作后的队列或列表中的信息输入预训练模型中的解码器中,经过解码器对输入的信息或特征进行处理后,得到解码信息2d,该解码信息中包括恢复或还原后的图像块的信息,当然也可以还包括未被掩膜掉的图像块的信息。最后,基于解码信息能够生成还原后的第二样本图像2e,即上述预测还原图像。
[0073]
上述所有的掩膜掉的图像块patch共同由一个可学习的向量表示,也即是所有的掩膜掉的patch共享这个向量,以让预训练模型知道这个位置是被掩膜掉的。
[0074]
示例性地,可以利用如图3所示的编码器对图像块或图像块的信息进行编码处理。
[0075]
上述预训练模型的训练过程不需要监督信息,即不需要标注信息,是自监督学习和训练的过程,降低了对训练样本的要求,利用未标注的训练样本即可,这样就比较容易获得大量的训练样本,有利于提高训练精度。
[0076]
在一些实施例中,上述基于多张第三样本图像和第三样本图像对目标对象的标注信息,对预训练模型进行训练,得到针对目标对象的图像分割模型,具体可以利用如下步骤实现:
[0077]
首先将各张第三样本图像分割成多个图像块,并将各张第三样本图像对应的图像块输入预训练模型,得到各张第三样本图像对应的预测分割图像;之后,基于各张第三样本图像对目标对象的标注信息、各张预测分割图像,确定图像分割损失信息;最后,基于图像分割损失信息,对预训练模型进行训练,直到满足训练的第二截止条件,得到针对目标对象的图像分割模型。上述第二截止条件具体可以是迭代次数,也可以是图像分割模型的分割精度。
[0078]
示例性地,如图4所示,将某一张第三样本图像4a对应的图像块4b或图像块的信息输入预训练模型中的编码器中,编码器对输入的图像块或信息进行编码处理,得到编码信息4c,之后对得到的编码信息4c进一步进行信息处理,得到处理后的信息4d,之后将处理后的信息4d输入预训练模型中的解码器中,经过解码器对输入的信息或特征进行处理后,得到解码信息4e,该解码信息4e中包括目标对象的分割信息,最后,基于解码信息4e能够生成预测分割图像4f。
[0079]
上述图像分割损失信息包括多个类别的图像分割子损失信息,例如可是交叉熵子损失信息、dice子损失信息等。示例性地可以利用如下步骤基于上述多个类别的图像分割子损失信息对预训练模型进行训练,得到针对目标对象的图像分割模型:
[0080]
首先,基于多个类别的图像分割子损失信息,确定目标损失信息;最后,基于目标损失信息,对预训练模型进行训练,得到针对目标对象的图像分割模型。
[0081]
在确定目标损失信息的时候,可以将多个类别的图像分割子损失信息的和作为目标损失信息。当然也可以对多个类别的图像分割子损失信息进行加权求和的运算来得到目标损失信息。
[0082]
上述图像分割模型的初始参数是预训练模型训练得到的参数,即是使用高质量的初始参数进行图像分割模型的训练,能够减少所要使用的有标注信息的训练样本的数量,利用迁移学习方式不仅提高了图像分割的精度,还能够减少所需要的训练样本的数量,适用于进行医学图像分割的分割模型的训练。例如,在具体训练过程中可以采用adam优化器,其学习率为10-5,训练轮次可以为200轮,最终能够得到一个用于进行肝脏分割的图像分割模型。
[0083]
综上,如图5所示,本公开上述的网络模型训练方法可以包括如下步骤:
[0084]
第一、利用具有针对目标对象的标注信息的多张第一样本图像生成概率图谱;
[0085]
第二、利用概率图谱和没有标注信息的多张第二样本图像、以恢复第二样本图像中被掩膜掉的图像块为目标进行自监督学习,得到预训练模型。
[0086]
第三、利用具有针对目标对象的标注信息的多张第三样本图像,对预训练模型进行进一步地训练,得到训练好的图像分割模型。
[0087]
其中,如图6所示,上述第一个步骤中,在确定概率图谱时,首先需要生成每张第一样本图像对应的掩膜图像,之后,根据各张掩膜图像和各张第一样本图像的标注信息生成概率图谱。
[0088]
如图6所示,上述第二个步骤中,在对预训练模型进行训练时,首先构建自监督学习框架,之后将各张第二样本图像掩膜掉部分图像块后剩余的图像块或剩余图像块的信息输入待训练的预训练模型中,待训练的预训练模型输出预测还原图像;之后,基于预测还原图像和第二样本图像确定被掩膜掉的各个图像块中各个像素点的损失信息;之后,将上述概率图谱中的概率进行取反操作后与对应的损失信息进行加权处理,最后基于各个加权的损失信息,确定图像恢复损失信息。该图像恢复损失信息可以为加权后的各个损失信息的和。
[0089]
上述实施例是先在大量通用的没有标注信息的训练样本上训练预训练模型,学习到通用的图像特征,然后再针对性地针对任务进行迁移训练,而预训练模型的训练方法可使用自监督学习技术来实现。利用该预训练模型的训练好的参数作为图像分割模型的初始化参数进行迁移学习,使得最终获得一个高精度的图像分割模型。上述实施例中的方法可以适用于医学图像分割领域中,标注信息较少的场景,结合迁移学习方法中自监督学习获得预训练模型,并对预训练模型获得的方式进行了优化,将目标对象本身的特性及先验知识即概率图谱融合到预训练模型的训练中,促使预训练模型在训练过程中对目标对象中的一些重要区域进行重点关注、重点学习,以促进该预训练模型用于迁移到目标对象分割中能够进一步提升训练得到的图像分割模型的分割精度。
[0090]
上述实施例的方法适用于医学图像分割,是基于医学图像分割领域中的对象的特性,提出将概率图谱理论应用都自监督学习框架中,然后将自监督学习框架训练得到的预训练模型用于医学图像分割中进行迁移学习。一方面自监督学习得到的预训练模型的使用能够有效提高对于样本量比较少的情况下的医学图像分割任务的精度,另一方面,将先验知识信息(概率图谱)与自监督学习框架相结合,能够更加有针对性地让自监督学习框架更加关注图像分割中的目标对象,进一步提升预训练模型对下游任务(医学图像分割任务)的迁移能力。
[0091]
如图7所示,本公开还提供了一种图像恢复模型的训练方法,具体可以包括如下步骤:
[0092]
s710、基于多张第一样本图像针对目标对象的标注信息,生成目标对象对应的概率图谱。
[0093]
s720、基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到图像恢复模型。
[0094]
上述步骤s710至s720与上述实施例中的步骤s110至s120相同,图像恢复模型对应于预训练模型,因此对于其中相同的内容不再赘述。
[0095]
在一些实施例中,概率图谱包括预设尺寸的图像中各个像素点属于目标对象的概率。上述基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到图像恢复模型,可以利用如下步骤实现:
[0096]
首先对概率图谱中包括的各个概率进行取反操作,得到目标图谱;之后,基于目标图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到图像恢复模型。
[0097]
利用概率图谱和没有标注的图像进行训练,不仅降低了对训练样本的要求,比较容易获得大量的样本,并且先验知识信息(概率图谱)与自监督学习相结合,能够更加有针对性地让自监督学习更加关注目标对象,得到精度较高的图像恢复模型。
[0098]
由于概率图谱中概率的值越大的像素点表明该像素点为目标对象的概率越大,同时也是最容易学到的,而数值越小表明该像素点的分割难度一般越大,因此,为了更精确地学习到目标对象的边缘,可以将概率图谱中各个概率进行取反操作,之后进行模型训练,有利于提高恢复或还原目标对象的边缘的精度。
[0099]
基于同一发明构思,本公开实施例中还提供了一种网络模型训练方法对应的网络模型训练装置,其用于训练图像分割模型,由于本公开实施例中的装置解决问题的原理与本公开实施例上述网络模型训练方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
[0100]
如图8所示,为本公开实施例所提供的网络模型训练装置的结构示意图,包括:
[0101]
第一图谱确定模块810,用于基于多张第一样本图像针对目标对象的标注信息,生成目标对象对应的概率图谱。
[0102]
预训练模块820,用于基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到预训练模型。
[0103]
分割模型训练模块830,用于基于多张第三样本图像和第三样本图像对目标对象的标注信息,对预训练模型进行训练,得到针对目标对象的图像分割模型。
[0104]
在一些实施例中,概率图谱包括预设尺寸的图像中各个像素点属于目标对象的概率;
[0105]
预训练模块820具体用于:
[0106]
对概率图谱中包括的各个概率进行取反操作,得到目标图谱;
[0107]
基于目标图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到预训练模型。
[0108]
在一些实施例中,预训练模块820具体用于:
[0109]
针对每张第二样本图像,将第二样本图像分割成多个图像块,并掩膜掉至少一个图像块;
[0110]
将各张第二样本图像剩余的图像块输入待训练的预训练模型,得到各张第二样本图像对应的预测还原图像;
[0111]
基于各张第二样本图像、各张预测还原图像以及目标图谱,确定图像恢复损失信息;
[0112]
基于图像恢复损失信息,以恢复各张第二样本图像中被掩膜掉的图像块为目标,对待训练的预训练模型进行训练,得到训练好的预训练模型。
[0113]
在一些实施例中,预设尺寸的图像与第二样本图像具有相同的分辨率和尺寸。
[0114]
在一些实施例中,第一图谱确定模块810具体用于:
[0115]
针对每张第一样本图像,基于第一样本图像针对目标对象的标注信息,生成第一
样本图像针对目标对象的掩膜图像;
[0116]
基于各张第二样本图像对应的掩膜图像,生成目标对象对应的概率图谱。
[0117]
在一些实施例中,第一图谱确定模块810具体用于:
[0118]
对第一样本图像进行第一预处理操作,得到具有预设分辨率的第一图像;
[0119]
对第一图像进行第二预处理操作,得到具有预设尺寸的第二图像;
[0120]
基于第一样本图像针对目标对象的标注信息和第二图像,生成目标对象对应的掩膜图像。
[0121]
在一些实施例中,分割模型训练模块830具体用于:
[0122]
将各张第三样本图像分割成多个图像块,并将各张第三样本图像对应的图像块输入预训练模型,得到各张第三样本图像对应的预测分割图像;
[0123]
基于各张第三样本图像对目标对象的标注信息、各张预测分割图像,确定图像分割损失信息;
[0124]
基于图像分割损失信息,对预训练模型进行训练,得到针对目标对象的图像分割模型。
[0125]
在一些实施例中,图像分割损失信息包括多个类别的图像分割子损失信息;
[0126]
分割模型训练模块830具体用于:
[0127]
基于多个类别的图像分割子损失信息,确定目标损失信息;
[0128]
基于目标损失信息,对预训练模型进行训练,得到针对目标对象的图像分割模型。
[0129]
基于同一发明构思,本公开实施例中还提供了一种网络模型训练方法对应的网络模型训练装置,其用于训练图像恢复模型,由于本公开实施例中的装置解决问题的原理与本公开实施例上述网络模型训练方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
[0130]
如图9所示,为本公开实施例所提供的网络模型训练装置的结构示意图,包括:
[0131]
第二图谱确定模块910,用于基于多张第一样本图像针对目标对象的标注信息,生成目标对象对应的概率图谱;
[0132]
恢复模型训练模块920,用于基于概率图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到图像恢复模型。
[0133]
在一些实施例中,概率图谱包括预设尺寸的图像中各个像素点属于目标对象的概率;
[0134]
恢复模型训练模块920具体用于:
[0135]
对概率图谱中包括的各个概率进行取反操作,得到目标图谱;
[0136]
基于目标图谱和多张第二样本图像,以恢复各张第二样本图像中被掩膜掉的图像块为目标进行模型训练,得到图像恢复模型。
[0137]
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
[0138]
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
[0139]
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数
字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0140]
如图10所示,设备1000包括计算单元1010,其可以根据存储在只读存储器(rom)1020中的计算机程序或者从存储单元1080加载到随机访问存储器(ram)1030中的计算机程序,来执行各种适当的动作和处理。在ram1030中,还可存储设备1000操作所需的各种程序和数据。计算单元1010、rom 1020以及ram 1030通过总线1040彼此相连。输入/输出(i/o)接口1050也连接至总线1040。
[0141]
设备1000中的多个部件连接至i/o接口1050,包括:输入单元1060,例如键盘、鼠标等;输出单元1070,例如各种类型的显示器、扬声器等;存储单元1080,例如磁盘、光盘等;以及通信单元1090,例如网卡、调制解调器、无线通信收发机等。通信单元1090允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0142]
计算单元1010可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1010的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元1010执行上文所描述的各个方法和处理,例如方法网络模型训练方法。例如,在一些实施例中,网络模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1080。在一些实施例中,计算机程序的部分或者全部可以经由rom1020和/或通信单元1090而被载入和/或安装到设备500上。当计算机程序加载到ram 1030并由计算单元1010执行时,可以执行上文描述的网络模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1010可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行网络模型训练方法。
[0143]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0144]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0145]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电
子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0146]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0147]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。
[0148]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
[0149]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
[0150]
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1