一种基于专家子网络模块推荐的小样本目标检测方法与流程

文档序号:37217181发布日期:2024-03-05 15:08阅读:18来源:国知局
一种基于专家子网络模块推荐的小样本目标检测方法与流程

本发明属于深度神经网络模型的图像目标检测领域,涉及一种基于模块化推荐的高效小样本迁移学习的目标检测方法。


背景技术:

1、随着目标检测算法应用场景的不断延伸,应用场景的个性化定制化特征凸显。训练数据收集标注的成本和难度不断提升,现有的有监督目标检测算法需要收集大量的训练数据才能取得理想的新类任务的目标检测性能。这使得目标检测算法在实际生产场景中进一步推广落地的效率和范围都面临着很大的局限。现有的小样本目标检测算法一般采用常规的非模块化深度神经网络模型并附加一定的元学习、正则化或冻结策略来达到良好的小样本新类迁移效果。然而,在实际应用中,现有方法在进行海量多元数据预训练时,模型规模的可扩展性和多样任务知识的兼容性仍然存在一定的局限性。

2、现有的一种大数据平台及其构建方法仍具有以下缺陷:

3、1.传统方法通常需要手动设定一些不可学习的先验规则,如锚框的尺寸、宽高比等参数。这些规则的设定基于经验和启发式,并且需要耗费大量的时间和人力成本。而且这些规则往往缺乏普适性,无法适应不同场景和目标的变化。传统方法中的先验规则是固定的,对于不同的目标检测任务和数据集,往往需要重新调整和优化这些规则。这限制了模型的灵活性和可调性,增加了调试和优化的复杂度。传统方法在面对新的目标检测任务或者不同的数据集时,由于先验规则的固定性,往往需要重新设计和调整规则,以适应新的场景和目标。这会导致耗费大量的时间和人力成本,并且无法保证新设定的规则能够良好地适应新任务和数据集。

4、2.在传统方法中,当采用单一低参数容量的检测模型进行海量多样数据的预训练时,不同任务之间的知识往往会发生串扰。因为单一模型需要学习适应各种不同的任务和数据,这可能导致模型在存储知识时发生交叉干扰,使得模型的泛化能力和迁移效率下降。由于传统方法采用单一模型进行知识存储,当需要将存储的知识迁移到新的任务或数据集时,由于存在任务串扰,模型的迁移复用效率较低。这意味着无法充分利用已经学习到的知识,需要大量重新学习和调整,增加了训练成本和时间成本。传统方法没有针对多样化预训练任务知识之间发生串扰的专门设计,缺乏针对性的隔离机制,导致在预训练阶段知识存储时的混淆和干扰问题无法得到有效解决。

5、3.传统的小样本目标检测模型采用全激活神经网络模型进行预训练和迁移阶段时,需要将模型全部参数加载至显存空间。由于有限的显存空间限制了模型规模的可扩展性,因此无法将更大规模的预训练知识存储在显存中,这导致传统方法的预训练知识存储规模受到了限制,从而降低了小样本迁移的效率。

6、4.传统的小样本目标检测模型在预训练阶段采用共享骨干网络的方式,可以充分利用底层任务的弱相关视觉知识,提高模型的泛化能力。但是在高层任务的强相关视觉知识上,传统方法没有采用模型库专家成员的隔离设计,导致模型在面对不同的任务和数据集时缺乏多样性和可塑性。这使得传统方法在迁移过程中存在稳定-可塑矛盾,无法同时保持不同任务中的视觉知识的稳定性和可塑性,从而影响了模型的迁移效率和泛化能力。

7、5.传统的小样本目标检测方法在模型选择方面通常采用遍历式交叉验证方式,即通过在训练集上训练多个模型,并在验证集上进行评估,选择表现最好的模型作为最终模型。这种方法需要对每个模型都进行完整的训练和评估,耗费大量时间和计算资源。然而,传统方法没有引入模型库推荐模型的概念。模型库推荐模型是指通过预先训练一组候选模型,并根据任务的相似性和需求的差异性,从模型库中选择最适合的模型进行迁移学习。相比于传统的遍历式交叉验证方式,模型库推荐模型能够更加高效地选择适合的模型,减少了训练和评估的时间和资源消耗。


技术实现思路

1、一种基于专家子网络模块推荐的小样本目标检测方法,具体步骤如下:

2、步骤s1:通过采用sparsercnn的检测头组件作为专家成员模块,本设计减少了目标检测算法中的人工设定的不可学习先验规则的比例,提升了模型迁移可塑性;

3、步骤s2:传统的小样本目标检测算法均采用单一低参数容量的检测模型进行预训练知识存贮,进行海量多样数据预训练时容易发生任务串扰,降低知识的迁移复用效率,本方案采用模块化硬隔离的专家成员设计,降低了多样化预训练任务知识之间发生的串扰;

4、步骤s3:传统的小样本目标检测模型采用全激活神经网络模型,预训练和迁移阶段均需要将模型全部参数加载至显存空间,有限的显存空间制约了模型规模的充分可扩展性从而进一步制约了模型预训练知识的多样存贮规模,降低了小样本迁移的效率,本设计采用的模块化离线预训练专家成员存贮方式,仅稀疏激活的topk专家加载至显存空间,因此预训练知识存贮规模不受有限的显存空间制约;

5、步骤s4:通过骨干网络的共用充分确保底层任务弱相关视觉知识的稳定性,通过模型库专家成员的隔离设计本方案又提升了高层任务强相关视觉知识的多样性与可塑性从而取得了良好的视觉知识的稳定-可塑均衡,缓解了传统小样本目标检测模型迁移过程中的稳定-可塑矛盾;

6、步骤s5:通过模型库推荐模型的引入,与传统的遍历式交叉验证方式相比,在保证足够精准性的同时大大提升了模型库稀疏激活的高效性

7、进一步的,在步骤s1中,sparsercnn是一种基于稀疏注意力机制的目标检测方法,它在目标检测算法中引入了检测头组件作为专家成员模块。传统的目标检测算法通常需要手动设计一些不可学习的先验规则,例如锚框的尺寸和长宽比例等。这些规则往往需要经验和专业知识,并且对于不同的数据集和任务可能需要不同的设置。而采用sparsercnn的检测头组件作为专家成员模块的方法,通过引入稀疏注意力机制,可以自适应地学习目标的位置和特征表示,从而减少了人工设定的不可学习先验规则的比例。稀疏注意力机制能够根据输入图像的内容,动态地选择感兴趣的区域进行更加精细的检测,而不是在整个图像上进行固定的规则检测。

8、进一步的,在步骤s2中,而本方案采用模块化硬隔离的专家成员设计,从根本上降低了多样化预训练任务知识之间发生的串扰。具体来说,模块化硬隔离的专家成员设计将整个模型拆分为多个模块化的部分,每个部分都有自己独特的专业知识和特征表示,且彼此之间相互隔离,不会相互干扰,当需要应用模型到新的目标检测任务时,可以根据任务的特点选择合适的专家成员模块进行组合,而不必受到其他任务知识的干扰。这种模块化硬隔离的设计有效降低了任务之间知识的串扰,使得模型在面对多样化的预训练任务时能够更加高效地保持各自的专业知识,并在新任务中进行灵活的组合和迁移,从而提高了知识的迁移复用效率。

9、进一步的,在步骤s3中,采用了模块化离线预训练专家成员存储方式,通过仅将稀疏激活的topk专家加载至显存空间,从而避免了预训练知识存储规模受限于有限的显存空间的制约。具体来说,只有部分专家成员会在预训练后被选择加载至显存空间,而其他专家成员则可以以稀疏的方式存储在磁盘上,由于一般的磁盘存储空间是相对充裕的,采用这种存储方式可以确保预训练知识存储规模的充分扩展,不再受限于显存空间的限制。这样一来,即使模型规模很大,预训练知识也可以得到充分地存储和利用,提升了小样本迁移的效率和性能。

10、进一步的,在步骤s4中,底层任务和高层任务共享相同的骨干网络,从而可以共同学习和利用底层任务中的弱相关视觉知识。这种共用的方式可以避免不同任务之间出现重复学习同样的视觉特征,提高模型的效率和泛化能力,其次,本设计通过模型库专家成员的隔离设计,提升了高层任务强相关视觉知识的多样性与可塑性,从而取得了良好的视觉知识的稳定-可塑均衡,缓解了传统小样本目标检测模型迁移过程中的稳定-可塑矛盾。具体来说,模型库中的专家成员被设计为相互独立,每个成员专注于不同的高层任务,从而可以学习到各自任务相关的视觉知识。通过将这些专家成员与共享的骨干网络结合起来,即可充分利用底层任务中的弱相关视觉知识,并同时保持高层任务的视觉知识多样性和可塑性。

11、进一步的,在步骤s5中,模型库推荐模型则通过学习任务特征和专家成员表现之间的关系,能够更加智能地选择适合当前任务的专家成员。通过推荐模型,可以根据当前任务的特征和历史数据,快速筛选出最有可能有效的专家成员组合,从而避免了遍历整个模型库的计算成本,提高了选择的效率。同时,由于推荐模型是基于任务特征和专家成员表现之间的学习得到的,所以能够在保证足够精准性的前提下,选择出更加符合当前任务需求的专家成员组合,提高了模型库稀疏激活的高效性。

12、与现有技术相比,本发明具有如下好处:

13、1.首先,模型库推荐模型具有更强的自适应性。这些候选模型在设计阶段就已经考虑了各种情况,能够更好地适应不同的目标检测任务和数据集。相比于传统方法中需要手动调整的先验规则,这些候选模型已经通过预训练来学习了丰富的特征表示和模式识别能力,因此可以更好地适应不同场景的需求。其次,模型库推荐模型减少了人工成本。传统方法中需要手动设定的先验规则需要耗费大量的时间和人力成本。而模型库推荐模型已经经过预训练,在设计阶段就考虑了各种情况,减少了手动设计先验规则的需求。这样可以降低人力成本,并提高模型设计和调试的效率。此外,模型库推荐模型提供了更高的灵活性。候选模型具有一定的可调性,可以根据具体任务的特点和需求进行选择和调整。这种灵活性使得模型能够应对新的目标检测任务或不同数据集时的挑战,并在需要时进行适当的调整和优化。

14、2.多任务预训练方法在设计上考虑了任务之间的隔离,通过引入任务特定的头部结构或其他机制,使不同任务的知识能够得到有效的隔离和存储。这样可以避免不同任务之间的知识串扰和干扰,提高模型的泛化能力和迁移效率。多任务预训练方法会选择多个相关但又具有差异性的任务进行预训练,这样模型可以学习到更加丰富和多样化的知识表示。通过在不同任务上进行共享和交互学习,模型可以获得更广泛的语义理解和推理能力,提高对各种任务和数据的适应性。由于多任务预训练方法在预训练阶段已经学习到了多个任务的知识表示,当需要将这些知识迁移到新的任务或数据集时,可以更高效地进行迁移学习和知识复用。多任务预训练方法通过学习多个任务的知识表示,可以提高模型对于各种任务和数据的泛化能力。这是因为在共享的预训练阶段,模型已经学习到了一些普适的特征和模式,能够更好地应对新任务的需求,并且具备更好的迁移能力。

15、3.分布式并行训练可以将模型的参数和计算任务分配到多个计算节点上,从而可以扩展模型的规模和容量。这样就可以将更大规模的预训练知识存储在显存中,提高了小样本迁移的效率。由于分布式并行训练可以同时利用多个计算节点进行训练,因此可以大大缩短模型的训练时间,并且提高模型的精度和效率。这是因为分布式训练可以充分利用多核cpu和gpu的计算资源,提高了模型训练的并行度和可扩展性。分布式并行训练可以利用多个数据源进行训练,从而增强模型的泛化能力和适应性。这是因为分布式训练可以利用更丰富和多样化的数据集进行训练,使模型能够学习到更多的特征和模式,提高了对不同数据分布的适应能力。分布式并行训练可以根据不同的硬件资源和训练需求进行灵活配置,从而具有更好的可扩展性和适应性。这是因为分布式训练可以基于不同的计算节点和网络拓扑进行配置,可以适应不同的训练规模和计算环境。

16、4.模型库专家成员的隔离设计可以使得模型在高层任务的强相关视觉知识上具有更多的多样性和可塑性,从而提高了模型的泛化能力和适应性。这是因为隔离设计可以使不同任务所需要的特征和模式之间互相独立,从而减少了不同任务之间的干扰和影响。模型库专家成员的隔离设计可以使得模型在不同任务和数据集之间具有更好的可迁移性和可重用性,从而提高了模型的迁移效率和泛化能力。这是因为隔离设计可以使得模型在不同的任务之间能够快速适应和学习新的特征和模式,而不需要重新训练整个模型。模型库专家成员的隔离设计可以使得模型在设计和训练阶段具有更高的灵活性和可扩展性,从而可以更加有效地适应不同的任务和数据集。这是因为隔离设计可以使得模型的不同部分可以独立地进行修改和扩展,从而可以更加灵活地适应不同的需求和场景。

17、5.模型库推荐模型则通过预先训练一组候选模型,并根据任务的相似性和需求的差异性选择最适合的模型,能够更高效地选择模型,减少了训练和评估的时间和资源消耗。模型库推荐模型可以根据任务的相似性和需求的差异性选择最适合的模型。这样可以更加准确地选择具有较好性能的模型,从而提高了模型选择的准确性和效果。模型库推荐模型通过预先训练一组候选模型,使得选择的范围更加广泛,增加了模型的多样性和可塑性。这样可以更好地满足不同任务和需求的特点,提供更灵活、定制化的模型选择方案。模型库推荐模型的概念可以促进迁移学习在小样本目标检测中的应用。通过预训练一组候选模型并选择最适合的模型进行迁移学习,可以更好地利用已有的知识和经验,提高模型在新任务上的性能和泛化能力。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1