目标重识别方法及其模型获取方法、装置和终端设备与流程

文档序号:32402325发布日期:2022-12-02 19:26阅读:35来源:国知局
目标重识别方法及其模型获取方法、装置和终端设备与流程

1.本技术涉及图像处理技术领域,尤其涉及一种目标重识别方法及其模型获取方法、装置和终端设备。


背景技术:

2.在如安防、搜捕等场景中,如行人、车辆等重识别作为安防领域的重要组成部分起到的作用越来越大。以行人重识别任务为例,在重识别过程中,需要对出现在不同摄像头下的同一行人进行识别。但是在行人重识别任务中,不可避免地会出现多变的行人视角,这就导致了在训练行人重识别模型时会受到身份、视角等多个因素的干扰,导致模型识别效果性能变差。


技术实现要素:

3.有鉴于此,本技术实施例提供一种目标重识别模型获取方法、目标重识别方法、装置、终端设备和可读存储介质。
4.第一方面,本技术实施例提供一种目标重识别模型获取方法,包括:
5.利用训练样本集中预设占比的样本图片进行视角识别模型训练,得到视角识别模型;
6.将所述训练样本集中的所有样本图片通过所述视角识别模型,得到带视角标注的样本图片;
7.利用所述带视角标注的样本图片对神经网络进行迭代训练,得到视角解耦的目标重识别模型,其中,在训练过程中,通过对输入的带视角标注的样本图片进行目标对象特征提取,将所述目标对象特征中的身份特征和视角特征进行解耦,并根据解耦后的身份特征输出所述目标对象的身份分类结果。
8.在一些实施例中,所述预设占比的样本图片由三种视角类别均衡的多个样本图片构成,其中,所述三种视角类别分别包括识别对象的正面、背面及侧面;
9.所述视角识别模型为用于识别目标对象的视角信息的三分类识别模型。
10.在一些实施例中,所述目标重识别模型的网络结构包括:依次设置的特征提取层、池化层、第一全连接层和第二全连接层;
11.所述特征提取层用于对输入的带视角标注的样本图片进行目标对象特征提取;所述池化层用于对提取到的特征进行降维,得到维度为1
×
n的低维特征;所述第一全连接层用于将所述低维特征分解为维度为1
×
n1的视角特征和维度为1
×
n2的身份特征,其中,n、n1和n2均为自然数;所述第二全连接层用于将拼接的所述视角特征和所述身份特征进行身份分类,得到所述目标对象的身份分类结果。
12.在一些实施例中,在所述目标重识别模型的训练过程中,根据损失函数计算得到的损失值来调整网络参数,直到更新后计算得到的损失值满足预设条件时停止训练;
13.所述损失值包括所述目标对象的身份特征的三元组损失项和交叉熵损失项、以及
所述目标对象的视角特征的对比损失项。
14.在一些实施例中,所述身份特征的三元组损失项和交叉熵损失项分别通过三元组损失函数和交叉熵损失函数计算得到;
15.其中,所述三元组损失函数基于当前样本图片和正样本图片中识别对象的身份特征之间的距离与所述当前样本图片和负样本图片中识别对象的身份特征之间的距离的差值大于预设差值阈值的约束条件构建;其中,所述正样本图片与所述当前样本图片中识别对象的身份相同,所述负样本图片与所述当前样本图片中识别对象的身份不同。
16.在一些实施例中,所述视角特征的对比损失项通过对比损失函数计算得到;
17.其中,所述对比损失函数基于当前样本图片和所述训练样本集中具有相同视角的其他图片之间的欧式距离趋于零且和具有不同视角的其他图片之间的欧式距离大于预设距离的约束条件构建。
18.在一些实施例中,所述目标重识别模型为行人重识别模型或车辆重识别模型。
19.第二方面,本技术实施例还提供一种目标重识别方法,包括:
20.将待识别图片输入到目标重识别推理模型中,获得与视角解耦的目标对象的身份特征;其中,所述目标重识别推理模型通过将由上述方法得到的目标重识别模型进行输出层处理得到;
21.计算所述目标对象的身份特征分别与预先注册的若干已识别对象的经视角解耦的身份特征之间的距离,并从多个距离中选取出最短距离;
22.基于所述最短距离,确定对所述目标对象的重识别结果。
23.在一些实施例中,所述基于所述最短距离,确定对所述目标对象的重识别结果,包括:
24.在所述最短距离大于或等于预设距离阈值时,确定所述目标对象为所述若干已识别对象中的且身份对应于所述最短距离的特定对象;
25.在所述最短距离小于所述预设距离阈值时,确定所述目标对象为陌生对象。
26.在一些实施例中,所述将待识别图片输入到目标重识别推理模型中,之前还包括:
27.将注册的若干含识别对象的图片输入所述目标重识别推理模型中,输出经过视角解耦的各个识别对象的身份特征并进行存储。
28.第三方面,本技术实施例还提供一种目标重识别模型获取装置,包括:
29.第一训练模块,用于利用训练样本集中预设占比的样本图片进行视角识别模型训练,得到视角识别模型;
30.样本标注模块,用于将所述训练样本集中的所有样本图片通过所述视角识别模型,得到带视角标注的样本图片;
31.第二训练模块,用于利用所述带视角标注的样本图片对神经网络进行迭代训练,得到视角解耦的目标重识别模型,其中,在训练过程中,通过对输入的带视角标注的样本图片进行目标对象特征提取,将所述目标对象特征中的身份特征和视角特征进行解耦,并根据解耦后的身份特征输出所述目标对象的身份分类结果。
32.第四方面,本技术实施例还提供一种终端设备,所述终端设备包括处理器和存储器,所述存储器存储有计算机程序,所述处理器用于执行所述计算机程序以实施上述的目标重识别模型获取方法或目标重识别方法。
33.第五方面,本技术实施例还提供一种可读存储介质,其存储有计算机程序,所述计算机程序在处理器上执行时,实施上述的目标重识别模型获取方法或目标重识别方法。
34.本技术具有如下有益效果:
35.本技术提出的目标重识别方法通过在模型训练阶段先训练得到一个视角识别模型以进行视角标注,再利用带视角标注的样本图片训练出目标重识别模型,其中训练过程中,将目标对象的身份信息和视角信息进行解耦处理,实现只使用包含身份信息的部分特征进行目标对象的身份分类,而在实际部署阶段,将目标重识别推理模型进行部署,以解决由于摄像头拍摄对象的视角不同所带来的重识别准确率下降的问题,由于也不需要在推理时引入额外的视角分类阶段,可大大降低模型网络参数调整的难度等。
附图说明
36.为了更清楚地说明本技术实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本技术的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
37.图1示出了本技术实施例的终端设备的结构示意图;
38.图2示出了本技术实施例的目标重识别模型获取方法的流程图;
39.图3示出了本技术实施例的目标重识别模型的网络结构示意图;
40.图4示出了基于视角解耦的行人重识别模型的网络结构示意图;
41.图5示出了本技术实施例的目标重识别方法的流程图;
42.图6示出了本技术实施例的目标重识别模型获取装置的结构示意图;
43.图7示出了本技术实施例的目标重识别装置的结构示意图。
具体实施方式
44.下面将结合本技术实施例中附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。
45.通常在此处附图中描述和示出的本技术实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本技术的实施例的详细描述并非旨在限制要求保护的本技术的范围,而是仅仅表示本技术的选定实施例。基于本技术的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本技术保护的范围。
46.在下文中,可在本技术的各种实施例中使用的术语“包括”、“具有”及其同源词仅意在表示特定特征、数字、步骤、操作、元件、组件或前述项的组合,并且不应被理解为首先排除一个或更多个其它特征、数字、步骤、操作、元件、组件或前述项的组合的存在或增加一个或更多个特征、数字、步骤、操作、元件、组件或前述项的组合的可能性。此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
47.除非另有限定,否则这里使用的所有术语(包括技术术语和科学术语)具有与本技术的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义
并且将不被解释为具有理想化的含义或过于正式的含义,除非在本技术的各种实施例中被清楚地限定。
48.下面结合附图,对本技术的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互结合。
49.在实际的如行人、车辆等目标重识别任务中,由于目标具有可移动性,不同位置的拍摄设备会拍射得到同一目标的多个不同视角的图片,而不同的视角会导致对同一目标的重识别效果变差。以行人重识别为例,目前,很多人也有提出一些方案来解决上述问题,有一种方案是,在行人重识别算法之前,增加人体姿态识别,首先提取人体的姿态信息(即人体的手部区域、头部区域、躯干区域、脚部区域),然后分区域提取特征并匹配特征,这样解决了人体姿态变化对行人重识别算法性能的影响,自然也解决了不同行人视角对行人重识别算法性能的影响,但是这种方案需要额外引入大量人体姿态的数据来训练人体姿态模型,而人体姿态数据的获取难度较大,且需要额外运行一个人体姿态识别模型,因此开销太大。基于此,为减小开销且又能解决由于行人视角变化对算法性能影响,又有人提出,先标注少量的行人视角数据(前身/后身/侧身),利用这少量的数据训练一个行人视角三分类模型,然后使用这个分类模型将所有的行人重识别数据的视角标注出来,利用这个信息来训练行人重识别模型。
50.然而,目前的行人重识别模型训练方法包括:一,针对三个视角,将三个视角下的行人身份信息分别提取出来,分别训练三个行人重识别模型,在实际使用时,需要将待识别的行人图片先经过视角分类模型,再根据视角分类结果选择要使用的行人重识别模型,从而得到行人重识别结果;二,只训练一个行人重识别模型,但是在训练过程中,需要修改三元组训练样本的采样的方式,即使得采样的正样本图片与基准图像不仅属于同一id,并且还要在视角上不能差异过大,但是又不能是完全一致的视角,否则会导致训练得到的行人重识别模型完全不具备跨行人视角的识别能力。针对以上两种方案,方案一在推理时依然引入了额外的视角分类阶段,方案二由于其对视角采样的相似度有严格的要求,因此参数调整难度较大,实际训练时很难得到一个性能很好的模型。
51.为此,本技术提出一种基于视角解耦的目标重识别方法,基于经典的目标重识别模型提取的行人特征包含行人的身份信息和姿态信息(与拍摄视角有关)的想法,通过施加额外的约束来将该目标对象特征中包含的身份信息和姿态信息解耦,实际进行行人特征提取和识别时,只使用包含身份信息的部分特征进行目标对象的身份分类,以解决由于摄像头拍摄对象的视角不同所带来的重识别准确率下降的问题,此外也不需要在推理时引入额外的视角分类阶段,可大大降低模型网络参数调整的难度等。
52.下面对目标重识别模型获取方法进行详细说明。请参照图1,示范性地,该目标重识别模型获取方法包括:
53.s110,利用训练样本集中预设占比的样本图片进行视角识别模型训练,得到视角识别模型。
54.其中,该训练样本集主要用于训练目标重识别模型,其中的训练样本图片可通过在相应场景下拍摄得到和/或通过对拍摄的图片进行数据增强等处理得到,这里不作限定。本实施例中,为得到基于视角解耦的目标重识别模型,将从该训练样本集中选取出少量的样本图片进行视角标注,进而用于训练一个视角识别模型,其中,该预设占比的大小可以根
据实际需求来设置。
55.值得注意的是,在选取图片时,应当注意保证每一类视角的图片数量基本相等,进而可以保证视角识别模型对不同视角的识别准确性等。在一种实施方式中,可以选取三种视角类别均衡的样本图片,其中,这三种视角类别分别包括识别对象的正面、背面及侧面(有时也称前面、后面及侧面),进一步地,该侧面可以左侧或右侧。当然,在一些其他场景下,也可以识别更多或更少的视角,这里不作限定。
56.例如,在行人重识别的场景,上述识别对象的正面可以指朝向行人脸部进行拍摄的角度,背面指朝向行人背部进行拍摄的角度,侧面则指对着行人的侧身(左侧或右侧)进行拍摄的角度。对于其他场景,如车辆重识别,上述识别对象的正面可以是能够拍摄到车头及前车牌的角度,背面则是能够拍摄到车尾及后车牌的角度,侧面可以指对着车辆的左侧或右侧进行拍摄的角度等。
57.示范性地,在进行视角识别模型训练之前,通过对选取的这些样本图片进行视角标注(标注为正面、背面或侧面);然后,利用这些带视角标注的样本图片,结合一个轻量级的深度神经网络进行训练,可以训练得到一个视角识别模型。以上述的三种视角类别为例,基于这些视角标注的样片图片所训练得到的视角识别模型将为三分类识别模型,即能够识别出目标对象处于正面、背面还是侧面视角。
58.s120,将所述训练样本集中的所有样本图片通过所述视角识别模型,得到带视角标注的样本图片。
59.示范性地,为了进一步训练目标重识别模型,这里将所有的样本图片都利用训练好的视角识别模型进行视角识别处理,得到带视角信息的图片。可以理解,这些样本图片除了包含视角标注外,还包括识别对象的身份信息。
60.s130,利用带视角标注的样本图片对神经网络进行迭代训练,得到视角解耦的目标重识别模型,其中,在训练过程中,通过对输入的带视角标注的样本图片进行目标对象特征提取,将所述目标对象特征中的身份特征和视角特征进行解耦,并根据解耦后的身份特征输出所述目标对象的身份分类结果。
61.示范性地,利用包含识别对象的身份信息和视角信息的图片进行目标重识别模型训练,其中,该目标重识别模型可选取一个深度神经网络作为待训练的模型结构,进而在确定模型的输入参数和输出参数后,通过对该网络中的参数进行多次调整,直至模型的输出结果能够满足要求为止。
62.在一种实施方式中,目标重识别模型的网络结构可在已有的重识别模型的网络结构上进行改进得到,如图2所示,上述目标重识别模型的网络结构包括依次设置的特征提取层、池化层、第一全连接层和第二全连接层。具体地,该特征提取层用于对输入的带视角标注的样本图片进行目标对象特征提取,例如,可采用如骨干网络backbone等作为特征提取网络。然后,池化层用于对提取到的特征进行降维,如进行平均池化或最大池化等处理,得到维度为1
×
n的低维特征。例如,该池化层可以是平均池化结构,也可以是最大池化结构等,这里不作限定,具体可根据实际需求来适应性调整。接着,第一全连接层(可记为fc1)用于将池化层输出的低维特征进行特征解耦,即分解为维度为1
×
n1的视角特征和维度为1
×
n2的身份特征,其中n=n1+n2,n、n1和n2均为自然数;最后,将输出的视角特征和身份特征进行拼接(concat),第二全连接层(可记为fc2)用于利用拼接后的特征进行身份分类,得到目
标对象的身份分类结果。
63.可以理解,通过上述的第一全连接层将目标对象的所有特征进行特征解耦,这样使得输入到第二全连接层中的图像特征虽然同样包括视角特征和身份特征,但其中身份特征只包含身份信息,不包含视角信息,因此可以解决摄像头拍摄行人视角不同所带来的准确率下降的问题。
64.基于上述的网络结构,在目标重识别模型的训练过程中,本实施例将根据设置的相应损失函数来进行模型训练,具体而言,是依据计算得到的损失值来调整网络参数,直到最后更新计算得到的损失值满足预设条件时,停止训练,从而得到所需的目标重识别模型。
65.可以理解,与现有的重识别模型不同之处在于,这里将对目标对象特征的整体监督修改为分别对身份特征和视角特征进行监督。其中,这里的身份特征只包含目标对象的身份信息,而视角特征只包含目标对象的方向信息。在一种实施方式中,可考虑以下几种损失项对模型训练过程中的相应特征进行监督,例如,该损失值可包括目标对象的身份特征的三元组损失项和交叉熵损失项、以及目标对象的视角特征的对比损失项等。
66.其中,上述三元组包括一个基准图像、一个与基准图像中目标对象身份一样的正样本图像、一个与基准图像中目标对象身份不一样的负样本图像,分别使用深度神经网络进行特征提取,即可得到特征三元组。而上述的三元组损失可以用于约束基准图像特征和正样本图像特征之间的距离与约束基准图像特征和正样本图像特征之间的距离的差值大于一个阈值,从而可达到增大类内相似度、减小类间相似度的效果。上述交叉熵损失项可用于约束所有识别对象图像的分类类别需要与该目标对象对应的身份一致。上述对比损失项可用于约束视角相同的两个图像之间的欧式距离趋近于0,而视角不相同的两个图像之间的欧式距离则大于某一阈值,这样同样可以增大类内相似度、减小类间相似度等。
67.以上述的三种损失项为例,上述身份特征的三元组损失项和交叉熵损失项分别通过三元组损失函数和交叉熵损失函数计算得到;而视角特征的对比损失项通过对比损失函数计算得到。于是,通过表达式描述总的训练损失函数l
total
为:
68.l
total
=l
cons_ori
+l
triplet_id
+l
ce

69.式中,l
cons_ori
为只与视角特征有关的对比损失函数;l
triplet_id
和l
ce
分别为只与身份特征有关的三元组损失函数和交叉熵损失函数。
70.在一种实施方式中,对于该叉熵损失函数,可根据通用的交叉熵损失公式进行描述,例如,该身份特征的交叉熵损失项通过如下公式计算得到:
[0071][0072]
其中,n为样本图片总数量,y为标签类型,y在1和0中取值。可以理解,上述公式只是一种示例,也可以基于叉熵损失函数的通用公式进行适应性调整以得到其他的衍生表达式,这里不作限定。
[0073]
在一种实施方式中,可基于当前样本图片和正样本图片中识别对象的身份特征之间的距离与当前样本图片和负样本图片中识别对象的身份特征之间的距离的差值大于预设差值阈值的这一约束条件,构建得到该三元组损失函数。其中,上述正样本图片与当前样本图片中识别对象的身份相同,负样本图片与当前样本图片中识别对象的身份不同。例如,构建得到的三元组损失函数的表达式可描述为:
[0074][0075]
式中,l
triplet_id
为三元组损失函数;n
tp
为三元组的数量;为第i个样本图片的身份特征f
i2a
和对应正样本图片的身份特征f
i2p
之间的距离;为第i个样本图片的身份特征f
i2a
和负样本图片的身份特征f
i2n
之间的距离;α为预设差值阈值;其中,符号{*}
+
=max{*,0},即选取*和0这两个对象中的最大值。
[0076]
在一种实施方式中,该对比损失函数可基于当前样本图片和训练样本集中具有相同视角的其他图片之间的欧式距离趋于零且和具有不同视角的其他图片之间的欧式距离大于预设距离的这一约束条件构建得到。例如,该对比损失函数的表达式可描述为:
[0077][0078]
式中,l
cons_ori
为所述对比损失函数;k={a,p,n}\j表示三元组集合{a,p,n}中除当前样本图片j∈{a,p,n}以外的第k个图片;若图片j与图片k的视角相同,i(j,k)=0,否则i(j,k)=1;β为预设距离。
[0079]
可以理解,上述几种损失函数的表达式仅为一种示例,在实际使用过程中,除了基于上述的约束条件来构建外,还可以在此约束的基础上增加其他约束条件来进一步限定损失函数的构建,这里不作限定。
[0080]
至此,利用带视角标注的样本处理,结合上述的损失函数,可以训练得到所需的目标重识别模型。在实际部署时,只需要去掉该目标重识别模型的用于输出目标身份的最后一个输出层,得到目标重识别推理模型并进行部署。通过该目标重识别推理模型可以输出只包含目标对象身份信息的身份特征。
[0081]
对于上述的目标重识别模型,下面以一个具体的行人重识别模型的网络结构及训练进行举例说明。
[0082]
如图3所示,该行人重识别模型主要包括特征提取层、池化层、第一全连接层和第二全连接层,在训练过程中,将带有标注信息的样本图片输入到模型中,首先由特征提取层进行行人特征提取,再通过池化层进行降维处理,输出1xn维的行人特征,其中,该行人特征包含行人的身份信息和视角信息;进而,通过第一全连接层将这个行人特征解耦为1xn1的视角特征(记为f1)和1xn2的身份特征(记为f2),最后将解耦后的两个特征进行接拼,再输入到第二全连接层以获得行人身份分类结果。根据其中间过程输出的视角特征、身份特征及最后输出的分类结果,结合对应的损失函数来进行监督,由此得到满足预设收敛条件的行人重识别模型。可以理解,对于如车辆等其他目标对象的重识别模型,可采用相同的网络结构来实现,这里不再重复描述。
[0083]
本实施例的目标重识别模型获取方法通过先训练得到视角识别模型,以获得样本图片的视角标注;进而,利用带视角标注的这些样本图片训练视角解耦的行人重识别模型,其中,在训练过程中,为实现网络可以解耦视角特征和身份特征,具体对身份分类结果进行监督,以及分别对目标对象的身份特征和视角特征进行监督,由此得到视角解耦的目标重识别模型。通过该目标重识别模型可以解决摄像头拍摄行人视角不同所带来的准确率下降的问题等。
[0084]
请参照图4,基于上述实施例的模型获取方法,本实施例提出一种目标重识别方法,该方法包括:
[0085]
s210,将待识别图片输入到目标重识别推理模型中,获得与视角解耦的目标对象的身份特征;其中,所述目标重识别推理模型通过对上述方法训练得到的目标重识别模型进行输出层处理得到,具体而言,删除输出目标对象身份分类结果的最后一层(可以是第二全连接层中的靠近输出侧的网络结构等),即可得到推理模型。
[0086]
可选地,在步骤s210之前,该方法还包括:将注册的若干含识别对象的图片输入目标重识别推理模型中,输出经过视角解耦的各个识别对象的身份特征并进行存储。
[0087]
s220,计算所述目标对象的身份特征分别与预先注册的若干已识别对象的经视角解耦的身份特征之间的距离,并从多个距离中选取出最短距离。
[0088]
其中,这里的距离主要指身份图像特征之间的欧式距离,当然也可以采用其他方式计算该距离,这里不作限定。
[0089]
s230,基于所述最短距离,确定对所述目标对象的重识别结果。
[0090]
示范性地,将需要识别的图片输入到上述推理模型中,可得到解耦的身份特征(记为f
2'
),结合预先注册的m个已识别对象的经视角解耦的身份特征(分别记为),分别计算和f
2'
之间的欧式距离(记为d1,d2,

,dm),从这些距离中选取出距离最短的值(记为do,o∈[1,m])。于是,根据该最短距离来确定重识别结果。在一种实施方式中,在最短距离大于或等于预设距离阈值τ时,确定目标对象为上述已识别对象中的且对应于最短距离do的特定对象,其身份为o;反之,在最短距离小于预设距离阈值τ时,确定该目标对象为陌生对象。其中,该预设距离阈值τ可根据实际需求进行设置,这里不作限定。
[0091]
可以理解,通过上述的目标重识别推理模型可以实现对目标对象的重识别的前提下,也不需要在推理时引入额外的视角分类阶段,可大大降低模型网络参数调整的难度。
[0092]
请参照图5,基于上述实施例的模型获取方法,本实施例提出一种目标重识别模型获取装置100,包括:
[0093]
第一训练模块110,用于利用训练样本集中预设占比的样本图片进行视角识别模型训练,得到视角识别模型。
[0094]
样本标注模块120,用于将所述训练样本集中的所有样本图片通过所述视角识别模型,得到带视角标注的样本图片。
[0095]
第二训练模块130,用于利用所述带视角标注的样本图片对神经网络进行迭代训练,得到视角解耦的目标重识别模型,其中,在训练过程中,通过对输入的带视角标注的样本图片进行目标对象特征提取,将所述目标对象特征中的身份特征和视角特征进行解耦,并根据解耦后的身份特征输出所述目标对象的身份分类结果。
[0096]
可以理解,本实施例的装置对应于上述实施例的模型获取方法,上述实施例中的可选项同样适用于本实施例,故在此不再重复描述。
[0097]
请参照图6,基于上述实施例的目标重识别方法,本实施例提出一种目标重识别装置200,包括:
[0098]
特征获取模块210,用于将待识别图片输入到目标重识别推理模型中,获得与视角解耦的目标对象的身份特征;其中,所述目标重识别推理模型通过上述实施例的方法得到的目标重识别模型进行输出层处理得到。
[0099]
距离计算模块220,用于计算所述目标对象的身份特征分别与预先注册的若干已识别对象的经视角解耦的身份特征之间的距离,并从多个距离中选取出最短距离。
[0100]
重识别模块230,用于基于所述最短距离,确定对所述目标对象的重识别结果。
[0101]
可以理解,本实施例的装置对应于上述实施例的目标重识别方法,上述实施例中的可选项同样适用于本实施例,故在此不再重复描述。
[0102]
请参照图7,为本技术实施例提出的终端设备10的结构示意图。例如,该终端设备10可以是固定安装式设备,如设置在楼道、街道等场所的安防设备等;也可以是移动式设备,如可移动的探测机器人、用于监控的车辆等,进一步地,若为机器人,其具体形状并不作限定。示范性地,该终端设备10可以包括存储器11和处理器12,其中,存储器11存储有计算机程序,处理器12用于执行所述计算机程序以实施本技术实施例的目标重识别模型获取方法或目标重识别方法,以解决由于摄像头拍摄对象的视角不同所带来的重识别准确率下降的问题等。
[0103]
其中,存储器11可以是,但不限于,随机存取存储器(random access memory,ram),只读存储器(read only memory,rom),可编程只读存储器(programmable read-only memory,prom),可擦除只读存储器(erasable programmable read-only memory,eprom),电可擦除只读存储器(electric erasable programmable read-only memory,eeprom)等。其中,存储器11用于存储计算机程序,处理器12在接收到执行指令后,可相应地执行所述计算机程序。
[0104]
其中,处理器12可以是一种具有信号的处理能力的集成电路芯片。处理器12可以是通用处理器,包括中央处理器(central processing unit,cpu)、图形处理器(graphics processing unit,gpu)及网络处理器(network processor,np)、数字信号处理器(dsp)、专用集成电路(asic)、现成可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件中的至少一种。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。
[0105]
在本实施例中,处理器12可以是一种具有信号的处理能力的集成电路芯片。处理器12可以是通用处理器,包括中央处理器(central processing unit,cpu)、图形处理器(graphics processing unit,gpu)及网络处理器(network processor,np)、数字信号处理器(dsp)、专用集成电路(asic)、现成可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件中的至少一种。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。
[0106]
本技术还提供了一种可读存储介质,用于储存上述终端设备10中使用的所述计算机程序。
[0107]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和结构图显示了根据本技术的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的
可执行指令。也应当注意,在作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,结构图和/或流程图中的每个方框、以及结构图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0108]
另外,在本技术各个实施例中的各功能模块或单元可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或更多个模块集成形成一个独立的部分。
[0109]
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是智能手机、个人计算机、服务器、或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0110]
以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1