模型的测试方法、装置、电子设备及存储介质与流程

文档序号:27380855发布日期:2021-11-15 19:57阅读:83来源:国知局
模型的测试方法、装置、电子设备及存储介质与流程

1.本发明实施例涉及计算机技术领域,尤其涉及一种模型的测试方法、装置、电子设备及存储介质。


背景技术:

2.人工智能现在使用的越来越成熟了,如人脸识别,图像识别等,图像识别已经应用到我们生活中的方方面面,手机安装上物体识别软件可以帮助我们识别各种物体名称,移动支付应用人脸识别大大提高了支付的便捷性和安全性。更多图像识别技术的实现需要更加可靠和准确的测试手段。
3.传统对目标识别模型的测试方法,需要人工事先标注视频的每个场景中每个视频帧中的目标识别对象,然后,用目标识别模型确定视频中的每个场景中的每个视频帧中的实际识别对象,最后,人工比对每一帧的目标识别对象和实际识别对象的差异,进而,确定目标识别模型是否合格。然而,传统对目标识别模型的测试方法存在人工的工作量较多、测试的效率以及准确率较低的技术问题。


技术实现要素:

4.本发明实施例提供了一种模型的测试方法、装置、电子设备及存储介质,以实现更加快速确定目标识别模型是否合格,从而提升了测试的效率以及准确率。
5.第一方面,本发明实施例提供了一种模型的测试方法,该方法包括:
6.获取待测试视频,确定所述待测试视频中每个场景对应的解析视频帧,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像;
7.将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像;
8.根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到所述待测试视频的场景识别率;
9.根据所述待测试视频的场景识别率,确定所述待测试目标识别模型是否为预期模型。
10.第二方面,本发明实施例还提供了一种模型的测试装置,该装置包括:
11.预期特征图像得到模块,用于获取待测试视频,确定所述待测试视频中每个场景对应的解析视频帧,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像;
12.实际输出特征图像得到模块,用于将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像;
13.场景识别率得到模块,用于根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到所述待测试视频的场景识别率;
14.待测试目标识别模型确定模块,用于根据所述待测试视频的场景识别率,确定所述待测试目标识别模型是否为预期模型。
15.第三方面,本发明实施例还提供了一种电子设备,该电子设备包括:
16.一个或多个处理器;
17.存储装置,用于存储一个或多个程序;
18.当所述程序被所述处理器执行,使得所述处理器实现如本发明任意实施例所提供的模型的测试方法。
19.第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的模型的测试方法。
20.本实施例的技术方案,通过获取待测试视频,确定待测试视频中每个场景对应的解析视频帧,进而,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像。通过将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像。在得到每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像之后,可以根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到待测试视频的场景识别率。进而根据待测试视频的场景识别率,确定待测试目标识别模型是否为预期模型,实现更加快速确定目标识别模型是否合格,解决了传统对训练完成的待测试目标识别模型的测试方法存在人工的工作量较多、测试的效率以及准确率较低的技术问题,达到提升了对训练完成的目标识别模型的测试效率以及准确率的技术效果。
附图说明
21.为了更加清楚地说明本发明示例性实施例的技术方案,下面对描述实施例中所需要用到的附图做一简单介绍。显然,所介绍的附图只是本发明所要描述的一部分实施例的附图,而不是全部的附图,对于本领域普通技术人员,在不付出创造性劳动的前提下,还可以根据这些附图得到其他的附图。
22.图1是本发明实施例一提供的一种模型的测试方法流程示意图;
23.图2是本发明实施例一提供的一种视频分割方法示意图;
24.图3是本发明实施例二提供的一种模型的测试方法流程示意图;
25.图4是本发明实施例三提供的一种模型的测试装置模块示意图;
26.图5是本发明实施例四提供的一种电子设备的结构示意图。
具体实施方式
27.下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
28.实施例一
29.图1是本发明实施例一提供的一种模型的测试方法流程示意图,本实施例可适用于通过对预先训练完成的待测试目标识别模型进行测试,从而确定所述待测试目标识别模型是否为预期模型的情况,该方法可以由模型的测试装置来执行,模型的测试装置可通过
软件和/或硬件方式实现,该模型的测试装置可集成于诸如计算机或者服务器等的电子设备中。
30.如图1所示,本实施例的方法包括:
31.s110、获取待测试视频,确定待测试视频中每个场景对应的解析视频帧,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像。
32.其中,待测试视频可以是当前时刻需要测试的视频。待测试视频的数量可以是一个或多个。待测试视频中包括的场景的数量可以是一个或多个。一个场景对应的解析视频帧的数量可以是一个或多个。解析视频帧可以是对待测试视频进行解析得到的视频帧。预期特征图像可以是对每个场景对应的解析视频帧进行特征提取得到的特征图像。
33.具体的,获取待测试视频,在获取到待测视频之后,可以对待测试视频进行解析,进而,可以确定待测视频中包括的全部解析视频帧。基于待测视频中包括的全部解析视频帧,可以确定待测试视频中每个场景对应的解析视频帧。在确定每个场景对应的解析视频帧之后,可以对每个场景对应的解析视频进行特征提取,进而可以得到相应场景对应的解析视频帧的预期特征图像。
34.可选的,获取待测试视频的方式有多种,其具体获取方式在此不做限定。例如,可以是接收用户输入的视频作为待测试视频,或者是,可以将摄像装置录制的视频作为待测试视频,亦或者是,可以通过网络爬虫技术获取待测试视频。
35.可选的,对每个场景对应的解析视频帧进行特征提取的方式可以是基于预设的特征提取算法,对每个场景对应的解析视频帧进行特征提取。其中,预设的特征提取算法可以是多种,具体的特征提取算法在此不做限定,如,尺度不变特征变换算法、方向梯度直方图特征提取算法、高斯函数的差分算法等。
36.可选的,通过下述方式确定待测试视频中每个场景对应的解析视频帧:
37.对待测试视频进行场景特征提取,得到待测试视频的场景特征向量。基于待测试视频的场景特征向量,确定待测试视频中包括的每个场景。在确定待测试视频中包括的每个场景后,可以确定待测试视频中每个场景对应的解析视频帧。可选的,在确定每个场景对应的解析视频帧后,可以对待测试视频进行分割,得到以场景为单位的待测试子视频。
38.其中,待测试子视频可以是对待测试视频进行分割,得到以场景为单位的视频。
39.示例性的,待测试视频可以是测试前视频。待测试子视频可以是测试场景视频。参见图2,通过对测试前视频进行场景特征提取,进而可以得到测试前视频的至少一个场景特征向量,通过对各个场景特征向量进行判断,进而确定测试前视频中包括的每个场景。在确定测试前视频中包括的每个场景后,可以确定测试前视频中每个场景对应的解析视频帧。
40.可选的,在确定每个场景对应的解析视频帧后,可以对测试前视频进行分割,得到以场景为单位的测试场景视频。
41.可选的,通过下述步骤确定待测试视频中每个场景对应的解析视频帧:
42.步骤一、对待测试视频进行解析,计算待测试视频中相邻解析视频帧之间的帧间相似度。
43.其中,帧间相似度可以理解为待测试视频中相邻解析视频帧之间的相似度。
44.具体的,在获取到待测试视频后,可以对待测试视频进行解析,进而可以确定待测试视频中包括的全部解析视频帧。通过计算待测试视频中相邻解析视频帧之间的相似度,
进而,可以得到相邻解析视频帧之间的帧间相似度。
45.步骤二、根据相邻解析视频帧之间的帧间相似度,确定待测试视频中每个场景对应的解析视频帧。
46.具体的,在得到相邻解析视频帧之间的帧间相似度之后,可以根据相邻解析视频帧之间的帧间相似度,确定待测试视频中每个场景对应的解析视频帧。
47.可选的,通过下述方式根据相邻解析视频帧之间的帧间相似度,确定待测试视频中每个场景对应的解析视频帧:
48.根据相邻解析视频帧之间的帧间相似度和预设帧间相似度阈值,确定待测试视频中每个场景对应的解析视频帧。
49.其中,帧间相似度阈值可以根据实际需求设置的值,其具体数值在此还不做限定,如,帧间相似度阈值可以是80%、85%或90%。
50.具体的,预先设置帧间相似度阈值。在得到相邻解析视频帧之间的帧间相似度后,将得到的帧间相似度与预设的帧间相似度阈值进行比较,进而可以得到比较结果。基于比较结果,进而可以确定待测试视频中每个场景对应的解析视频帧。
51.s120、将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像。
52.其中,待测试目标识别模型可以是当前时刻待测试的目标识别模型。实际输出特征图像可以是将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型得到的每个场景包含的每个解析视频帧的特征图像。
53.具体的,在得到每个对应的解析视频帧后,可以将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,进而,得到每个场景包含的每个解析视频帧对应的实际输出特征图像。
54.为了提高测试的准确性,可以为待测试视频中每个场景标注场景信息,以及可以为每个场景对应的解析视频帧标注视频帧标识。其中,场景信息可以包括但不限于场景标识以及场景名称。为每个场景对应的解析视频帧标注视频帧标识的好处在于,可以快速确定每个场景对应的解析视频帧是否为每个场景对应的全部解析视频帧。
55.可选的,通过下述方式得到待测试目标识别模型:
56.将以场景为单位所对应的视频帧输入至预先构建的深度学习模型,可以得到相应场景所对应视频帧的实际输出特征图像。将与相应场景所对应视频帧的标准特征图像作为期望输出特征图像。根据实际输出特征图像和期望输出特征图像对构建的深度学习模型的网格参数的初始值进行调整。进而,可以得到待测试目标识别模型。
57.可选的,通过下述方式根据实际输出特征图像和期望输出特征图像对构建的深度学习模型的网格参数的初始值进行调整,得到待测试目标识别模型:
58.根据实际输出特征图像和期望输出特征图像,确定深度学习模型的损失函数。当损失函数到达收敛时,可以得到待测试目标识别模型。
59.s130、根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到待测试视频的场景识别率。
60.其中,待测试视频的场景识别率可以是待测试视频中已识别成功的场景的数量与全部场景的数量的比例。示例性的,待测试视频中已识别成功的场景的数量为8,全部场景
的数量为10,那么,场景识别率为8/10=80%。需要说明的是,场景识别率具体的表示形式不做限定,如,表示形式可以是分数、小数或百分数。
61.具体的,在得到每个场景中包含解析视频帧对应的预期特征图像和实际输出特征图像后,可以基于待测试视频中的每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,确定待测试视频的场景识别率。
62.s140、根据待测试视频的场景识别率,确定待测试目标识别模型是否为预期模型。
63.其中,预期模型可以是待测试视频的场景识别率符合预期标准的模型。
64.具体的,在得到待测试视频的场景识别率后,根据场景识别率,确定待测试目标识别模型是否符合预期模型,即确定待测试目标识别模型是否为合格的模型。
65.可选的,通过下述方式根据待测试视频的场景识别率,确定待测试目标识别模型是否为预期模型:
66.如果待测试视频的场景识别率达到预设场景识别率阈值,则将待测试目标识别模型作为预期模型。
67.其中,场景识别率阈值可以根据实际需求设置的值,其具体数值在此不做限定,如,0.8、0.84或0.89等等。
68.具体的,预先设置场景识别率阈值,在得到待测试视频的场景识别率后,可以将场景识别率与预先的场景识别率阈值进行比对,如果待测试视频的场景识别率达到预设的场景识别率阈值,则将待测试目标识别模型作为预期模型。可选的,如果待测试视频的场景识别率未到达预设的场景识别率阈值,则待测试目标识别模型不是预期模型。此时,可以继续对待测试目标识别模型进行训练。也可以对待测试目标识别模型进行调整后继续训练。
69.示例性的,预设场景识别率阈值为0.85,待测试视频的场景识别率为0.86,此时,0.86>0.85,那么,将待测试目标识别模型作为预期模型。
70.可选地,还可以基于待测试目标识别模型的损失函数确定待测试目标识别模型是否为预期模型。具体可以是,当待测试目标识别模型的损失函数收敛时,将待测试目标识别模型作为预期模型。
71.本实施例的技术方案,通过获取待测试视频,确定待测试视频中每个场景对应的解析视频帧,进而,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像。通过将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像。在得到每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像之后,可以根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到待测试视频的场景识别率。进而根据待测试视频的场景识别率,确定待测试目标识别模型是否为预期模型,实现更加快速确定目标识别模型是否合格,解决了传统对训练完成的待测试目标识别模型的测试方法存在人工的工作量较多、测试的效率以及准确率较低的技术问题,达到提升了对训练完成的目标识别模型的测试效率以及准确率的技术效果。
72.实施例二
73.图3是本发明实施例二提供的一种模型的测试方法流程示意图,在前述实施例的基础上,可选地,所述根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到所述待测试视频的场景识别率,包括:根据每个场景中包含的解析视频帧对
应的预期特征图像和实际输出特征图像,得到每个场景的场景识别率;根据每个场景的场景识别率,确定所述待测试视频的场景识别率。
74.其中,与上述实施例相同或者相应的技术术语在此不再赘述。
75.如图3所示,本实施例的方法具体可包括:
76.s210、获取待测试视频,确定待测试视频中每个场景对应的解析视频帧,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像。
77.s220、将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像。
78.s230、根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到每个场景的场景识别率。
79.其中,每个场景的场景识别率可以是基于每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像得到的每个场景的识别率。如,待测试视频中包括的场景为场景一、场景二以及场景三,其中,场景一的场景识别率为0.7、场景二的识别率为0.6,场景三的识别率为0.8。
80.具体的,在得到每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像后,可以根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,计算每个场景的场景识别率,进而,可以得到每个场景的场景识别率。
81.可选的,通过下述步骤根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到每个场景的场景识别率:
82.步骤一、根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,确定每个场景中包含的每个解析视频帧的帧识别率。
83.其中,帧识别率可以是每个解析帧对应的预期特征图像和实际输出特征图像之间的相似度,如,0.75、0.6或者是0.2。
84.具体的,在得到每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像后,可以计算每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像的相似度,进而得到每个场景中包含的每个解析视频帧的帧识别率。
85.可选的,通过下述方式确定相应场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像的相似度:
86.计算每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像的余弦距离,进而,确定相应场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像的相似度。
87.步骤二、根据每个场景中包含的每个解析视频帧的帧识别率,得到每个场景的场景识别率。
88.具体的,在得到每个场景中包含的每个解析视频帧的帧识别率后,可以基于每个场景中包含的每个解析视频帧的帧识别率,进而确定每个场景的场景识别率。
89.可选的,通过下述步骤根据每个场景中包含的每个解析视频帧的帧识别率,得到每个场景的场景识别率:
90.步骤一、针对待检测视频中的单个场景,确定单个场景的场景时长,并确定在单个场景的场景时长内包括的解析视频帧的帧总数量。
91.具体的,针对待检测视频中的单个场景,可以确定单个场景的场景时长,进而,可以确定在单个场景的场景时长内包括的解析视频帧的帧总数量。
92.步骤二、确定单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量。
93.其中,帧识别率阈值可以是根据实际需要设置的值,其具体数值在此不做限定。
94.具体的,预设帧识别率阈值。在得到单个场景中解析视频帧的帧识别率后,可以将单个场景中解析视频帧的帧识别率与预设帧识别率阈值进行比对,进而可以单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量。
95.示例性的,预设帧识别率阈值0.75。待测试视频中包括的场景一对应的解析视频帧为解析视频帧1、解析视频帧2以及解析视频帧3,其中,解析视频帧1的帧识别率为0.5,解析视频帧2的帧识别率为0.8,以及解析视频帧3的帧识别率为0.76。此时0.5<0.75、0.8>0.75、0.76>0.75,那么可以确定单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量为2。
96.步骤三、根据单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量,以及在单个场景的场景时长内包括的解析视频帧的帧总数量,确定单个场景的场景识别率。
97.具体的,在得到单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量以及在单个场景的场景时长内包括的解析视频帧的帧总数量后,可以根据单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量,以及在单个场景的场景时长内包括的解析视频帧的帧总数量,进而确定单个场景的场景识别率。
98.可选的,通过下述步骤根据单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量,以及在单个场景的场景时长内包括的解析视频帧的帧总数量,确定单个场景的场景识别率:
99.步骤一、将单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量与在单个场景的场景时长内包括的解析视频帧的帧总数量的比,作为所述单个场景中全部解析视频帧的帧识别率。
100.具体的,计算单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量与在该单个场景的场景时长内包括的解析视频帧的帧总数量的比,进而,可以将单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量与在该单个场景的场景时长内包括的解析视频帧的帧总数量的比,作为单个场景中全部解析视频帧的帧识别率。
101.示例性的,场景一中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量为78,在场景一的场景时长内包括的解析视频帧的帧总数量为100,那么,可以得到场景一中全部解析视频帧的帧识别率为78/100=0.78。
102.步骤二、根据单个场景中全部解析视频帧的帧识别率,确定单个场景的场景识别率。
103.具体的,在得到单个场景中全部解析视频帧的帧识别率后,可以将单个场景中全部解析视频帧的帧识别率作为该单个场景的场景识别率。
104.s240、根据每个场景的场景识别率,确定待测试视频的场景识别率。
105.s250、根据待测试视频的场景识别率,确定待测试目标识别模型是否为预期模型。
106.为了便于后续对待测试目标识别模型进行训练,可以将场景识别率达到预设的场景识别率阈值的场景所对应的解析视频帧存储至数据库中,以便于后续对待测试目标识别模型进行训练。
107.本实施例的技术方案,通过根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到每个场景的场景识别率。进而,根据每个场景的场景识别率,确定待测试视频的场景识别率,达到提升了对训练完成的目标识别模型的测试效率以及准确率的技术效果。
108.实施例三
109.图4是本发明实施例三提供的一种模型的测试装置模块示意图,本发明提供了一种模型的测试装置,该装置包括:预期特征图像得到模块310、实际输出特征图像得到模块320、场景识别率得到模块330和待测试目标识别模型确定模块340。
110.其中,预期特征图像得到模块310,用于获取待测试视频,确定所述待测试视频中每个场景对应的解析视频帧,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像;实际输出特征图像得到模块320,用于将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像;场景识别率得到模块330,用于根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到所述待测试视频的场景识别率;待测试目标识别模型确定模块340,用于根据所述待测试视频的场景识别率,确定所述待测试目标识别模型是否为预期模型。
111.本实施例的技术方案,通过预期特征图像得到模块获取待测试视频,确定待测试视频中每个场景对应的解析视频帧,进而,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像。通过实际输出特征图像得到模块将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像。在得到每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像之后,可以通过场景识别率得到模块根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到待测试视频的场景识别率。进而根据待测试视频的场景识别率,确定待测试目标识别模型是否为预期模型,实现更加快速确定目标识别模型是否合格,解决了传统对训练完成的待测试目标识别模型的测试方法存在人工的工作量较多、测试的效率以及准确率较低的技术问题,达到提升了对训练完成的目标识别模型的测试效率以及准确率的技术效果。
112.可选的,场景识别率得到模块330,用于根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到每个场景的场景识别率;根据每个场景的场景识别率,确定所述待测试视频的场景识别率。
113.可选的,场景识别率得到模块330,用于根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,确定每个场景中包含的每个解析视频帧的帧识别率;根据每个场景中包含的每个解析视频帧的帧识别率,得到每个场景的场景识别率。
114.可选的,场景识别率得到模块330,用于针对所述待检测视频中的单个场景,确定所述单个场景的场景时长,并确定在所述单个场景的场景时长内包括的解析视频帧的帧总数量;确定所述单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量;根据
所述单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量,以及在所述单个场景的场景时长内包括的解析视频帧的帧总数量,确定所述单个场景的场景识别率。
115.可选的,场景识别率得到模块330,用于将所述单个场景中解析视频帧的帧识别率达到预设帧识别率阈值的帧数量与在所述单个场景的场景时长内包括的解析视频帧的帧总数量的比,作为所述单个场景中全部解析视频帧的帧识别率;根据所述单个场景中全部解析视频帧的帧识别率,确定所述单个场景的场景识别率。
116.预期特征图像得到模块310,用于对所述待测试视频进行解析,计算所述待测试视频中相邻解析视频帧之间的帧间相似度;根据所述相邻解析视频帧之间的帧间相似度,确定所述待测试视频中每个场景对应的解析视频帧。
117.待测试目标识别模型确定模块340,用于如果所述待测试视频的场景识别率达到预设场景识别率阈值,则所述将待测试目标识别模型作为预期模型。
118.上述装置可执行本发明任意实施例所提供的模型的测试方法,具备执行模型的测试方法相应的功能模块和有益效果。
119.值得注意的是,上述模型的测试装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。
120.实施例四
121.图5是本发明实施例四提供的一种电子设备的结构示意图。图5示出了适于用来实现本发明任一实施方式的示例性电子设备12的框图。图5显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。设备12典型的是承担配置信息的处理的电子设备。
122.如图5所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,存储器28,连接不同组件(包括存储器28和处理单元16)的总线18。
123.总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(industry standard architecture,isa)总线,微通道体系结构(micro channel architecture,mca)总线,增强型isa总线、视频电子标准协会(video electronics standards association,vesa)局域总线以及外围组件互连(peripheral component interconnect,pci)总线。
124.电子设备12典型地包括多种计算机可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
125.存储器28可以包括易失性存储器形式的计算机装置可读介质,例如随机存取存储器(random access memory,ram)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(compact disc

read only memory,cd

rom)、数字视盘(digital video disc

read only memory,dvd

rom)或者其它光介质)读写的光盘驱动器。
在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品40,该程序产品40具有一组程序模块42,这些程序模块被配置以执行本发明各实施例的功能。程序产品40,可以存储在例如存储器28中,这样的程序模块42包括但不限于一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
126.电子设备12也可以与一个或多个外部设备14(例如键盘、鼠标、摄像头等和显示器)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(local area network,lan),广域网wide area network,wan)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(redundant arrays of independent disks,raid)装置、磁带驱动器以及数据备份存储装置等。
127.处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明上述实施例所提供的模型的测试方法,该方法包括:
128.获取待测试视频,确定所述待测试视频中每个场景对应的解析视频帧,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像;将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像;根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到所述待测试视频的场景识别率;根据所述待测试视频的场景识别率,确定所述待测试目标识别模型是否为预期模型。
129.当然,本领域技术人员可以理解,处理器还可以实现本发明任一实施例所提供的模型的测试方法的技术方案。
130.实施例五
131.本发明实施例五还提供一种计算机可读存储介质,其上存储有计算机程序,特征在于,该程序被处理器执行时,例如本发明上述实施例所提供的模型的测试方法,该方法包括:
132.获取待测试视频,确定所述待测试视频中每个场景对应的解析视频帧,对每个场景对应的解析视频帧进行特征提取,得到相应的预期特征图像;
133.将每个场景对应的解析视频帧输入至预先训练完成的待测试目标识别模型中,得到每个场景包含的每个解析视频帧对应的实际输出特征图像;
134.根据每个场景中包含的解析视频帧对应的预期特征图像和实际输出特征图像,得到所述待测试视频的场景识别率;
135.根据所述待测试视频的场景识别率,确定所述待测试目标识别模型是否为预期模型。
136.本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意
组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd

rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
137.计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
138.计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、rf等等,或者上述的任意合适的组合。
139.可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言——诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
140.注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1