一种摄像机的制作方法

文档序号:21594843发布日期:2020-07-24 16:44阅读:138来源:国知局
一种摄像机的制作方法

本申请涉及视频监控技术领域,特别是涉及一种摄像机。



背景技术:

目前,对一场景进行监控时,通过多个摄像机实现。具体的,在该场景中部署多台摄像机,每个摄像机的监控区域为对该场景的一个部分区域,多个摄像机的监控区域构成整个场景。其中,每一个摄像机采集视频帧,并对视频帧进行人脸识别,将识别结果和视频帧发送给后台服务器。后台服务器对各摄像机识别到的人脸进行对比,如果是同一目标,记录其具体的摄像机和采集的时间点,得到目标的轨迹。

由上可见,为实现对一场景的监控,需要安装多个摄像机,安装工作量大。另外,为了实现对整个场景的监控,需要调试每个摄像机,使得各个摄像机的监控区域存在重叠部分,调试工作量大。



技术实现要素:

本申请实施例的目的在于提供一种摄像机,以降低监控时摄像机的安装和调试的工作量。具体技术方案如下:

为实现上述目的,本申请实施例提供了一种摄像机,所述摄像机包括:

一个大视场镜头组件和所述大视场镜头组件对应的大视场传感器;

至少一个小视场镜头组件和所述小视场镜头组件对应的小视场传感器;其中,所述大视场镜头组件的视场角大于所述小视场镜头组件的视场角,且对于同一目标,所述大视场传感器的清晰度小于所述小视场传感器的清晰度;

处理器,用于对所述大视场视频帧进行人体分析,对所述至少一帧小视场视频帧进行人脸分析或头肩分析或人体分析。

可选的,所述摄像机还包括:红外补光组件和白光补光组件;

所述大视场传感器使用所述白光补光组件进行白光补光;

所述小视场传感器使用所述红外补光组件进行红外光补光。

可选的,所述大视场镜头组件使用短焦距大光圈镜头;所述小视场镜头组件使用长焦距高清镜头。

可选的,所述大视场镜头组件的视场范围包含所述小视场镜头组件的视场范围部分或全部,且所述大视场镜头组件的视场范围包含的所述小视场镜头组件的视场范围部分的宽度大于目标的最大宽度阈值。

可选的,所述大视场传感器和所述至少一个小视场传感器的时间偏差不大于一个视频帧的时长。

可选的,所述处理器,具体用于:每间隔预设时长对所述大视场视频帧进行人体分析,每间隔所述预设时长对所述至少一帧小视场视频帧进行人脸分析或头肩分析或人体分析。

可选的,在所述处理器对所述大视场视频帧进行人体分析之后,所述处理器,还用于:

当对所述大视场视频帧进行人体分析得到第一目标后,确定所述第一目标的第一坐标和所述第一目标的第一全局标识;

将所述第一坐标、所述第一全局标识和所述大视场视频帧的对应关系,发送给服务器。

可选的,所述将所述第一坐标、所述第一全局标识和所述大视场视频帧的对应关系,发送给服务器的步骤,包括:

从所述大视场视频帧中截取所述第一目标所在第一区域;

按照所述大视场视频帧的分辨率,对所述第一区域进行编码,获得第一目标图像;

按照预设的第一分辨率,对所述大视场视频帧进行编码,获得编码后的大视场视频帧;所述第一分辨率小于等于所述大视场视频帧的分辨率;

将所述第一坐标、所述第一全局标识、所述编码后的大视场视频帧和所述第一目标图像的对应关系,发送给服务器。

可选的,所述处理器,还用于:

在从所述大视场视频帧中截取所述第一目标所在第一区域之后,根据本次截取的所述第一区域的清晰度,以及本次截取的所述第一区域中所述第一目标的姿态,计算所述第一区域的综合评分;

比较本次截取的所述第一区域的综合评分,与记录的大视场高清图像的综合评分,得到综合评分高的第一图像;所述大视场高清图像包括所述第一目标;

将记录的大视场高清图像更新为所述第一图像;

当检测到第二目标离开采集所述小视场视频帧的小视场镜头组件的视场范围时,将所述第一全局标识与记录的所述大视场高清图像的对应关系,发送给所述服务器;所述第二目标为对所述小视场视频帧进行人脸分析或头肩分析或人体分析得到的目标,所述第二目标与所述第一目标为同一目标。

可选的,在所述处理器对所述至少一帧小视场视频帧进行人脸分析或头肩分析或人体分析之后,所述处理器,还用于:

当对所述小视场视频帧进行人脸分析或头肩分析或人体分析得到第二目标后,确定所述第二目标的第二坐标;

检测所述第二坐标与所述第一坐标间的距离是否小于预设距离阈值,得到第一检测结果;

若所述第一检测结果为是,则将所述第一全局标识与所述小视场视频帧的对应关系,发送给所述服务器。

可选的,所述处理器,还用于:

获取所述第一目标的第一特性信息和所述第二目标的第二特性信息;

检测所述第一特性信息与所述第二特性信息的相似度是否大于预设相似度阈值,得到第二检测结果;

所述若所述第一检测结果为是,则将所述第一全局标识与所述小视场视频帧的对应关系,发送给所述服务器的步骤,包括:

若所述第一检测结果为是,且所述第二检测结果为是,则将所述第一全局标识与所述小视场视频帧的对应关系,发送给所述服务器。

可选的,所述检测所述第二坐标与所述第一坐标间的距离是否小于预设距离阈值,得到第一检测结果的步骤,包括:

将所述第一坐标映射至参考坐标系下,得到第一参考坐标;

将所述第二坐标映射至参考坐标系下,得到第二参考坐标;

计算所述第一参考坐标和所述第二参考坐标间的物理距离;

若连续预设次数计算得到的所述物理距离小于预设距离阈值,则确定第一检测结果为所述第二坐标与所述第一坐标间的距离小于预设距离阈值;否则,确定第一检测结果为所述第二坐标与所述第一坐标间的距离不小于预设距离阈值。

可选的,所述将所述第一全局标识与所述小视场视频帧的对应关系,发送给所述服务器的步骤,包括:

从所述小视场视频帧中截取所述第二目标所在第二区域;

按照所述小视场视频帧的分辨率,对所述第二区域进行编码,获得第二目标图像;

按照预设的第二分辨率,对所述小视场视频帧进行编码,获得编码后的小视场视频帧;所述第二分辨率小于等于所述小视场视频帧的分辨率;

将所述第二坐标、所述第一全局标识、所述编码后的小视场视频帧和所述第二目标图像的对应关系,发送给所述服务器。

可选的,所述处理器,还用于:

在从所述小视场视频帧中截取所述第二目标所在第二区域之后,根据本次截取的所述第二区域的清晰度,以及本次截取的所述第二区域中所述第二目标的姿态,计算所述第二区域的综合评分;

比较本次截取的所述第二区域的综合评分,与记录的小视场高清图像的综合评分,得到综合评分高的第二图像;所述小视场高清图像包括所述第二目标;

将记录的所述小视场高清图像更新为所述第二图像;

当检测到所述第二目标离开生成所述小视场视频帧对应的小视场镜头组件的视场范围时,将所述第一全局标识与记录的所述小视场高清图像的对应关系,发送给所述服务器。

可选的,所述处理器,还用于:

当检测到第二目标离开生成所述小视场视频帧对应的小视场镜头组件的视场范围时,将第一目标的轨迹信息发送给所述服务器;所述第一目标为对所述大视场视频帧进行人体分析得到的目标,所述第二目标为对所述小视场视频帧进行人脸分析或头肩分析或人体分析得到的目标,所述第二目标与所述第一目标为同一目标。

可选的,所述轨迹信息包括:所述第一目标经过所述第一坐标的时间以及所述第一目标在所述第一坐标的停留时长。

本申请实施例提供的摄像机,包括一个大视场镜头组件和大视场镜头组件对应的大视场传感器;至少一个小视场镜头组件和小视场镜头组件对应的小视场传感器;其中,大视场镜头组件的视场角大于小视场镜头组件的视场角,且对于同一目标,大视场传感器的清晰度小于小视场传感器的清晰度;处理器,用于对大视场视频帧进行人体分析,对至少一帧小视场视频帧进行人脸分析或头肩分析或人体分析。

可见,本申请实施例提供的技术方案中,摄像机的大视场镜头组件和大视场传感器可用于对整个场景的监控,摄像机的小视场镜头组件和小视场传感器可用于采集到场景中目标的高清图像,实现目标的准确监控。也就是,对于一个场景,安装一个摄像机即可,也就不需要为了满足监控需求调试多个摄像机,这在实现场景监控的同时,且降低了监控时摄像机的安装和调试的工作量。

当然,实施本申请的任一产品或方法必不一定需要同时达到以上所述的所有优点。

附图说明

为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为监控场景的一种部署示意图;

图2为本申请实施例提供的摄像机的第一种结构示意图;

图3为本申请实施例提供的大视场镜头组件的视场范围与小视场镜头组件的视场范围的一种示意图;

图4为本申请实施例提供的大视场视频帧的一种处理流程示意图;

图5为本申请实施例提供的摄像机的第二种结构示意图;

图6为本申请实施例提供的小视场视频帧的一种处理流程示意图;

图7为本申请实施例提供的显示器的图形界面的一种示意图;

图8为基于图7所示图形界面的视频展示的一个示意图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

目前,如图1所示的监控场景,包括:多个摄像机100和服务器101。在对场景进行监控时,每一摄像机100对场景的一部分区域进行监控,采集监控视频。摄像机100采集到监控视频帧后,对监控视频帧进行人脸识别,将识别结果和监控视频帧发送给服务器101。服务器101对各个摄像机100采集的监控视频帧进行拼接,得到整个场景的监控视频帧。另外,服务器101对各摄像机100识别到的人脸进行对比,如果是同一目标,记录其对应的摄像机100和采集的时间点,得到目标的轨迹。

由上可见,为实现对一场景的监控,需要安装多个摄像机100,安装工作量大。另外,为了实现对整个场景的监控,也就是,便于服务器101得到整个场景的监控视频帧,需要调试每个摄像机100,使得各个摄像机100的监控区域存在重叠部分,调试工作量大。

为了降低监控时摄像机的安装和调试的工作量,本申请实施例提供了一种摄像机。该摄像机中包括一个大视场镜头组件和大视场镜头组件对应的大视场传感器;至少一个小视场镜头组件和小视场镜头组件对应的小视场传感器;其中,大视场镜头组件的视场角大于小视场镜头组件的视场角。对于同一目标,大视场传感器的清晰度小于小视场传感器的清晰度,即大视场传感器生成一目标的视频帧的清晰度小于小视场传感器生成该目标的视频帧的清晰度。对于同一目标,大视场传感器的像素小于小视场传感器的像素。处理器,用于对大视场视频帧进行人体分析,对至少一帧小视场视频帧进行人脸分析或头肩分析或人体分析。

可见,本申请实施例提供的技术方案中,摄像机的大视场镜头组件和大视场传感器可用于对整个场景的监控,摄像机的小视场镜头组件和小视场传感器可用于采集到场景中目标的高清图像,实现目标的准确监控。也就是,对于一个场景,安装一个摄像机即可,这在实现场景监控的同时,且降低了监控时摄像机的安装和调试的工作量。

下面通过具体实施例,对本申请进行详细说明。

参考图2,图2为本申请实施例提供的摄像机的一种结构示意图。该摄像机包括如下部件。

一个大视场镜头组件20和大视场镜头组件20对应的大视场传感器21。

至少一个小视场镜头组件22和小视场镜头组件22对应的小视场传感器23。

本申请实施例中,摄像机中的镜头组件分为大视场镜头组件20和小视场镜头组件22。一个镜头组件对应一个传感器,也就是,摄像机若包括n个小视场镜头组件22,则包括n个小视场传感器23,n为正整数,n≥1。

光线通过大视场镜头组件20进入摄像机,大视场传感器21根据从大视场镜头组件20进入的光线生成大视场视频帧。光线通过小视场镜头组件22进入摄像机,该小视场镜头组件22对应的小视场传感器23根据从小视场镜头组件22进入的光线生成小视场视频帧。

本申请实施例中,为降低监控时摄像机的安装和调试的工作量,大视场镜头组件20的视场角大于小视场镜头组件22的视场角,如图3所示。另外,对于同一目标,大视场传感器21生成的大视场视频帧的清晰度小于小视场传感器23生成的小视场视频帧的清晰度。也可以理解为,对于同一目标,大视场传感器21生成的大视场视频帧的像素小于小视场传感器23生成的小视场视频帧的像素。这里,大视场传感器21生成的大视场视频帧的清晰度即为大视场传感器21的清晰度,小视场传感器23生成的小视场视频帧的清晰度即为小视场传感器23的清晰度。

一个实施例中,大视场传感器21可以采用分辨率为200w或400w像素的低照度效果较好的传感器,小视场传感器23可以采用分辨率为400w或800w像素的传感器。

一个示例中,不同的小视场传感器23,可以采用相同的分辨率的传感器。例如,摄像机包括2个小视场传感器23,这两个小视场传感器23均为400w像素的传感器。

另一个示例中,不同的小视场传感器23,可以采用不同的分辨率的传感器。例如,摄像机包括2个小视场传感器23,其中一个小视场传感器23为400w像素的传感器,一个小视场传感器23为800w像素的传感器。

在本申请的一个实施例中,摄像机还可以包括红外补光组件。小视场镜头组件22使用红外补光组件进行红外光补光。这样,小视场传感器可以在顺光、逆光、夜晚场景下生成的视频帧达到比较统一的效果,可以用于目标的高清大图采集。

在本申请的一个实施例中,摄像机还可以包括白光补补光组件。大视场镜头组件20使用白光补光组件进行白光补光。这样,大视场传感器生成的视频帧可达到全彩的效果,可以在夜晚也能提供目标的穿衣色彩等关键信息。

在本申请的一个实施例中,为了保证目标的完整检出,如图3所示,大视场镜头组件20的视场范围包含小视场镜头组件22的视场范围部分或全部,且大视场镜头组件的视场范围包含的小视场镜头组件的视场范围部分的宽度,也就是视场重合部分的宽度大于目标的最大宽度阈值。这里,目标的最大宽度阈值可以为根据经验设定。例如,小视场视频帧用于人脸分析,人脸的最大宽度阈值为100像素,则大视场镜头组件20的视场范围包含的小视场镜头组件22的视场范围部分的宽度大于100像素。

在本申请的一个实施例中,为了减小由于时间采集不一致导致的图像偏差,大视场传感器21和上述至少一个小视场传感器23的时间偏差不大于一个视频帧的时长。一个示例中,为了减少不同的传感器生成的视频帧的时间偏差,大视场传感器21和上述至少一个小视场传感器23可使用同一时钟源。另一个示例中,大视场传感器21和上述至少一个小视场传感器23可使用严格同步的时钟源。

本申请实施例中,摄像机还包括处理器24。处理器24,用于对大视场视频帧进行人体分析,对至少一帧小视场视频帧进行人脸分析或头肩分析或人体分析。

本申请实施例中,针对不同的传感器生成的视频帧,处理器24可以使用不同的处理逻辑处理。例如,处理器24对大视场传感器21生成的大视场视频帧进行人体分析,对小视场传感器23生成的小视场视频帧进行人脸分析或头肩分析或人体分析。

一个示例中,摄像机可以包括多个小视场镜头组件22和小视场镜头组件22对应的小视场传感器23,处理器24对不同小视场传感器23生成的小视场视频帧可以使用相同的处理逻辑处理。例如,摄像机包括2个小视场传感器23,处理器24对这两个小视场传感器23生成的小视场视频帧均进行人脸分析。

另一个示例中,摄像机可以包括多个小视场镜头组件22和小视场镜头组件22对应的小视场传感器23,处理器24对不同小视场传感器23生成的小视场视频帧可以使用不同的处理逻辑处理。例如,摄像机包括2个小视场传感器23,对于其中一个小视场传感器23生成的小视场视频帧,处理器24对该小视场视频帧进行人脸分析,对于另一个小视场传感器23生成的小视场视频帧,处理器24对该小视场视频帧进行头肩分析。

本申请实施例提供的技术方案中,摄像机的大视场镜头组件和大视场传感器可用于对整个场景的监控,摄像机的小视场镜头组件和小视场传感器可用于采集到场景中目标的高清图像,实现目标的准确监控。也就是,对于一个场景,安装一个摄像机即可,这在实现场景监控的同时,且降低了监控时摄像机的安装和调试的工作量。

在本申请的一个实施例中,处理器24对大视场视频帧的处理流程可参考图4所示,具体的,可包括如下步骤。

步骤401,对大视场视频帧进行人体分析。

一个实施例中,处理器24对大视场传感器21生成的每一帧大视场视频帧均进行人体分析,检测大视场视频帧中是否存在第一目标。这样,处理器24可以及时地发现第一目标。一帧大视场视频帧中的第一目标可以为一个或多个。

另一个实施例中,处理器24每间隔预设时长对大视场传感器21生成的一帧大视场视频帧进行人体分析,也就是,每间隔预设数量帧的大视场视频帧,对大视场视频帧进行人体分析,检测大视场视频帧中是否存在第一目标。这样,减轻了处理器24的负担,提高了处理器24的处理效率。

在本申请的一个实施例中,为便于对大视场视频帧进行人体分析,如图5所示,摄像机中还包括高性能计算模块25。处理器24将大视场视频帧送入高性能计算模块25。高性能计算模块25对大视场视频帧进行人体分析,并将分析结果反馈给处理器24。

步骤402,若对大视场视频帧进行人体分析得到第一目标,则确定第一目标的第一坐标和第一目标的第一全局标识。其中,第一坐标为第一目标在大视场视频帧中的坐标。第一坐标可以为第一目标的人体中心在大视场视频帧中的坐标,可以为第一目标的头部在大视场视频帧中的坐标,还可以为第一目标的肩膀在大视场视频帧中的坐标。

处理器24对大视场视频帧进行人体分析后,若确定大视场视频帧中包括第一目标,则确定第一目标在该大视场视频帧中的第一坐标,并确定第一目标的第一全局标识。

一个实施例中,处理器24可采用如下方式确定第一全局标识:

步骤a11,处理器24获取第一目标的第一坐标。

步骤a12,处理器24检测上一次分析大视场视频帧得到目标中是否存在第一参考目标。处理器24预测第一参考目标在本次分析的大视场视频帧中的坐标与第一坐标的距离小于第一预设距离阈值。若存在,则执行步骤a13。若不存在,则执行步骤a14。

本申请实施例中,第一预设距离阈值可根据需要进行设定。

步骤a13,处理器24获取第一参考目标的全局标识,作为第一目标的第一全局标识。

步骤a14,处理器24为第一目标分配一个全局标识,作为第一全局标识。

另外一个实施例中,为了准确的确定出第一目标的第一全局标识,处理器24可采用如下方式确定第一全局标识:

步骤a21,处理器24获取第一目标的第一坐标和第一特征信息。这里,特征信息可以包括但不限于头发颜色、头发长度、上衣颜色、裤子颜色和运动趋势等。

步骤a22,处理器24检测上一次分析大视场视频帧得到目标中是否存在第一参考目标。处理器24预测第一参考目标在本次分析的大视场视频帧中的坐标与第一坐标的距离小于第一预设距离阈值。若存在,则执行步骤a23。若不存在,则执行步骤a25。

本申请实施例中,上述第一参考目标可以为一个或多个。

步骤a23,处理器24检测第一参考目标的特征信息与第一特征信息的相似度是否大于目标预设相似度阈值。若是,则执行步骤a24。若否,则执行步骤a25。

本申请实施例中并不限定步骤a22与步骤a23的执行顺序。只需要在上一次分析大视场视频帧得到目标在本次分析的大视场视频帧中预测目标与第一坐标的距离小于第一预设距离阈值,且该目标的特征信息与第一特征信息的相似度大于目标预设相似度阈值,则执行步骤a24。否则,执行步骤25。

步骤a24,处理器24将第一参考目标的全局标识作为第一目标的第一全局标识。

一个实施例中,若第一参考目标为多个,处理器24计算每个第一参考目标的特征信息与第一特征信息的相似度,检测计算得到的相似度中最大的相似度是否大于目标预设相似度阈值。若是,则处理器24将最大的相似度对应的第一参考目标的全局标识,作为第一目标的第一全局标识。

步骤a25,处理器24为第一目标分配一个全局标识,作为第一全局标识。

这里,考虑了第一目标的第一坐标,又考虑了第一目标的第一特征信息,提高了确定第一全局标识的准确性。

步骤403,将第一坐标、第一全局标识和大视场视频帧的对应关系,发送给服务器。

在本申请的一个实施例中,处理器24可直接将第一坐标、第一全局标识和大视场视频帧的对应关系,发送给服务器。

在本申请的另一个实施例中,处理器24将第一坐标、第一全局标识和大视场视频帧的对应关系,发送给服务器的步骤,具体可以包括:

步骤b11,处理器24从大视场视频帧中截取第一目标所在第一区域。

步骤b12,处理器24按照大视场视频帧的分辨率,对第一区域进行编码,获得第一目标图像。

处理器24获得第一区域后,直接对第一区域进行编码,获得第一目标图像。

例如,大视场视频帧的原始分辨率为400w像素,处理器24从大视场视频帧中截取的第一区域为200像素。处理器24按照400w像素,对第一区域进行编码获得第一目标图像,即第一目标图像的分辨率为200像素的图像。这样,服务器就可以按照400w像素播放第一目标图像,保证了服务器可以获取到清晰的第一目标图像。

步骤b13,处理器24按照预设的第一分辨率,对大视场视频帧进行编码,获得编码后的大视场视频帧;第一分辨率小于等于大视场图像的分辨率。

处理器24按照预设的第一分辨率,对大视场视频帧进行编码获得编码后的大视场视频帧,即降低大视场视频帧的分辨率至第一分辨率。

例如,大视场视频帧的原始分辨率为400w像素,第一分辨率为100w像素。处理器24按照100w像素对大视场视频帧取流,即按照100w像素对大视场视频帧进行编码获得编码后的大视场视频帧,将大视场视频帧的分辨率降至100w像素。这样,服务器就可以按照100w像素播放编码后的大视场视频帧。由于降低了大视场视频帧的像素,减轻了编码后的大视场视频帧的数据量,提高了传输效率。

本申请实施例中并不限定步骤b12与步骤b13的执行顺序。

b14,将第一坐标、第一全局标识、编码后的大视场视频帧和第一目标图像的对应关系,发送给服务器。

在本申请一个实施例中,若处理器24对大视场视频帧进行人体分析未得到第一目标,则处理器24可以丢弃该大视场视频帧,不将大视场视频帧发送给服务器,节约了网络资源。

一个实施例中,服务器具有显示器,如图7所示,该显示器的图形界面中包括视频显示窗口、小窗口列表和播放控件。

一个示例中,服务器接收到大视场视频帧,可以在视频显示窗口显示大视场视频帧。此时,服务器可以在第一坐标位置处标示出第一目标,例如,服务器可以利用矩形框将第一目标标示出,如图8所示。这样,可以使用户方便直观的查看到目标所在的位置。服务器接收到第一目标图像,可以在播放控件窗口中显示第一目标图像,也可以在视频显示窗口显示第一目标图像。

在本申请的一个实施例中,对于每一个小视场传感器23生成的小视场视频帧,处理器24对小视场视频帧的处理流程可参考图6所示,具体的,包括如下步骤。

步骤601,对小视场视频帧进行人脸分析或头肩分析或人体分析。

一个实施例中,处理器24对小视场传感器23生成的每一帧小视场视频帧均进行人脸分析或头肩分析或人体分析,检测小视场视频帧中是否存在第二目标。这样,处理器24可以及时地发现第二目标。一帧小视场图像中的第二目标可以为一个或多个。

另一个实施例中,处理器24每间隔预设时长对小视场传感器23生成的一帧小视场视频帧进行人脸分析或头肩分析或人体分析,也就是,每间隔预设数量帧的小视视频帧,对小视场视频帧进行人脸分析或头肩分析或人体分析,检测小视场视频帧中是否存在第二目标。这样,减轻了处理器24的负担,提高了处理器24的处理效率。

这里,对小视场视频帧进行人脸分析或头肩分析或人体分析的间隔预设时长,与对大视场视频帧进行人体分析的间隔预设时长相同,减少由于时间不一致导致的图像偏差。

在本申请的一个实施例中,为便于对小视场视频帧进行人脸分析或头肩分析或人体分析,如图5所示,摄像机中还包括高性能计算模块25。处理器24将小视场视频帧送入高性能计算模块25。高性能计算模块25对小视场视频帧进行人脸分析或头肩分析或人体分析,并将分析结果反馈给处理器24。

步骤602,若对小视场视频帧进行人脸分析或头肩分析或人体分析得到第二目标,则确定第二目标的第二坐标。其中,第二坐标为第二目标在小视场视频帧中的坐标。第二坐标可以为第二目标的人体中心在小视场视频帧中的坐标,可以为第二目标的头部在小视场视频帧中的坐标,还可以为第二目标的肩膀在小视场视频帧中的坐标。

处理器24对小视场视频帧进行人脸分析或头肩分析或人体分析后,若确定小视场视频帧中包括第二目标,则确定第二目标在该小视场视频帧中的第二坐标。

步骤603,检测第二坐标与第一坐标间的距离是否小于预设距离阈值,得到第一检测结果。

其中,第一检测结果可以为是,即第一检测结果为第二坐标与第一坐标间的距离小于预设距离阈值。第一检测结果也可以为否,即第一检测结果为第二坐标与第一坐标间的距离不小于预设距离阈值。

在本申请的一个实施例中,为便于确定第二坐标与第一坐标间的距离是否小于预设距离阈值,可预先设置参考坐标系。处理器24将第一坐标映射至参考坐标系下,得到第一参考坐标;将第二坐标映射至参考坐标系下,得到第二参考坐标。处理器24计算第一参考坐标和第二参考坐标间的物理距离。若连续预设次数计算得到的物理距离小于预设距离阈值,则处理器24可确定第一检测结果为第二坐标与第一坐标间的距离小于预设距离阈值。否则,处理器24可确定第一检测结果为第二坐标与第一坐标间的距离不小于预设距离阈值。

本申请实施例中,对大视场传感器21与小视场传感器23进行标定,将第一坐标和第二坐标转换至参考坐标系下。这里,进行标定时,考虑大视场传感器21与小视场传感器23的畸变参数,以对大视场传感器21与小视场传感器23本身的畸变进行矫正。

在本申请的一个实施例中,为了提高检测效率,提高检测结果的准确性,处理器24检测第二坐标与第一坐标间的距离是否小于预设距离阈值时,上述第一坐标对应的大视场视频帧的生成时间与上述第二坐标对应的小视场视频帧的生成时间相同或时间偏差不大于一个视频帧的时长。

步骤604,若第一检测结果为是,则将第一全局标识与小视场视频帧的对应关系,发送给服务器。

本申请实施例中,若第一检测结果为是,则处理器24确定第一目标和第二目标为同一目标,确定第二目标的全局标识为第一目标的第一全局标识。通过全局标识将小视场视频帧与大视场视频帧关联,便于服务器对图像进行分析处理。

在本申请的一个实施例中,为了准确确定第一目标和第二目标是否为同一目标,处理器24还可以获取第一目标的第一特性信息和第二目标的第二特性信息。处理器24检测第一特性信息与所述第二特性信息的相似度是否大于预设相似度阈值。若第一检测结果为是,且第二检测结果为是,则确定第一目标和第二目标为同一目标,确定第二目标的全局标识为第一目标的第一全局标识,将第一全局标识与小视场视频帧的对应关系,发送给服务器。其中,第一特征信息和第二特性信息包括但不限于运动趋势、头发颜色、头发长度等信息。

在本申请的一个实施例中,处理器24将第一全局标识与小视场视频帧的对应关系,发送给服务器,具体可以包括:

步骤c11,处理器24从小视场视频帧中截取第二目标所在第二区域。

步骤c12,处理器24按照小视场视频帧的分辨率,对第二区域进行编码,获得第二目标图像。

处理器24获得第二区域后,直接对第二区域进行编码,获得第二目标图像。

例如,小视场视频帧的原始分辨率为800w像素,服务器取流的分辨率为200w,处理器24从小视场视频帧中截取的第二区域为200像素。处理器24按照800w像素,对第二区域进行编码获得第二目标图像,即对分辨率为200像素的第二区域进行编码。这样,服务器就可以按照200w取流,同时又获得800w下高清分辨率的目标图。

步骤c13,处理器24按照预设的第二分辨率,对小视场视频帧进行编码,获得编码后的小视场视频帧;第二分辨率小于等于小视场视频帧的分辨率。

处理器24按照预设的第二分辨率,对小视场视频帧进行编码获得编码后的小视场视频帧,即降低小视场视频帧的分辨率至第二分辨率。

例如,小视场视频帧的原始分辨率为800w像素,第二分辨率为100w像素。则处理器按照100w像素对小视场视频帧取流,即按照100w像素对小视场视频帧进行编码获得编码后的小视场视频帧,将小视场视频帧的分辨率降至100w像素。这样,服务器就可以按照100w像素播放编码后的小视场视频帧。由于降低了小视场视频帧的像素,减轻了小视场视频帧的数据量,提高了传输效率。

本申请实施例中并不限定步骤c12与步骤c13的执行顺序。

步骤c14,将第二坐标、第一全局标识、编码后的小视场视频帧和第二目标图像的对应关系,发送给服务器。

本申请实施例中,处理器24对小视场视频帧进行处理,得到编码后的小视场视频帧和第二目标图像,将第二坐标、第一全局标识、编码后的小视场视频帧和第二目标图像的对应关系,发送给服务器。通过全局标识将小视场视频帧与大视场视频帧关联,便于服务器对视频帧进行分析处理。

在本申请一个实施例中,若处理器24对小视场视频帧进行人体分析未得到第二目标,则处理器24可以丢弃该小视场视频帧,不将小视场视频帧发送给服务器,节约了网络资源。

一个实施例中,服务器具有显示器,如图7所示,该显示器的图形界面中包括视频显示窗口、小窗口列表和播放控件窗口。

一个示例中,服务器接收到小视场视频帧,可以在视频显示窗口中显示小视场视频帧。此时,服务器可以在第二坐标位置处标示出第二目标,例如,服务器可以利用矩形框将第二目标标示出。服务器接收到第二目标图像后,可以在播放控件窗口中显示第二目标图像,也可以在视频显示窗口中显示第二目标图像。

服务器采用上述方式处理小视场视频帧和第二目标图像,可以使用户方便直观的查看到目标所在的位置。

在本申请一个实施例中,对于一个小视场镜头组件,处理器24从该小视场镜头组件对应的小视场传感器生成的小视场视频帧中检测到第二目标,在从该小视场视频帧中截取第二目标所在第二区域之后,根据本次截取的第二区域的清晰度,以及本次截取的第二区域中第二目标的姿态,计算所述第二区域的综合评分。其中,清晰度越高,姿态与预设姿态相似度越高,则综合评分越高。预设姿态可以为人脸的正脸姿态。

处理器24比较本次截取的第二区域的综合评分,与记录的小视场高清图像的综合评分,得到综合评分高的第二图像;其中,小视场高清图像包括第二目标。处理器24将记录的小视场高清图像更新为第二图像。

一个实施例中,若本次截取的第二区域为该小视场镜头组件对应的小视场传感器生成的第一张包括第二目标的区域,则处理器24可以直接将本次截取的第二区域确定为第二图像,将记录的小视场高清图像更新为本次截取的第二图像。

若处理器24从小视场传感器23生成小视场视频帧中分析得到第二目标,则当检测到第二目标离开生成该小视场视频帧对应的小视场镜头组件22(该小视场传感器23对应的小视场镜头组件22)的视场范围时,处理器24将第一全局标识与小视场高清图像的对应关系,发送给服务器。

在本申请一个实施例中,对于一个大视场镜头组件,处理器24从该大视场镜头组件对应的大视场传感器生成的大视场视频帧中检测到第一目标,在从该大视场视频帧中截取第一目标所在第一区域之后,根据本次截取的第一区域的清晰度,以及本次截取的第一区域中所述第一目标的姿态,计算第一区域的综合评分。其中,清晰度越高,姿态与预设姿态相似度越高,则综合评分越高。预设姿态可以为人脸的正脸姿态。

处理器24比较本次截取的第一区域的综合评分,与记录的大视场高清图像的综合评分,得到综合评分高的第一图像;其中,大视场高清图像包括第一目标。处理器24将记录的大视场高清图像更新为第一图像。

一个实施例中,若本次截取的第一区域为该大视场传感器生成的第一张包括第一目标的区域,则处理器24可以直接将本次截取的第一区域确定为第一图像,将记录的大视场高清图像更新为本次截取的第一图像。

若处理器24从一小视场传感器21生成小视场视频帧中分析得到第二目标,且第二目标与第一目标为同一目标,则当检测到第二目标离开生成该小视场视频帧对应的小视场镜头组件22(该小视场传感器23对应的小视场镜头组件22)的视场范围时,处理器24将第一全局标识与大视场高清图像的对应关系,发送给服务器。

一个实施例中,若处理器24从小视场传感器23生成小视场视频帧中分析得到第二目标,则当检测到第二目标离开生成该小视场视频帧对应的小视场镜头组件22时,处理器24还可将第一目标的轨迹信息发送给服务器。第二目标与第一目标为同一目标。一个示例中,轨迹信息包括:第一目标经过第一坐标的时间以及第一目标在第一坐标的停留时长。

一个实施例中,处理器24若确定第一目标与第二目标匹配,即第一目标与第二目标为同一目标,则当检测到第二目标离开生成该小视场视频帧对应的小视场镜头组件22时,可将小视场信息、大视场信息、轨迹信息携带在一个报警信息中,发送给服务器。其中,小视场信息包括:第一全局标识与小视场高清图像的对应关系,第一全局标识与编码后的小视场视频帧的对应关系、第二坐标等。大视场信息包括:第一全局标识与大视场高清图像的对应关系,第一全局标识与编码后的大视场视频帧的对应关系等。

处理器24若确定第一目标与第二目标不匹配,即第一目标与第二目标不是同一目标,则当检测到第二目标离开生成该小视场视频帧对应的小视场镜头组件22时,可将小视场信息携带在一个报警信息中发送给服务器。

一个实施例中,如图7所示,服务器接收到报警信息,在小窗口列表中展示报警信息。为便于用于查看,服务器在小窗口列表中展示的报警信息时,可以展示出报警信息中包括的小视场高清图像、或大视场高清图像,如图8所示。服务器在小窗口列表中展示的报警信息时,也可以展示出报警信息的序号等。本申请实施例,对小窗口列表中展示的报警信息形式不做限定。

当用户选择一个报警信息时,服务器可以确定该报警信息对应的全局标识,通过确定的全局标识,查找到对应的小视场高清图像、大视场高清图像、轨迹信息等。服务器可以在播放控件中展示小视场高清图像或大视场高清图像。另外,服务器还可以根据获取的轨迹信息,在视频显示窗口显示的大视场视频帧中叠加显示第一目标的轨迹。

一个示例中,服务器还可以根据获取的轨迹信息,确定第一目标的一个或多个第一坐标,以及第一目标经过每个第一坐标的时间以及第一目标在每个第一坐标的停留时长。在视频显示窗口显示的大视场视频帧中叠加显示第一坐标,并通过实线或虚线连接各个第一坐标,如图8所示。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1