基于混合相机系统的高速运动物体去模糊方法及装置与流程

文档序号:14520022阅读:282来源:国知局
基于混合相机系统的高速运动物体去模糊方法及装置与流程

本发明涉及无人机上高速运动物体追踪应用技术领域,特别涉及一种基于混合相机系统的高速运动物体去模糊方法及装置。



背景技术:

无人机因其具有高灵敏性和可操控性等特点,被广泛应用于军事和民用领域,尤其在可在现场勘查、航拍以及运动物体跟踪等领域有广泛应用。

无人机在执行移动物体追踪时,一般做法通过计算机视觉的方法识别出需要跟踪的物体,计算得到被跟踪物体相对于无人机的位置信息,反馈到运动控制系统,实现无人机与移动物体之间位置保持在相对可见位置。但是,在实际的工作过程中,移动物体的运动速度是不确定的,容易受到其运动方式的影响,使得无法准确识别出被跟踪物体,从而导致跟踪目标丢失、跟踪目标混淆等任务失败案例出现。

相关技术中,通过搭载计算机视觉设备是单目或者双目cmos(complementarymetaloxidesemiconductor,互补金属氧化物半导体)摄像头,在被追踪物体移动速度较慢时可以很好地得到追踪效果,但是当物体运行速度过快,由于获取高亮图像的相机本身存在较长曝光时间,使得生成的图像信息中会存在严重的运动模糊情况,减小曝光时间可以减少运动模糊情况,但是得到的图像由于进光量少导致暗黑不清,同样无法很好的进行目标物体识别,有待解决。



技术实现要素:

本发明旨在至少在一定程度上解决相关技术中的技术问题之一。

为此,本发明的一个目的在于提出一种基于混合相机系统的高速运动物体去模糊方法,该方法可以实现高速运动物体的定位。

本发明的另一个目的在于提出一种基于混合相机系统的高速运动物体去模糊装置。

为达到上述目的,本发明一方面实施例提出了一种基于混合相机系统的高速运动物体去模糊方法,所述混合相机系统由event-based相机、cmos相机与分光片组成,其中,所述方法包括以下步骤:获取所述event-based相机产生的数据并生成离散图像;采集所述相机产生的cmos图像并提取图像前景信息与背景信息,且根据所述前景信息得到待恢复物体的轮廓信息;将所述cmos相机下的轮廓信息变换到所述event-based相机下,获取所述离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵;在rgb图像中,根据所述几何变换矩阵以及所述前景信息与所述背景信息去除高速运动物体模糊。

本发明实施例的基于混合相机系统的高速运动物体去模糊方法,可以快速去除高速运动物体由于cmos曝光时间长引起的运动模糊,捕捉高速运动物体的清晰图像,有利于更好的分析高速运动物体的运动信息,实现高速运动物体的定位。

另外,根据本发明上述实施例的基于混合相机系统的高速运动物体去模糊方法还可以具有以下附加的技术特征:

进一步地,在本发明的一个实施例中,所述event-based相机以离散事件数据包的形式输出图像中亮度发生变化的像素点位置,所述离散事件数据包的格式为(x,y,t,m),其中(x,y)表示亮度改变的像素点位置,t为事件发生的顺序标志,m为亮度改变的标志,取值为-1(亮度变暗)或者1(亮度变亮),其中,所述获取所述event-based相机产生的数据并生成离散图像,进一步包括:在所述event-based相机的分辨率为(m,n)时,定义m×n的二维全0图像k,并且当所述event-based相机输出所述离散事件数据包时,将事件产生位置的图像像素值置为255,当输出的所述离散事件数据包数量达到预设数值m时,输出图像数据k;所述event-based相机输出的单个事件数据包含信息量少,需要将多个离线事件输出累加后生成图像数据k。

进一步地,在本发明的一个实施例中,所述根据所述前景信息得到待恢复物体的轮廓信息,进一步包括:通过graphcut算法使用所述rgb图像的颜色信息完成对每个像素前景与背景的分割,其中,定义前景rgb图像信息为前景rgb图像f,背景rgb信息为b,并提取f的轮廓位置信息定义为轮廓信息c。

进一步地,在本发明的一个实施例中,所述获取所述离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵,进一步包括:

定义所述混合相机系统的所述cmos相机与所述event-based相机的空间标定对应矩阵为t,即

pevent=t×pcmos,

其中,pevent为cmos相机像素pcmos在event-based相机上的对应点;将所述cmos相机得到的所述轮廓信息c映射到所述event-based相机的坐标系下,定义为cevent;根据所述event-based相机获取得到的所述图像数据k以及所述cevent计算得到当前时刻下高速移动物体的位姿变换关系w;通过定义目标函数为e=||w(cevent(x,y)-k(x′,y′))||,求取位姿变换的关系w;通过梯度下降法,使得目标函数最小,获得所述几何变换矩阵w;其中包含旋转变量和平移变量;设定(x,y)与(x′,y′)为对应点,则旋转分分量为:

其中,旋转角度θ为未知量;

平移分量为:

其中,平移量dx和dy为未知量;

联合矩阵可得:

其中,

进一步地,在本发明的一个实施例中,所述根据所述几何变换矩阵和所述前景信息去除高速运动物体模糊,进一步包括:根据所述位姿变换关系w计算所述前景rgb图像f变换姿态与位置后得到的新的前景物体f′,f′=w·f;将新的前景物体f′与之前提取的所述背景信息融合,以获取得到所述高速运动物体在任意时刻的清晰运动图像。

为达到上述目的,本发明另一方面实施例提出了一种基于混合相机系统的高速运动物体去模糊装置,所述混合相机系统由event-based相机、cmos相机与分光片组成,其中,所述装置包括:获取模块,用于获取所述event-based相机产生的数据并生成离散图像;采集模块,用于采集所述相机产生的cmos图像并提取图像前景信息与背景信息,且根据所述前景信息得到待恢复物体的轮廓信息;变换模块,用于将所述cmos相机下的轮廓信息变换到所述event-based相机下,获取所述离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵;去模糊模块,用于在rgb图像中,根据所述几何变换矩阵以及所述前景信息与所述背景信息去除高速运动物体模糊。

本发明实施例的基于混合相机系统的高速运动物体去模糊装置,可以快速去除高速运动物体由于cmos曝光时间长引起的运动模糊,捕捉高速运动物体的清晰图像,有利于更好的分析高速运动物体的运动信息,实现高速运动物体的定位。

另外,根据本发明上述实施例的基于混合相机系统的高速运动物体去模糊装置还可以具有以下附加的技术特征:

进一步地,在本发明的一个实施例中,所述event-based相机以离散事件数据包的形式输出图像中亮度发生变化的像素点位置,所述离散事件数据包的格式为(x,y,t,m),其中(x,y)表示亮度改变的像素点位置,t为事件发生的顺序标志,m为亮度改变的标志,取值为-1(亮度变暗)或者1(亮度变亮),其中,所述获取所述event-based相机产生的数据并生成离散图像,进一步包括:在所述event-based相机的分辨率为(m,n)时,定义m×n的二维全0图像k,并且当所述event-based相机输出所述离散事件数据包时,将事件产生位置的图像像素值置为255,当输出的所述离散事件数据包数量达到预设数值m时,输出图像数据k;所述event-based相机输出的单个事件数据包含信息量少,需要将多个离线事件输出累加后生成图像数据k。

进一步地,在本发明的一个实施例中,所述根据所述前景信息得到待恢复物体的轮廓信息,进一步包括:通过graphcut算法使用所述rgb图像的颜色信息完成对每个像素前景与背景的分割,其中,定义前景rgb图像信息为前景rgb图像f,背景rgb信息为b,并提取f的轮廓位置信息定义为轮廓信息c。

进一步地,在本发明的一个实施例中,所述获取所述离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵,进一步包括:定义所述混合相机系统的所述cmos相机与所述event-based相机的空间标定对应矩阵为t,即

pevent=t×pcmos,

其中,pevent为cmos相机像素pcmos在event-based相机上的对应点;将所述cmos相机得到的所述轮廓信息c映射到所述event-based相机的坐标系下,定义为cevent;根据所述event-based相机获取得到的所述图像数据k以及所述cevent计算得到当前时刻下高速移动物体的位姿变换关系w;通过定义目标函数为e=||w(cevent(x,y)-k(x′,y′))||,求取位姿变换的关系w;

通过梯度下降法,使得目标函数最小,获得所述几何变换矩阵w;其中包含旋转变量和平移变量;设定(x,y)与(x′,y′)为对应点,则旋转分分量为:

其中,旋转角度θ为未知量;

平移分量为:

其中,平移量dx和dy为未知量;

联合矩阵可得:

其中,

进一步地,在本发明的一个实施例中,去模糊模块,进一步包括:获取单元,用于根据所述位姿变换关系w计算所述前景rgb图像f变换姿态与位置后得到的新的前景物体f′,f′=w·f;融合单元,用于将新的前景物体f′与之前提取的所述背景信息融合,以获取得到所述高速运动物体在任意时刻的清晰运动图像。

本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。

附图说明

本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:

图1为根据本发明实施例的基于混合相机系统的高速运动物体去模糊方法的流程图;

图2为根据本发明一个实施例的基于混合相机系统的高速运动物体去模糊方法的流程图;

图3为根据本发明一个实施例的混合相机系统的光路原理示意图;

图4为根据本发明实施例的基于混合相机系统的高速运动物体去模糊装置的结构示意图。

具体实施方式

下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。

下面参照附图描述根据本发明实施例提出的基于混合相机系统的高速运动物体去模糊方法及装置,首先将参照附图描述根据本发明实施例提出的基于混合相机系统的高速运动物体去模糊方法。

图1是本发明一个实施例的基于混合相机系统的高速运动物体去模糊方法的流程图。

如图1所示,该基于混合相机系统的高速运动物体去模糊方法包括以下步骤:

在步骤s101中,获取event-based相机产生的数据并生成离散图像。

进一步地,在本发明的一个实施例中,event-based相机以离散事件数据包的形式输出图像中亮度发生变化的像素点位置,离散事件数据包的格式为(x,y,t,m),其中(x,y)表示亮度改变的像素点位置,t为事件发生的顺序标志,m为亮度改变的标志,取值为-1(亮度变暗)或者1(亮度变亮),其中,获取event-based相机产生的数据并生成离散图像,进一步包括:在event-based相机的分辨率为(m,n)时,定义m×n的二维全0图像k,并且当event-based相机输出离散事件数据包时,将事件产生位置的图像像素值置为255,当输出的离散事件数据包数量达到预设数值m时,输出图像数据k;event-based相机输出的单个事件数据包含信息量少,需要将多个离线事件输出累加后生成图像数据k。

可以理解的是,结合图1和图2所示,本发明实施例采用的event-based相机名称为dvs(dynamicvisualsensor,动态视觉传感器),其与cmos相机、分光片混合搭建的相机系统其原理光路图如图3所示。

另外,与传统相机输出图像不同,event-based相机以离散事件数据包的形式输出图像中亮度发生变化的像素点位置。离散事件数据包的格式为(x,y,t,m),其中(x,y)表示亮度改变的像素点位置,t为事件发生的顺序标志,m为亮度改变的标志,取值为-1(亮度变暗)或者1(亮度变亮)。

其中,event-based相机输出的单个事件数据包含信息量少,需要将多个离线事件输出累加后生成图像k。具体地:假设event-based相机的分辨率为(m,n),则定义m×n的二维全0图像k,当event-based相机输出离散事件数据包时,将事件产生位置的图像像素值置为255,当输出的离散事件数据包数量达到预设数值m(一般取m=1000)时,输出图像数据k。

在步骤s102中,采集相机产生的cmos图像并提取图像前景信息与背景信息,且根据前景信息得到待恢复物体的轮廓信息。

进一步地,在本发明的一个实施例中,根据前景信息得到待恢复物体的轮廓信息,进一步包括:通过graphcut算法使用rgb图像的颜色信息完成对每个像素前景与背景的分割,其中,定义前景rgb图像信息为前景rgb图像f,背景rgb信息为b,并提取f的轮廓位置信息定义为轮廓信息c。

可以理解的是,本发明实施例可以根据被跟踪物体静止状态下采集的rgb图像信息,提取其前景轮廓信息。具体地:采用graphcut算法使用rgb图像的颜色信息,完成对每个像素前景与背景的分割,定义前景rgb图像信息为f,背景rgb信息为b,并提取f的轮廓位置信息定义为c。

在步骤s103中,将cmos相机下的轮廓信息变换到event-based相机下,获取离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵。

进一步地,在本发明的一个实施例中,获取离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵,进一步包括:

定义混合相机系统的cmos相机与event-based相机的空间标定对应矩阵为t,即

pevent=t×pcmos,

其中,pevent为cmos相机像素pcmos在event-based相机上的对应点;将cmos相机得到的轮廓信息c映射到event-based相机的坐标系下,定义为cevent;根据event-based相机获取得到的图像数据k以及cevent计算得到当前时刻下高速移动物体的位姿变换关系w;通过定义目标函数为e=||w(cevent(x,y)-k(x′,y′))||,求取位姿变换的关系w;通过梯度下降法,使得目标函数最小,获得几何变换矩阵w;其中包含旋转变量和平移变量;设定(x,y)与(x′,y′)为对应点,则旋转分分量为:

其中,旋转角度θ为未知量;

平移分量为:

其中,平移量dx和dy为未知量;

联合矩阵可得:

其中,

可以理解的是,本发明实施例可以定义混合相机系统cmos相机与event-based相机的空间标定对应矩阵为t,即pevent=t×pcmos,其中pevent为cmos相机像素pcmos在event-based相机上的对应点;将cmos相机得到的前景目标的轮廓信息c映射到event-based相机坐标系下,定义为cevent。根据event-based相机获取得到的图像数据k以及cevent计算得到当前时刻下高速移动物体的位姿变换关系w;求取位姿变换关系w的具体方法为:;

定义目标函数为:

e=||w(cevent(x,y)-k(x′,y′))||;

通过梯度下降法,使得目标函数最小,获得几何变换矩阵w;

其中,包含旋转变量和平移变量。设定(x,y)与(x′,y′)为对应点,则旋转分分量为:

其中,旋转角度θ为未知量;平移分量为:

其中,平移量dx和dy为未知量;联合矩阵可得:

其中,

在步骤s104中,在rgb图像中,根据几何变换矩阵以及前景信息与背景信息去除高速运动物体模糊。

进一步地,在本发明的一个实施例中,根据几何变换矩阵和前景信息去除高速运动物体模糊,进一步包括:根据位姿变换关系w计算前景rgb图像f变换姿态与位置后得到的新的前景物体f′,f′=w·f;将新的前景物体f′与之前提取的背景信息融合,以获取得到高速运动物体在任意时刻的清晰运动图像。

可以理解的是,本发明实施例可以根据计算得到的位姿变换关系,计算前景rgb图像f变换姿态与位置后得到的新的前景物体,即。然后将新的前景物体与之前提取的背景信息b融合,即可获取得到高速运动物体在某时刻的清晰运动图像。

根据本发明实施例提出的基于混合相机系统的高速运动物体去模糊方法,可以快速去除高速运动物体由于cmos曝光时间长引起的运动模糊,捕捉高速运动物体的清晰图像,有利于更好的分析高速运动物体的运动信息,实现高速运动物体的定位。

其次参照附图描述根据本发明实施例提出的基于混合相机系统的高速运动物体去模糊装置。

图4是本发明一个实施例的基于混合相机系统的高速运动物体去模糊装置的结构示意图。

如图4所示,该基于混合相机系统的高速运动物体去模糊装置10包括:获取模块100、采集模块200、变换模块300和去模糊模块400。

其中,获取模块100用于获取event-based相机产生的数据并生成离散图像。采集模块200用于采集相机产生的cmos图像并提取图像前景信息与背景信息,且根据前景信息得到待恢复物体的轮廓信息。变换模块300用于将cmos相机下的轮廓信息变换到event-based相机下,获取离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵。去模糊模块400用于在rgb图像中,根据几何变换矩阵以及前景信息与背景信息去除高速运动物体模糊。本发明实施例的装置10可以快速去除高速运动物体由于cmos曝光时间长引起的运动模糊,捕捉高速运动物体的清晰图像,实现高速运动物体的定位。

进一步地,在本发明的一个实施例中,event-based相机以离散事件数据包的形式输出图像中亮度发生变化的像素点位置,离散事件数据包的格式为(x,y,t,m),其中(x,y)表示亮度改变的像素点位置,t为事件发生的顺序标志,m为亮度改变的标志,取值为-1(亮度变暗)或者1(亮度变亮),其中,获取event-based相机产生的数据并生成离散图像,进一步包括:在event-based相机的分辨率为(m,n)时,定义m×n的二维全0图像k,并且当event-based相机输出离散事件数据包时,将事件产生位置的图像像素值置为255,当输出的离散事件数据包数量达到预设数值m时,输出图像数据k;event-based相机输出的单个事件数据包含信息量少,需要将多个离线事件输出累加后生成图像数据k。

进一步地,在本发明的一个实施例中,根据前景信息得到待恢复物体的轮廓信息,进一步包括:通过graphcut算法使用rgb图像的颜色信息完成对每个像素前景与背景的分割,其中,定义前景rgb图像信息为前景rgb图像f,背景rgb信息为b,并提取f的轮廓位置信息定义为轮廓信息c。

进一步地,在本发明的一个实施例中,获取离散图像与前景物体轮廓的匹配矩阵,以得到几何变换矩阵,进一步包括:定义混合相机系统的cmos相机与event-based相机的空间标定对应矩阵为t,即

pevent=t×pcmos,

其中,pevent为cmos相机像素pcmos在event-based相机上的对应点;将cmos相机得到的轮廓信息c映射到event-based相机的坐标系下,定义为cevent;根据event-based相机获取得到的图像数据k以及cevent计算得到当前时刻下高速移动物体的位姿变换关系w;通过定义目标函数为e=||w(cevent(x,y)-k(x′,y′))||,求取位姿变换的关系w;

通过梯度下降法,使得目标函数最小,获得几何变换矩阵w;其中包含旋转变量和平移变量;设定(x,y)与(x′,y′)为对应点,则旋转分分量为:

其中,旋转角度θ为未知量;

平移分量为:

其中,平移量dx和dy为未知量;

联合矩阵可得:

其中,

进一步地,在本发明的一个实施例中,去模糊模块,进一步包括:获取单元,用于根据位姿变换关系w计算前景rgb图像f变换姿态与位置后得到的新的前景物体f′,f′=w·f;融合单元,用于将新的前景物体f′与之前提取的背景信息融合,以获取得到高速运动物体在任意时刻的清晰运动图像。

需要说明的是,前述对基于混合相机系统的高速运动物体去模糊方法实施例的解释说明也适用于该实施例的基于混合相机系统的高速运动物体去模糊装置,此处不再赘述。

根据本发明实施例提出的基于混合相机系统的高速运动物体去模糊装置,可以快速去除高速运动物体由于cmos曝光时间长引起的运动模糊,捕捉高速运动物体的清晰图像,有利于更好的分析高速运动物体的运动信息,实现高速运动物体的定位。

在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。

在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1