基于多传感器融合的低照度视频图像增强方法与流程

文档序号:13246160阅读:119来源:国知局
技术领域本发明属于视频图像处理领域。

背景技术:
在低照度环境下所拍摄的可见光视频可视度低,人们无法根据视频来识别具体的景物和人。这给军事、医学、民用等很多领域都带来了不便,所以该项技术的研究具有重要的作用。低照度视频图像增强技术在军事上可用于航海的监控系统,或是边防的夜视系统和遥感图像的应用等;在医学领域可用于对人体细胞或是血管的探测,进而分析人体的身体状况;在生活领域的应用更是广泛,可用于手机的夜间拍摄系统,商场的监控系统,人工智能的应用(清晰的视频有利于机器的识别并作出反应),视频的增强系统(在成像质量低的情况下)等。由于现在人们对单一传感器获取的视频的处理能力远远落后于多源传感器的整合能力。夜间拍摄的可见光的视频分辨率大,彩色信息丰富,但是可视度低、物体的轮廓也不清晰。夜间拍摄的红外视频可视度高,人们可以根据视频来识别具体的人和物,但是视频是没有彩色信息的并且视频的分辨率也比较低。以上的任何一种传感器所拍摄的视频都是有缺陷的,但是两种视频的融合却是可以达到增强的效果的。目前,国内外对于红外视频图像和可见光视频图像在低照度下的融合的方法的研究都是比较少的,因为这种异源的视频图像具有不同的分辨率,并且在拍摄的过程中两个视频会存在着旋转、缩放和平移等变换,因此很难实现异源视频图像之间的配准,并且每帧图像的融合时间很难达到视频图像实时显示的效果。现在图像的配准方法使用最多的就是sift算法、surf算法、互信息配准算法、基于B样条的配准算法和基于MSER的配准算法等。但是使用这些算法来进行异源图像的配准得到的正确的匹配点不到5%,即使应用ransac算法来去除误匹配点,也是很难得到一个正确的匹配函数,进而很难进行图像融合的后期工作。其次对于红外图像和可见光图像的融合算法比较好的就是contourlet算法、小波变换算法和基于局部区域的融合算法等这种多分辨率的融合算法,但是算法运行的时间很长很难达到视频图像实时显示的效果。

技术实现要素:
本发明提供一种基于多传感器融合的低照度视频图像增强方法,以解决异源多尺度视频图像配准精度低、实时性差、融合不准确等问题,提高低照度环境下的视频图像可视度,实现了异源多尺度视频图像实时融合,即保留了可见光图像丰富的色彩信息,又增加了红外图像的信息,提高了视频图像质量。本发明采取的技术方案包括以下步骤:一、在红外成像传感器和可见光成像传感器固定不变并且同时采集的情况下,采集了一组红外视频和可见光视频,分别读取红外视频和可见光视频的对应帧im1和im2;这里红外图像尺寸576×704,可见光图像的尺寸是640×480;二、图像的预处理对于红外图像进行增强,采用的方式就是对红外图像的每个像素点进行取逆,定义一个576×704的单位矩阵E,具体的实施如公式(1);im1=255*E-im1(1)对取逆后的红外图像采用差值滤波的方式进行平滑的处理,对取逆后的红外图像进行差值滤波如公式2所示;im1=im1255-im1255⊗1111-81111---(2)]]>三、极值点尺度空间的生成通过高斯的差分函数来检测尺度不变的极值点,高斯的差分函数的公式如公式3所示,高斯函数如公式4所示:D(x,y,kσ)=(G(x,y,kσ)-G(x,y,σ))⊗I(x,y)---(3)]]>G(x,y,kσ)=12πσ2e(-(x2+y2)2σ2)---(4)]]>其中D(x,y,kσ)表示在系数k下尺度为σ的图像的差分高斯金字塔,D(x,y,σ)表示尺度为σ高斯金字塔,I(x,y)表示原图像,表示它们间的卷积,σ为尺度因子,G(x,y,kσ)表示尺度为kσ的高斯函数,(x,y)为图像上点的坐标,把红外图像和可见光图像根据图像的降采样和上采样分别分成尺度不同的σ组,如公式5所示,每组又分成n层,如公式6所示,最后由把红外图像和可见光图像每组的相邻的层进行相减,再把im1和im2分别带入公式3中的I(x,y),从而由公式3检测到红外图像和可见光图像不同尺度的极值点。σ=(ksσ0)2-(ks-1σ0)2,k=21s,σ0=1.6,s=3---(5)]]>n=log2{min(M,N)-t
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1