一种基于颜色空间转换的灰度融合增强方法与流程

文档序号:14951457发布日期:2018-07-17 22:39阅读:796来源:国知局
本发明属于颜色空间转换灰度融合
技术领域
,具体涉及一种基于颜色空间转换的灰度融合增强方法。
背景技术
:颜色空间转换是指把一个颜色空间中的颜色数据转换或者表示成另一个颜色空间的相应数据,即用不同的颜色空间中的数据表示同一颜色。目前将颜色空间转换应用到融合技术上主要有三维查表插值法、his空间转rgb空间法和lαβ空间转rgb空间法。灰度融合是指通过融合算法的处理将两幅图像灰度信息在同一幅图像中进行综合显示,能够同时具有原始两幅图像的灰度信息。传统的灰度图像融合方法可以分为两类,第一类主要是基于单像素权值的融合方法,主要分为平均法、加权平均法、概略加权法等;第二类只要是基于区域像素计算的融合方法,主要包括梯度融合法、区域熵融合法、邻域像素选大、基于小波的融合方法等。三维查表插值法主要根据待处理视频图像信息调用固定的三维空间信息,此方法简单易于实现,但是处理结果过于突兀,不仅与实际场景相差甚远,而且还会造成图像信息的损失。his空间转rgb空间法和lαβ空间转rgb空间法主要原理有以下几部分:a)读取图像灰度信息;b)图像灰度信息进行his空间或者lαβ空间映射;c)再将his空间或者lαβ空间信息进行rgb空间信息映射;d)最终将rgb图像信息显示。his空间转rgb空间法和lαβ空间转rgb空间法主要缺点有:a)计算量较大,具有log函数,不易工程实现;b)处理图像过渡直接,会降低图像的分辨率。基于单像素权值的融合方法主要原理有以下几部分:a)实时读取两幅图像每个像素点的像素;b)根据算法策略对同一位置点的两幅图像的像素进行加权;c)在同一位置点得到一个新的像素值;d)遍历整幅图像,将会得到一幅融合的新的图像;e)硬件实现中实时进行处理,将会得到一个连续的视频。基于单像素权值的融合方法主要缺点有:a)基于单像素点的判断规则不全面,容易将部分不需要的图像信息点放大(例如图像的噪声、盲元等);b)融合后图像信息容易互相淹没,过亮或者过暗的像素点容易放大;c)融合效果不佳,达不到增强的效果。基于区域像素计算的融合方法主要原理有:a)取两幅图像部分图像区域,以区域计算的像素值代替一个位置点的像素;b)得到一位置点新的像素值;c)区域遍历整幅图像,将会得到一幅融合的新的图像;d)硬件实现中实时进行处理,将会得到一个连续的视频。基于区域像素计算的融合方法主要缺点有:a)计算量较大,硬件工程化实现较难;b)容易造成图像延时。如何克服现有技术的不足是目前颜色空间转换灰度融合
技术领域
亟需解决的问题。技术实现要素:目前,颜色空间转换和灰度融合技术都比较成熟,但是通过颜色空间转换进行灰度融合的方法目前文献还没有报道,本专利申请提出的基于颜色空间转换的灰度融合增强方法,主要采用的颜色空间是rgb空间和ycbcr空间,核心思想是rgb空间与ycbcr空间之间的转换关系和参数设置。为实现上述目的,本发明采用的技术方案如下:一种基于颜色空间转换的灰度融合增强方法,包括如下步骤:步骤一:参考图像rgb图像信息的均值、标准差计算:根据参考图像rgb图像信息,分别计算出参考图像r空间信息、g空间信息和b空间信息的均值,分别记为u(r0)、u(g0)、u(b0);同时分别计算出参考图像r空间信息、g空间信息和b空间信息的标准差值,分别记为σ(r0)、σ(g0)、σ(b0),计算公式如下:其中ai代表对应空间第i个的图像信息,n代表计算的总个数;所述的参考图像为黑白图像;步骤二:r1、g1、b1的计算:根据待处理视频图像的灰度值y,计算新的r空间信息、g空间信息和b空间信息,分别记为n(r1)、n(g1)、n(b1);所述的待处理视频图像有两幅,为同一画面的两个通道的视频图像,记为图像ir和图像llp;计算公式如下:n(g1)=max(y(ir)、y(llp))n(b1)=y(llp)步骤三:新的均值、标准差计算:根据步骤二计算出来的r空间信息、g空间信息和b空间信息,分别计算出对应均值和标准差值,均值分别记为u(r1)、u(g1)、u(b1),标准差值分别记为σ(r1)、σ(g1)、σ(b1);计算公式如下:其中ai代表对应空间第i个的图像信息,n代表计算的总个数;步骤四:r2、g2、b2的计算;根据u(r0)、u(g0)、u(b0)、u(r1)、u(g1)、u(b1)和σ(r0)、σ(g0)、σ(b0)、σ(r1)、σ(g1)、σ(b1)计算出新的r、g、b空间信息,分别记为n(r2)、n(g2)、n(b2);n(r2)=σ(r0)/σ(r1)[(r-u(r0)]+u(r0)n(g2)=σ(g0)/σ(g1)[(g-u(g0)]+u(g0)n(b2)=σ(b0)/σ(b1)[(b-u(b0)]+u(b0)步骤五:r2、g2、b2转换到ycbcr空间:将步骤四得到的新的r、g、b空间信息转换到ycbcr空间下,得到图像ir和图像llp的融合图像。本发明是两通道图像融合,最终目的是将两通道不同的视频图像进行融合,在同一通道中进行显示出来,所以待处理视频图像是两幅;但本发明不限制待处理视频图像可以是多幅的情况;本发明最终得到的融合图像是新的图像,是ir和llp融合图像,该融合图像同时具有ir和llp图像的信息,是最终申请人想要的图像。本发明与现有技术相比,其有益效果为:(1)本发明方法计算简单,易于fpga工程实现,能够实时处理,没有图像延时;(2)本发明方法融合图像尽可能多的保留了原始图像信息,达到信息互补作用;(3)本发明方法融合后图像细节增强,提升辨识效果。(4)传统的基于单像素权值融合方法容易将过亮或者过暗目标放大,而本专利申请的融合方法能够充分抑制过亮和过暗目标,最终的融合图像不会造成图像信息互相掩盖的情况;基于区域像素计算的融合方法,计算量较大,不容易工程化实现,而本文专利
发明内容能够实时实现,可以处理50hz/s的视频图像。附图说明图1为参考图像t;图2为待处理视频图像;其中,左图为图像ir,右图为图像llp;图3为灰度融合图像;图4为本发明方法流程图。具体实施方式下面结合实施例对本发明作进一步的详细描述。本领域技术人员将会理解,下列实施例仅用于说明本发明,而不应视为限定本发明的范围。实施例中未注明具体技术或条件者,按照本领域内的文献所描述的技术或条件或者按照产品说明书进行。所用材料或设备未注明生产厂商者,均为可以通过购买获得的常规产品。为了说明具体的实施过程,假设参考图像t(如图1)的rgb信息是3×3的矩阵大小,其中t(r0),t(g0),t(b0)分别表示参考图像的r空间信息、g空间信息、b空间信息,如表1、表2和表3所示。表1参考图像t的r空间信息t11(r0)t12(r0)t13(r0)t21(r0)t22(r0)t23(r0)t31(r0)t32(r0)t33(r0)表2参考图像t的g空间信息t11(g0)t12(g0)t13(g0)t21(g0)t22(g0)t23(g0)t31(g0)t32(g0)t33(g0)表3参考图像t的b空间信息t11(b0)t12(b0)t13(b0)t21(b0)t22(b0)t23(b0)t31(b0)t32(b0)t33(b0)为了说明具体的实施过程,假设输入的待处理视频图像——图像ir(如图2左图)和图像llp(如图2右图)分别为3×3的矩阵大小,如表4和表5所示,其中y(ir)和y(llp)分别代表图像ir、图像llp(的灰度值;表4ir图3×3矩阵y11(ir)y12(ir)y13(ir)y21(ir)y22(ir)y23(ir)y31(ir)y32(ir)y33(ir)表5llp图3×3矩阵y11(llp)y12(llp)y13(llp)y21(llp)y22(llp)y23(llp)y31(llp)y32(llp)y33(llp)步骤一:根据参考图像t的r、g、b空间信息(表1、表2和表3),分别计算出参考图像的各空间的均值与标准差值,均值分别记为u(r0)、u(g0)、u(b0),标准差值分别记为σ(r0)、σ(g0)、σ(b0),具体计算过程如下:步骤二:根据表4和表5中ir图像的灰度值y(ir)与llp图像的灰度值y(llp),计算新的r空间信息、g空间信息和b空间信息,分别为n(r1)、n(g1)、n(b1),新的r、g、b空间信息如表6、表7和表8所示,具体计算公式如下:同理可得n11(g1)=max(y11(ir)、y11(llp))n12(g1)=max(y12(ir)、y12(llp))同理可得n33(g1)=max(y33(ir)、y33(llp))n11(b1)=y11(llp)n12(b1)=y12(llp)同理可得n33(b1)=y33(llp)表6新的r空间信息n(r1)n11(r1)n12(r1)n13(r1)n21(r1)n22(r1)n23(r1)n31(r1)n32(r1)n33(r1)表7新的g空间信息n(g1)n11(g1)n12(g1)n13(g1)n21(g1)n22(g1)n23(g1)n31(g1)n32(g1)n33(g1)表8新的b空间信息n(b1)n11(b1)n12(b1)n13(b1)n21(b1)n22(b1)n23(b1)n31(b1)n32(b1)n33(b1)步骤三:步骤二计算出来的r空间信息、g空间信息和b空间信息,分别计算出对应均值和标准差值,均值分别记为u(r1)、u(g1)、u(b1),标准差值分别记为σ(r1)、σ(g1)、σ(b1);具体计算公式如下:步骤四:r2、g2、b2的计算:根据u(r0)、u(g0)、u(b0)、u(r1)、u(g1)、u(b1)和σ(r0)、σ(g0)、σ(b0)、σ(r1)、σ(g1)、σ(b1)计算出新的r、g、b空间信息,分别记为n(r2)、n(g2)、n(b2);结果如图表9、表10和表11所示;具体计算公式如下:同理可得同理可得同理可得表9新的r空间信息n11(r2)n12(r2)n13(r2)n21(r2)n22(r2)n23(r2)n31(r2)n32(r2)n33(r2)表10新的g空间信息n11(g2)n12(g2)n13(g2)n21(g2)n22(g2)n23(g2)n31(g2)n32(g2)n33(g2)表11新的b空间信息n11(b2)n12(b2)n13(b2)n21(b2)n22(b2)n23(b2)n31(b2)n32(b2)n33(b2)步骤五:r2、g2、b2转换到ycbcr空间:将步骤四得到的新的r、g、b空间信息转换到ycbcr空间下,得到图像ir和图像llp的融合图像,将融合图像灰度信息显示出来,如图3所示,得到的是ir和llp的融合图像,同时具有ir和llp图像信息,并且融合图像不会被过亮或者过暗信息覆盖。传统的基于单像素权值融合方法容易将过亮或者过暗目标放大,而本专利申请的融合方法能够充分抑制过亮和过暗目标,最终的融合图像不会造成图像信息互相掩盖的情况;基于区域像素计算的融合方法,计算量较大,不容易工程化实现,而本文专利
发明内容能够实时实现,可以处理50hz/s的视频图像。以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1