一种基于Retinex的暗图像增强方法与流程

文档序号:26493651发布日期:2021-09-03 21:22阅读:40来源:国知局
一种基于Retinex的暗图像增强方法与流程
一种基于retinex的暗图像增强方法
技术领域
1.本发明涉及图像处理技术领域,具体涉及一种基于retinex的暗图像增强方法。


背景技术:

2.随着科技进步,新的图像技术在逐渐推广,在日常生活中人们对于图像的要求也越来越高,针对阴天或夜晚等弱光条件下拍摄的图像具有亮度低、对比度低和细节模糊等问题,这个时候就需要把目标的亮度提高一点。传统基本做法是对于频域与空域进行处理,这些基本方法都只针对于特定场景下图像增强,对于复杂环境的图像增强效果并不明显,近年来,基于深度学习的图像增强技术取得卓越进展,在高级图像理解任务,比如:图像分类、目标检测等方面取得令人瞩目的成绩。基于深度学习算法的图像增强技术成为研究的热点,常规做法是将图像数据训练集暗图像与亮图像进行直接训练,得到权重参数但是修复完成后视觉效果以及图像质量有待提高。因此技术革新的新型暗图像增强技术是十分有必要的。


技术实现要素:

3.本发明为了克服以上技术的不足,提供了一种使得暗图像增强,提升图像的细节以及对比度,将图像还原成光照充分的条件下的图像,提升图像的辨识度的暗图像增强方法。
4.本发明克服其技术问题所采用的技术方案是:
5.一种基于retinex的暗图像增强方法,包括如下步骤:
6.a)将输入计算机的彩色图片进行颜色通道转换,将图片由rgb图像转换到hsv图像,得到h通道图像、s通道图像和v通道图像;
7.b)将h通道图像、s通道图像和v通道图像输入enhancenet网络,enhancenet网络为3*3卷积核,enhancenet网络对各个通道图像进行l次卷积处理,提取相关特征数据,每次卷积操作得到一层,得到l个层,使用relu及3*3的卷积得到深度为64的特征映射图像;
8.c)将densenet残差网络引入步骤b)中的enhancenet网络,将步骤b)中的l层使用densenet残差网络连接在一起,每个层的输入由所有之前层的特征映射组成;
9.d)将特征映射图像进行双线性插值上采样,采样后进行两次卷积操作;
10.e)使用relu和3*3卷积核对两次卷积操作后的特征图像进行卷积,得到输出结果i
est
,通过公式计算得到损失函数l
e
,其中i
hr
为原始高分辨率图像,通过计算损失函数得到优化后的图像;
11.f)将优化后的图像的h通道、s通道和v通道使用颜色通道合成rgb图像l(x,y);
12.g)通过公式r(x,y)=logr(x,y)=logs(x,y)l(x,y)计算得到最终图像r(x,y),r(x,y)为反射图像,将图像l(x,y)与原始图像进行求解卷积得到优化后的增强图像。
13.进一步的,步骤b)中的enhancenet网络采用步长为2的3*3的卷积核对h通道图像、
s通道图像和v通道图像进行卷积处理。
14.进一步的,步骤d)中使用relu和3*3卷积核进行卷积操作,卷积长度为特征映射图像深度的2倍,卷积宽度为特征映射图像深度的2倍。
15.进一步的,步骤d)中通过公式
[0016][0017]
计算特征映射图像的双线性插值上采样获取的值f(x,y),其中q
11
、q
12
、q
21
及q
22
为点(x,y)周边的任意四个点,q
11
=(x1,y1),q
12
=(x1,y2),q
21
=(x2,y1),q
22
=(x2,y2)。
[0018]
本发明的有益效果是:相比较传统暗图像增强算法,只是将原始图像与标注后的图像放入神经网络中进行训练,新技术将图像从rgb图像转换成hsv图像,更加符合人眼视觉。与原始网络相比较将densenet改进残差网络引入。将所有层直接连接在一起。在这种新型架构中,每层的输入由所有之前层的特征映射组成,其输出将传输给每个后续层。这些特征映射通过深度级联聚合。提升了神经网络的深度,解决了梯度消失问题。原始网络在网络末端用最近邻的方法上采样达到高分辨率尺寸,与原始网络相比改进enhancenet网络采用双线性插值上采样方法,采用这种方法不需要进行学习,运行速度快,操作简单。只需要设置好固定的参数值即可,设置的参数就是中心值需要乘以的系数。并且与原有最近邻算法上采样相比较采用新的上采样方法可以将图像显示更加清晰,网络效果进一步提升。
附图说明
[0019]
图1为本发明的原理框图。
具体实施方式
[0020]
下面结合附图1对本发明做进一步说明。
[0021]
一种基于retinex的暗图像增强方法,包括如下步骤:
[0022]
a)将输入计算机的彩色图片进行颜色通道转换,将图片由rgb图像转换到hsv图像,得到h通道图像、s通道图像和v通道图像。
[0023]
b)将h通道图像、s通道图像和v通道图像输入enhancenet网络,enhancenet网络为3*3卷积核,enhancenet网络对各个通道图像进行l次卷积处理,提取相关特征数据,每次卷积操作得到一层,得到l个层,使用relu及3*3的卷积得到深度为64的特征映射图像。这些特征映射通过深度级联聚合。提升了神经网络的深度,解决了梯度消失问题。
[0024]
c)将densenet残差网络引入步骤b)中的enhancenet网络,将步骤b)中的l层使用densenet残差网络连接在一起,每个层的输入由所有之前层的特征映射组成。引入改进残差网络densenet,原始enhancenet网络中,假设有l层网络,但是在densenet中,就会有l(l+1)/2个连接,可以理解为每一层输入都来自前面所有层的输出。densenet原理公式如下:
[0025]
x1=h1([x0,x1,

,x
l-1
]),其中[x0,x1,

,x
l-1
]表示将0到l-1层的输出feature map做concatenation。concatenation是做通道的合并,h1包括bn、relu和3*3的卷积。
[0026]
建立建立block叠加,block之间任意两层间建立前向skip connection是整个核心思想。一个block包含多个dense layer,其又包括三层:bn、relu和conv。
[0027]
前3层作为一个部分是为了利用1*1conv减少特征图数量,增加计算量。不同dense block之间的连接层称为transition layer,每个transition layer包含3层:bn,1*1conv和2*2avgpool。
[0028]
d)将特征映射图像进行双线性插值上采样,采样后进行两次卷积操作。采用这种方法不需要进行学习,运行速度快,操作简单。只需要设置好固定的参数值即可,设置的参数就是中心值需要乘以的系数。并且与原有最近邻算法上采样相比较采用新的上采样方法可以将图像显示更加清晰,网络效果进一步提升。
[0029]
e)在本网络中参数的初始化采用xavier网络的学习目标是超分辨率图像与输入的低分辨率图像线性插值的差。其中损失函数部分我们选择pixel-wise loss强调的是两幅图像之间每个对应像素的匹配。通过pixel-wise loss训练的图片通常会较为平滑。即使输出图片具有较高的psnr,视觉效果也并没有很突出。后期引入图像锐化以解决过于平滑问题。使用relu和3*3卷积核对两次卷积操作后的特征图像进行卷积,得到输出结果i
est
,通过公式计算得到损失函数l
e
,其中i
hr
为原始高分辨率图像,通过计算损失函数得到优化后的图像。损失函数l
e
用来估量你模型的预测值f(x)与真实值y的不一致程度,它是一个非负实值函数,损失函数越小,模型的鲁棒性就越好。
[0030]
f)将优化后的图像的h通道、s通道和v通道使用颜色通道合成rgb图像l(x,y),l(x,y)即为模型处理的光照度图;
[0031]
g)通过公式r(x,y)=logr(x,y)=logs(x,y)l(x,y)计算得到最终图像r(x,y),r(x,y)为反射图像,将图像l(x,y)与原始图像进行求解卷积得到优化后的增强图像。
[0032]
相比较传统暗图像增强算法,只是将原始图像与标注后的图像放入神经网络中进行训练,新技术将图像从rgb图像转换成hsv图像,更加符合人眼视觉。与原始网络相比较将densenet改进残差网络引入。将所有层直接连接在一起。在这种新型架构中,每层的输入由所有之前层的特征映射组成,其输出将传输给每个后续层。这些特征映射通过深度级联聚合。提升了神经网络的深度,解决了梯度消失问题。原始网络在网络末端用最近邻的方法上采样达到高分辨率尺寸,与原始网络相比改进enhancenet网络采用双线性插值上采样方法,采用这种方法不需要进行学习,运行速度快,操作简单。只需要设置好固定的参数值即可,设置的参数就是中心值需要乘以的系数。并且与原有最近邻算法上采样相比较采用新的上采样方法可以将图像显示更加清晰,网络效果进一步提升。基于retinex原理将图像分成为反射图像s与亮度图像l,原理中讲解l与原始图像存在较弱相关性,创新的使用现在深度学习技术,寻找亮度图像与原图像中的关系,进而计算出之间插值,而不是直接采用回归的做法将网络与之进行拟合。
[0033]
优选的,步骤b)中的enhancenet网络采用步长为2的3*3的卷积核对h通道图像、s通道图像和v通道图像进行卷积处理,最终获得深度h为64的特征映射图像。
[0034]
优选的,步骤d)中使用relu和3*3卷积核进行卷积操作,卷积长度为特征映射图像深度的2倍,卷积宽度为特征映射图像深度的2倍。即2w*2h*64,其中w为图像宽度,h为图像长度。
[0035]
优选的,步骤d)中通过公式
[0036][0037]
计算特征映射图像的双线性插值上采样获取的值f(x,y),其中q
11
、q
12
、q
21
及q
22
为点(x,y)周边的任意四个点,q
11
=(x1,y1),q
12
=(x1,y2),q
21
=(x2,y1),q
22
=(x2,y2)。
[0038]
以上所述仅为本发明的较佳实施例,仅用于说明本发明的技术方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所做的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1