一种智能的无人艇视觉系统视频快速海雾去除方法

文档序号:9217818阅读:536来源:国知局
一种智能的无人艇视觉系统视频快速海雾去除方法
【技术领域】
[0001] 本发明属于视频图像增强领域,具体涉及一种智能的无人艇视觉系统视频快速海 雾去除方法。
【背景技术】
[0002] 近年来,世界各国越来越重视无人艇技术的研宄和开发,特别是美国和以色列,这 两个国家在无人水面艇技术研宄方面一直处于霸主地位,例如著名的美国无人艇"斯巴达 人",以色列的"保护者"和"海星"等无人艇。2014年8月,美国海军在詹姆斯河测试了其13 艘无人艇的"蜂群"作战系统,有5艘无人艇在演示过程采取了智能的独立自主航行方式, 另外8艘则采用远程控制的方式,以集群作战的模式演示了在对本方船只安全保护的基础 上,对于"可疑船只"的包围和拦截,成功的完成了作战护航任务,而且该"蜂群"战术能够 使得无人艇像蜜蜂一样围攻一个目标,这将直接改变海上的战争方式。而国内的无人艇技 术还处于起步阶段,2008年我国才出现第一艘无人驾驶的海上探测船"天象一号",该无人 艇主要用于气象探测领域;2013年,由上海大学和上海海事测绘中心等机构联合研发设计 了我国首艘无人水面艇一一"水面无人智能测量平台工程样机";2014年上海海事大学成功 研制了 "海腾01号"水面艇,该无人艇具有全自主航行、半自主航行和人工遥控三种模式。
[0003]由于国内研宄尚处于起步阶段,很多技术还不够成熟。一旦无人艇技术成熟,能够 广泛用于海上巡逻、目标侦查、反潜作战、打击海盗以及扫雷等各种危险的军事任务;民用 上可用于海上人员搜救和气象探测等领域。在无人艇执行以上任务时,必须要求其具有很 高的智能性,而视觉系统更是其执行以上任务的关键设备之一。在无人艇自主运行或执行 场景监控和巡逻等任务时,必须要求其视觉系统能够广泛适用于海上各种恶劣环境,特别 是海雾天气环境下。在海雾下,由于雾气粒子的散射作用,会造成海雾下的无人艇视觉系统 采集的视频图像严重降质或模糊,严重影响后续目标跟踪和识别以及场景监视等任务的实 现。而且近年来,常常出现因为海雾等恶劣天气,导致耽误船只运行,甚至是船只相撞等海 难。因此,研宄图像海雾的去除技术具有很重要的现实意义。
[0004]美国国家航天局是最早研宄图像去雾理论的机构之一,该机构为了解决在有雾天 气下飞机起飞时看不清飞机航道的问题,提出了许多有效的基于Retinex理论的图像增强 去雾算法,并且将这些算法移植到了DSP硬件中,能够有效提高对于飞机航道的可见性。香 港中文大学的何凯明学者提出了一种有效的暗通道先验理论,该理论能够有效提高陆地场 景的图像恢复效果,且具有良好的色彩恢复效果。目前的算法大多研宄的都是针对陆地场 景的去雾,还没有算法能够有效解决海雾场景的去雾,而且目前的陆地去雾算法对于海雾 的去除效果并不理想。主要是因为海上图像与陆地图像之间区别较大,海雾下的图像往往 天空区域较大,图像亮度普遍较高,而且海雾往往比陆地雾更浓;海雾下的图像大多只包含 天空、海水以及船、海岛等目标,且天空区域和海水区域在图像中占据了很大的比重,而陆 地场景的图像中目标区域占的比重较大。目前算法大多只针对单幅图像去雾的研宄,还没 有出现一种有效的视频去雾算法,而且目前的算法只能机械的去雾,而不能判断场景是否 含雾,不具有视频去雾的智能性。对于一个完整的视频去雾系统,特别是用于无人艇场景 时,必须具有判断场景是否含雾的技术和算法,对于清晰图像的去雾处理不仅会大大浪费 视频处理时间,影响去雾实时性,而且有时候对于清晰图像进行去雾处理时甚至会导致去 雾后的图像质量严重变差的情况,这将不利于后续无人艇执行任务过程中进行目标检测、 目标跟踪等功能的实现。

【发明内容】

[0005] 本发明的目的在于提供一种提高海雾下无人艇视觉系统采集的视频图像清晰度 及视频去雾的智能性的智能的无人艇视觉系统视频快速海雾去除方法。
[0006] 本发明的目的是这样实现的:
[0007] (1)获取海上视频图像:
[0008] 在海雾下,通过安装在无人艇或其他水面航行器上的可见光摄像头采集海雾视频 图像;
[0009] (2)判别海上场景是否含雾:
[0010] 通过实际运行过程中采集的首帧图像来识别当前场景是否含雾:
[0011] (2. 1)建立海上图像库:
[0012] 包括水面有雾图像和清晰图像样本库;
[0013] (2. 2)提取图像特征:
[0014] 提取图像改进后的均值、图像的能见度和暗通道图像强度3个特征作为水面有雾 图像和清晰图像的分类特征:
[0015] (2. 2. 1)改进的均值:
[0016] 图像均值表示为:
[0018] 其中Pi同样表示在一幅图像中灰度值为i的像素点出现的概率,
[0019] 改进的均值特征公式:
[0020] yr =y/ (M-m)
[0021] 其中U为所求的均值,M为灰度图像的最大灰度值,m为灰度图像的最小灰度值;
[0022] (2. 2. 2)图像能见度:
[0023] 图像能见度:
[0024] 对于一幅灰度图像f?的任意一个像素点X,若在以x为中心的4邻域内满足:
[0025] min[f(x),f(y) ]s<max[f(x),f(y)]
[0026] 则称图像f中的像素对(x,y)能被阈值s分割,其中y为以x为中心的4邻域像 素点,即yGV4(x);
[0027] F(s)为图像f中所有能被阈值s分割的像素对(x,y)所组成的集合,对于每一个 分割阈值sG[0,255]都对应一个集合F(s),对于集合F(s)中的任意像素对(x,y),图像 空间对比度为:
[0029]贝1J集合F(s)的平均对比度为:
[0031]其中CardF(s)表示集合F(s)的像素对总数,得到最佳的分割阈值S(l:
[0033]即将平均对比度取最大值时对应的阈值S(l作为图像的分割阈值,在原灰度图像f 中满足空间对比度2CX(S(I) > 0. 05的像素点则为可见边缘像素点,得到图像能见度:
[0034]
[0035] 其中n为可见边缘像素点总数,m为图像中满足条件CX(S(I) >0的所有像素点总 数,P为可见边缘像素点组成的集合;
[0036] (2. 2. 3)暗通道图像强度:
[0037] 根据前一节所求的可见边缘图像求得对应原图像中的可见边缘暗通道图像,统计 暗通道图像中像素值小于阈值T的像素点总数以及可见边缘图像的像素总数,得到图像强 度为:
[0039] 其中I(i)为由可见边缘图像得到的暗通道灰度图像中像素值为i的像素点数 量;
[0040] 其中暗通道图像为:
[0042]JC(X)表示彩色图像J的RGB三通道中的某一通道,D(x)表示以x为中心的方形 窗口;
[0043] 得到的暗通道图像I:
[0044]I(x) =Jdark(x) ?Ie(x)
[0045] 其中为前面求取能见度时所求的可见边缘图像,该边缘图像在图像目标边缘处 的值为1,显示为白色,非边缘处的值为〇 ;
[0046] (2. 3)识别BP神经网络雾图:
[0047] 提取水面图像样本库中所有有雾图像和清晰图像的三个特征,利用BP神经网络 进行分类器训练,得到当前周围水面场景是否含雾的识别结果,若周围场景图像的识别结 果为含雾则执行步骤(3),;
[0048] (3)去除单幅图像海雾:
[0049] (3. 1)估计大气光值:
[0050] 若当周围场景有雾图像为I,首先对图像I进行最小值滤波,得到其暗通道图像 j-dark
[0051] 然后取经过最小值滤波后的图像像素值最大的0. 01 %个像素值作为候选大气光 值估计区域;对候选像素点进行8联通区域分析;再选取连通分量像素个数最多的连通分 量作为大气光值估计的精确候选区域;最后在区域中选取最大的亮度值作为天空亮度即大 气光值A的估计;
[0052] (3. 2)透射率的估计和优化:
[0053] 利用得到的暗通道图像JdaA以及大气光值A,初步估计当前无人艇场景图像的透 射率:
[0055] 将原有雾图像的灰度图像作为引导滤波的引导图像,得到原有雾图像的灰度图 像:
[0056]Igray (x)=0? 3XIr (x) +0? 59XIg (x) +0? 11XIb (x)
[0057] r,Ig,Ib分别表示原无人艇采集的海雾图像的RGB三个通道分量图像,利用引导 滤波对透射率进行优化:
[0059]f为初步估计的透射率;t表示引导滤波优化后的透射率;W为引导滤波核函数:
[0061] 其中yk和〇汾别为引导图像Ig?y中局部小区域《吶的均值和方差,而| ? 表示该局部小区域内的像素总数;e是调整因子;
[0062] (3. 3)复原单幅海雾图像:
[0063] 求解大气散射物理模型,得到海雾去除后的图像:
[0065] A
当前第1页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1