一种基于多匹配基元融合的双目视觉立体匹配方法与流程

文档序号:15696230发布日期:2018-10-19 19:05阅读:575来源:国知局
一种基于多匹配基元融合的双目视觉立体匹配方法与流程

本发明涉及一种基于多匹配基元融合的双目视觉立体匹配方法,可广泛应用于无人驾驶及机器人导航等技术领域。



背景技术:

立体匹配作为双目视觉中的核心技术广泛应用于无人驾驶及机器人导航等领域。其基本原理是通过双目相机获取场景的二维图,经匹配算法获取待匹配点的视差,进而获取场景的深度信息。立体匹配算法由于其高准确度特性受到学者的广泛关注。然而,由于自然场景中纹理的复杂性及场景深度的不连续性,一直制约着立体匹配算法的实际应用。

目前主流的立体匹配算法可分为基于全局的立体匹配算法与基于局部的立体匹配算法。基于全局的立体匹配方法,由于涉及到能量函数的运算,计算复杂、效率低,难以满足实际需求。基于局部的立体匹配方法,在代价函数聚合阶段只对局部数据项进行操作,实时性高,但准确率相对较低,直到yoon提出经典自适应支持权重算法(asw),其准确度得到质的提高,但由于其窗口固定,并不能反映图像的特征及纹理信息。

局部立体匹配算法根据匹配基元的不同,又可细分为基于区域、基于特征以及基于相位的立体匹配方法。自适应支持权重方法由于匹配基元单一而且窗口固定,导致算法在复杂纹理区域准确度较低,并且由于复杂的权值计算导致算法实时性低。

针对经典算法出现的问题,一些学者基于梯度及或颜色等多种匹配基元信息来表述图像的初始匹配代价,使得算法准确度得到了进一步的提高。然而,并没有摒弃复杂的权值计算,使得该算法的实时性仍较低且鲁棒性弱。

lin等人使用线性函数来拟合原算法中的高斯权值函数,对原图像下采样得到高斯金字塔样本,并采用层次聚类算法计算代价聚合函数,在提高算法实时性的同时又提高了算法的准确度。但是,由于受到采样次数限制,采样后的图像过于模糊,导致该算法鲁棒性较差。

一直以来,研究人员都对自适应窗口进行了研究,并通过利用参考图像与待匹配图像自适应窗口的重合度来摒弃一些明显错误的视差值,在代价聚合阶段摒弃了复杂权值的运算。但是,由于没有考虑到参考图像与匹配代价函数之间的相关性,这使得该算法的准确度并不优于经典算法。

针对以上问题,为提高算法在实际场景应用中的鲁棒性,本文在初始匹配代价阶段,将颜色匹配基元与梯度匹配基元相融合,并利用middlebury平台符合自然场景条件的cones图像对颜色与梯度匹配基元的比例系数α进行自适应调节;在代价函数聚合阶段,首先针对传统方法中固定窗口导致算法在复杂纹理条件下准确度低的问题,根据像素间的颜色信息与空间距离信息对中心像素点进行扩展,然后采用初始匹配代价函数和参考图像像素之间的相关性计算来代替传统的复杂能量函数和权值运算进行代价聚合,不仅提高了算法的准确度,同时也降低了算法的时间复杂度;最后,对所得视差图采取lrc左右一致性检测以及采用一种基于亚像素级自适应权重中值滤波运算,再次提高了算法的准确度。



技术实现要素:

本发明的目的,是针对现有技术存在的问题而提供一种双目视觉基于多匹配基元融合的立体匹配方法,采用本发明的方法所得到的视差图的平均误匹配率得到了极大的改善,图像,清晰而精确,大幅度提高了机器人或无人驾驶机运行轨迹的精度。

采用的技术方案是:

一种双目视觉基于多匹配基元融合的立体匹配方法,包括计算机、二个摄像机和多匹配基元融合的立体匹配方法,其特征在于:

所述二个摄像机选用astrolabes公司生产的zed双目摄像机,并对zed双目摄像机作如下设置:

1)图像采集:

通过下载zedsdk以及cuda,并通过usb3.0接口连接电脑。通过matlab内webcam函数连接zed双目相机,并通过snapshot函数进行图片采集;

2)相机标定:

相机标定的目的,旨在获取准确摄像机内外参数。内参数主要包括左右镜头的焦距,基线距离;外参数主要包括两摄像机相对于世界坐标系的旋转矩阵,以及左右相机的相对平移矩阵。本文从官方手册获得摄像机的默认内外参数;

3)图像参数设定:

通过标定参数进行极线校正使得采集到的左右图像满足极线约束条件。并通过zedsdk内嵌zedexplorer.exe插件进行参数的重设定;

4)立体匹配:

立体匹配作为双目视觉系统的核心部分。立体匹配的目的在于对采集到的左右图像进行成像点匹配,通过匹配点得到视差值,并获得场景的深度信息。

zed双目摄像机不仅可以获取高质量的图像信息,而且具有体积小,功耗低的优点。特别是由于内嵌了zedsdk函数库以及cuda并行处理,大大降低了系统的处理时间。zed双目摄像机可以装设在机器人或无人驾驶机上。双目摄取的实际场景,经多匹配基元融合的立体匹配处理,能达到真实场景的目的,再通过设置在机器人或无人驾驶机上的计算机处理,向机器人或无人驾驶机控制与驱动系统发出导航指令;或是通过设置在机器人或无人驾驶机外部计算机,经过局域网、以太网或是导线与计算机连接,经计算机处理,向机器人或无人驾驶机控制与驱动系统发出导航指令。大幅度提高了机器人或无人驾驶机运行轨迹的精度。

所述多匹配基元融合的立体匹配模块方法,包括下述过程:

本发明采用改进的asw立体匹配方法。

目前已知的asw立体匹配算法是:

在立体匹配算法中,一般默认两幅图像满足极线约束条件,即左右图像对应的匹配点处于两幅图像的同一行位置。asw算法的核心在于使用支持权重来测量图像像素之间的相似性时,仅当相邻像素来自相同深度时,这些相邻像素的支持才是有效的,它具有与待匹配像素相同的视差。因此,窗口周围像素的支持权重w与窗口视差概率pr成比例,如公式(1)所示:

w(p,q)∝pr(dp=dq)(1)

其中,p为待匹配像素,q为窗口内除待匹配像素外的其它像素,d为所求视差。w(p,q)与图像的颜色和距离相关,如公式(2)所示:

w(p,q)=k·f(δcpq,δgpq)(2)

其中,δcpq,δgpq分别代表p和q两点分别在lab颜色空间和几何空间上的距离,k为比例系数,具体数值通过实验获得,f为拉普拉斯核函数,二者相互独立,如公式(3)所示:

f(δcpq,δgpq)=f(δcpq)·f(δgpq)(3)

其中δcpq,δgpq计算如公式(4)(5)所示:

cp=|lp,ap,bp|,cq=|lq,aq,bq|为lab三通道颜色空间色度值,lab颜色空间中的l分量用于表示像素的亮度,取值范围是[0,100],表示从纯黑到纯白;a表示从红色到绿色的范围,取值范围是[127,-128];b表示从黄色到蓝色的范围,取值范围是[127,-128]。(px,py)与(qx,qy)为几何空间的坐标值。使用拉普拉斯核函数定义分组强度,如公式(6)(7)所示。

γc,γp通过实验获得,论文中取γc=7,γp=36(取值一般与窗口大小相关)。之后利用公式(8)进行代价聚合。

其中初始匹配代价如公式(9)所示:

ic(q)与为参考图像与待匹配图像固定窗口内视差为d的两像素的灰度值。最后通过wta(winner-takes-all)方法确定最终的视差图。

本发明采用改进的asw匹配方法主要包括:左右参考图像读入阶段、左右初始匹配代价阶段、左右代价函数聚合阶段和视差后处理4个阶段,视差后处理4个阶段,主要包含lrc左右一致性检测与滤波运算。其中:

一、初始匹配代价计算是:

asw算法利用图像的灰度信息作为匹配代价计算的基元。本发明通过对梯度基元和r、g、b三通道颜色基元的均值设置截断阈值,并通过卡尔曼滤波的思想融合像素的r、g、b颜色与梯度信息,通过控制系数α进行自适应调节从而做出改进。具体过程如下:

(1)分别设置颜色和梯度阈值t1、t2,计算初始代价eg,ec,如公式(10)(11)所示。

(2)自适应调节α系数计算最终的初始匹配代价,最终的初始匹配代价如公式(12)所示。

二、改进的自适应窗口扩展算法:

传统的asw匹配算法由于窗口固定,在处理复杂纹理区域时鲁棒性较差。本文根据像素间的颜色与空间距离采用自适应窗口方法。已知待匹配的中心像素点p(x,y),在x和y方向上各邻域像素点分别为p(x-1,y),p(x+1,y)和p(x,y-1),p(x,y+1)。不同于传统的自适应窗口扩展方法以中心像素点灰度信息进行像素扩展,本文以中心点r,g,b作为扩展基元,当邻域像素与中心像素点三通道信息同时满足如下公式(13)条件进行窗口扩张。

ir,g,b(x,y)-ir,g,b(x-1,y)<t(13)

t为预设颜色阈值,且t∈(0,1)。当图像中由于不连续的纹理而导致同一区域像素跳变时,很难使邻域像素三通道像素信息同时满足公式(13)。基于此特性,本文对传统的固定窗口做出改进。在邻域像素在满足公式(13)条件下进行窗口自适应扩张时,若场景中存在纹理重复区域导致窗口过大使得代价聚合时计算过于复杂,这不符合算法的实时性要求。本文根据图像几何特性对自适应窗口设置截断臂长。当满足如下公式(14)时对窗口臂长进行截断。

其中,p(x),p(y)为中心像素的横纵坐标值,q(x),q(y)为邻域像素的坐标值。通过对middlebury平台下tsukuba,teddy,cones,venus四张测试图像实验设置最小臂长lmin=5,阈值lmax=11。

自适应窗口,如图3图所示。首先,对中心像素i(x,y)进行横向扩张,若最终的窗口臂长小于最短臂长,用最小臂长lmin代替原长度。在窗口扩张过程中,当邻域像素与中心像素空间距离大于截断阈值时,截断窗口。最后结果如图4图所示,以中心点为参考,上下左右四个不同长度臂长lu,ld,ll,lr。本文对自适应窗口的行列大小取值分别如下公式(15)、(16)所示:

rows=lu+ld(15)

cows=ll+lr(16)

三、匹配代价聚合算法:

在计算完初始匹配代价之后,进行代价函数聚合,不同于经典算法复杂的权重运算。本文通过代价函数与参考图像的相关性以及参考图像自身的相关性,对参考图像自适应窗口内方差以及参考图像与代价函数协方差进行计算,得出其相关函数,并用初始匹配代价函数减去相关函数之后进行代价聚合,大大挺高了算法的准确性与实时性。具体过程如下:

首先,计算匹配窗口内待匹配像素的r、g、b三通道像素值与匹配代价函数卷积的均值,如公式(17)所示。

其中,p为窗口中心点像素坐标,i(x,y)为窗口内包括中心点各像素坐标,i(x,y)为上文所求的自适应窗口,lu为窗口内像素总数。在计算完各通道卷积函数的均值后,计算其协方差函数,如公式(18)所示:

上式中,mc,me分别为自适应窗口内三通道元素与匹配代价函数的均值,具体公式如下公式(19)、(20)所示:

然后,计算参考图像自适应窗口内三通道元素组成的方差矩阵θ,具体描述如下公式(21)所示。

其中,矩阵θ各元素计算如公式(22)所示:

通过式(17)-(20)可得系数矩阵如公式(23)所示:

由于vce(c∈{r,g,b})为1*3的向量,可得γkn的值包含三通道的向量。当计算完相关系数γkn之后,通过各点代价函数的均值减去参考图像三通道像素与相关系数的卷积,使得左右两幅图像的匹配代价更加独立。最终,初始代价函数如下公式(24)所示:

由于γkn为三通道向量,因此n∈(1,2,3)。在计算完最终的匹配代价之后,通过自适应窗口进行匹配代价聚合,具体公式如公式(25)所示。

本文只对参考图像基础上进行聚合,并没有加入待匹配图像。实验结果表明在提高算法实时性的同时并没有降低其准确度。最后采用公式(26),通过wta(winner-takes-all)算法选取代价函数最小时的视差值为视差图的像素值。

四、视差后处理

1,lrc左右一致性检测

在立体匹配算法中,由于左右图像存在视差,遮挡问题一直不可避免。在获得最终视差图之前,本文首先采用lrc左右一致性算法进行视差后处理运算。

在以左图像为参考图像时计算得到视差dl,以右图像为参考图像得到视差dr。当满足如下公式(27)条件:

|dl-dr|>δ(27)

δ为阈值,δ∈(0,1)。本文中δ取值为1。当满足左右视差差的绝对值大于δ,则认为是遮挡点。对遮挡点取左右视差中较小的视差值进行视差填充。

2,自适应权重中值滤波

在进行代价聚合算法之后,得到的视差图往往存在较多的椒盐噪声,有必要对图像进行中值滤波。然而传统的滤波往往忽视了像素之间的相关性。本文基于空间内像素之间颜色与距离的差异对窗口内像素赋予不同的权值,具体权值运算如公式(28)所示。

γc,γd为常数,通过试验获得。论文中通过大量的实验取γc=0.1,γd=9。k1,k2由中心像素与周围像素点在颜色空间与距离空间的差异得出,分别由下式(29)和(30)获得。

窗口大小为19*19。在获得窗口内各像素的权值之后进行自适应中值滤波。具体过程如下:

(1)对窗口内除中心点外的各像素灰度值与各自的权值相乘,得到新的灰度值,利用式(31)计算获得。

i'(q)=w·i(q)(31)

(2)对窗口内包括中心点在内的各像素的新值进行排序,取位于中值附近最接近中心点的2个像素值i'(q1),i'(q2),取其均值得到新的亚像素级别灰度值代替原中心点像素的灰度值,由式(32)计算获得。

五、算法描述

算法的详细执行过程如表1所述。表1

六、实验结果

本文算法实验环境为intelcorei7-67003.5hzcpu,12g内存,matlab2016a平台。为了验证本文所提算法的有效性,本文首先在middlebury平台下对比了经典的自适应权重算法的视差图,如图6第1列为tsukuba,teddy,cones,venus四幅测试图像,第2列为其标准视差图,第3列为经典asw算法图,第4列为本文算法所得视差图。

实验中自适应窗口最大最小臂长分别为lmin=5,lmax=11,最小梯度与颜色阈值分别为t1=2,t2=7,卡尔曼系数α=0.11。自适应权值滤波权值系数γc=0.1,γd=9,窗口为19*19。本文对所得视差图在middlebury平台下三个测试指标:nonocc(非遮挡区域误匹配率),all(所有区域误匹配率),disc(深度不连续区域误匹配率)测试,对比了传统的自适应立体匹配算法以及de-maeztu基于梯度的asw改进算法,具体对比如下表2所示。

表2.匹配算法评估表(单位:%)

从表1可以看出对比经典的自适应权重及其改进算法,本发明使用基于多匹配基元融合的立体匹配算法在venus,teddy,cones图像下,无论是在所有区域,非遮挡区域还是深度不连续区域场景下,本文算法都有明显的优势。在光线较暗的tsukuba图像下,在非遮挡区域,亦有一定的提升。对比基于单梯度基元的gradadaptwgt算法,tsukuba,venus,teddy在所有区域的误匹配率更低,且cones图像的误匹配率与原gradadaptwgt算法相当。本文算法在middlebury平台下进行平均误匹配率对比如表3所示,取得了相当可观的效果。

表3.平均误匹配率对比

为提升算法的鲁棒性,本文对比了颜色与梯度信息的卡尔曼系数比。选取符合自然场景下的cones图像作对比,在不同的α系数下nonocc,all,disc各匹配条件误匹配率对比,其中α∈(0.11:0.02:0.29)。

由上图结果可得,为实现立体匹配算法鲁棒性要求,我们在实际应用中将α的值设为0.23。而且相对于经典的自适应支持权重算法,本文摒弃了复杂权重的运算,大大提高了算法的实时性。在时间复杂度上本文对比了经典自适应支持权重算法如表4所示。

表4.本文算法与经典asw算法时间复杂度对比(单位:ms)

实验结果显示本发明算法大大降低了算法的时间复杂度。

本发明优点:

本发明通过融合颜色匹配基元与梯度匹配基元,并引入代价函数与参考图像相关性,提出了一种新颖的基于多匹配基元立体匹配方法。算法大大提升无人驾驶条件下场景信息的准确度,为获得更精确的深度图做出贡献,并且大大降低了算法时间复杂度,为无人驾驶的实际应用提供了理论依据。更进一步提高机器人或无人机的导航精度。

附图说明

图1是经过标定及图像设定之后zed双目相机采集的左右图像。

图2是改进的asw算法流程图。

图3是自适应窗口图中的横向扩张图。

图4是自适应窗口图中的窗口扩展最终效果图。

图5是cones图像误匹配率对比图中的非遮挡区域误匹配率视图。

图6是cones图像误匹配率对比图中的全部区域与深度不连续区域误匹配率对比视图。

具体实施方式

一种双目视觉基于多匹配基元融合的立体匹配方法,包括计算机、二个摄像机和多匹配基元融合的立体匹配方法,其特征在于:

1、摄像机选用astrolabes公司生产的zed双目摄像机。

zed双目摄像机采集的视频流分辨率分四类,具体参数如下表1所示:

表1:zed输出视频流模式

2、图像采集:

通过下载zedsdk以及cuda,并通过usb3.0接口连接电脑。通过matlab内webcam函数连接zed双目相机,并通过snapshot函数进行图片采集;

3、相机标定:

相机标定的目的,旨在获取准确摄像机内外参数。内参数主要包括左右镜头的焦距,基线距离;外参数主要包括两摄像机相对于世界坐标系的旋转矩阵,以及左右相机的相对平移矩阵。本文从官方手册获得摄像机的默认内外参数;

4、图像参数设定:

通过标定参数进行极线校正使得采集到的左右图像满足极线约束条件。并通过zedsdk内嵌zedexplorer.exe插件进行参数的重设定;

5、立体匹配:

立体匹配作为双目视觉系统的核心部分。立体匹配的目的在于对采集到的左右图像进行成像点匹配,通过匹配点得到视差值,并获得场景的深度信息。

zed双目摄像机可以装设在机器人或无人驾驶机上。双目摄取的实际场景,经多匹配基元融合的立体匹配处理,能达到真实场景的目的,再通过设置在机器人或无人驾驶机上的计算机处理,向机器人或无人驾驶机控制与驱动系统发出导航指令。

所述多匹配基元融合的立体匹配方法,包括下述过程:

采用改进的本发明采用改进的asw匹配方法:

本发明提出的改进asw算法流程,主要包括:左右参考图像读入阶段、左右初始匹配代价阶段、左右代价函数聚合阶段和视差后处理4个阶段,视差后处理4个阶段,主要包含lrc左右一致性检测与滤波运算。其中:

一、初始匹配代价计算是:

asw算法利用图像的灰度信息作为匹配代价计算的基元。本发明通过对梯度基元和r、g、b三通道颜色基元的均值设置截断阈值,并通过卡尔曼滤波的思想融合像素的r、g、b颜色与梯度信息,通过控制系数α进行自适应调节从而做出改进。具体过程如下:

(1)分别设置颜色和梯度阈值t1、t2,计算初始代价eg,ec,如公式(10)(11)所示。

(2)自适应调节α系数计算最终的初始匹配代价,最终的初始匹配代价如公式(12)所示。

二、改进的自适应窗口扩展算法:传统的asw匹配算法由于窗口固定,在处理复杂纹理区域时鲁棒性较差。本文根据像素间的颜色与空间距离采用自适应窗口方法。已知待匹配的中心像素点p(x,y),在x和y方向上各邻域像素点分别为p(x-1,y),p(x+1,y)和p(x,y-1),p(x,y+1)。不同于传统的自适应窗口扩展方法以中心像素点灰度信息进行像素扩展,本文以中心点r,g,b作为扩展基元,当邻域像素与中心像素点三通道信息同时满足如下公式(13)条件进行窗口扩张。

ir,g,b(x,y)-ir,g,b(x-1,y)<t(13)

t为预设颜色阈值,且t∈(0,1)。当图像中由于不连续的纹理而导致同一区域像素跳变时,很难使邻域像素三通道像素信息同时满足公式(13)。基于此特性,本发明对传统的固定窗口做出改进。在邻域像素在满足公式(13)条件下进行窗口自适应扩张时,若场景中存在纹理重复区域导致窗口过大使得代价聚合时计算过于复杂,这不符合算法的实时性要求。本文根据图像几何特性对自适应窗口设置截断臂长。当满足如下公式(14)时对窗口臂长进行截断。

其中,p(x),p(y)为中心像素的横纵坐标值,q(x),q(y)为邻域像素的坐标值。通过对middlebury平台下tsukuba,teddy,cones,venus四张测试图像实验设置最小臂长lmin=5,阈值lmax=11。

自适应窗口,如图3图所示。首先,对中心像素i(x,y)进行横向扩张,若最终的窗口臂长小于最短臂长,用最小臂长lmin代替原长度。在窗口扩张过程中,当邻域像素与中心像素空间距离大于截断阈值时,截断窗口。最后结果如图4图所示,以中心点为参考,上下左右四个不同长度臂长lu,ld,ll,lr。本文对自适应窗口的行列大小取值分别如下公式(15)、(16)所示:

rows=lu+ld(15)

cows=ll+lr(16)

三、匹配代价聚合算法:

在计算完初始匹配代价之后,进行代价函数聚合,不同于经典算法复杂的权重运算。本文通过文献[11]中代价函数与参考图像的相关性以及参考图像自身的相关性,对参考图像自适应窗口内方差以及参考图像与代价函数协方差进行计算,得出其相关函数,并用初始匹配代价函数减去相关函数之后进行代价聚合,大大挺高了算法的准确性与实时性。具体过程如下:

首先,计算匹配窗口内待匹配像素的r、g、b三通道像素值与匹配代价函数卷积的均值,如公式(17)所示。

其中,p为窗口中心点像素坐标,q为窗口内包括中心点各像素坐标,np为2.2节所求的自适应窗口,n为窗口内像素总数。在计算完各通道卷积函数的均值后,计算其协方差函数,如公式(18)所示:

上式中,mc,me分别为自适应窗口内三通道元素与匹配代价函数的均值,具体公式如下公式(19)、(20)所示:

然后,计算参考图像自适应窗口内三通道元素组成的方差矩阵θ,具体描述如下公式(21)所示。

其中,矩阵θ各元素计算如公式(22)所示:

通过式(17)-(20)可得系数矩阵如公式(23)所示:

由于vce(c∈{r,g,b})为1*3的向量,可得γkn的值包含三通道的向量。当计算完相关系数γkn之后,通过各点代价函数的均值减去参考图像三通道像素与相关系数的卷积,使得左右两幅图像的匹配代价更加独立。最终,初始代价函数如下公式(24)所示:

由于γkn为三通道向量,因此n∈(1,2,3)。在计算完最终的匹配代价之后,通过自适应窗口进行匹配代价聚合,具体公式如公式(25)所示。

本文只对参考图像基础上进行聚合,并没有加入待匹配图像。实验结果表明在提高算法实时性的同时并没有降低其准确度。最后采用公式(26),通过wta(winner-takes-all)算法选取代价函数最小时的视差值为视差图的像素值。

四、视差后处理

1,lrc左右一致性检测

在立体匹配算法中,由于左右图像存在视差,遮挡问题一直不可避免。在获得最终视差图之前,本文首先采用lrc左右一致性算法进行视差后处理运算。

在以左图像为参考图像时计算得到视差dl,以右图像为参考图像得到视差dr。当满足如下公式(27)条件:

|dl-dr|>δ(27)

δ为阈值,δ∈(0,1)。本文中δ取值为1。当满足左右视差差的绝对值大于δ,则认为是遮挡点。对遮挡点取左右视差中较小的视差值进行视差填充。

2,自适应权重中值滤波

在进行代价聚合算法之后,得到的视差图往往存在较多的椒盐噪声,有必要对图像进行中值滤波。然而传统的滤波往往忽视了像素之间的相关性。本文基于空间内像素之间颜色与距离的差异对窗口内像素赋予不同的权值,具体权值运算如公式(28)所示。

γc,γd为常数,通过试验获得。论文中通过大量的实验取γc=0.1,γd=9。k1,k2由中心像素与周围像素点在颜色空间与距离空间的差异得出,分别由下式(29)和(30)获得。

窗口大小为19*19。在获得窗口内各像素的权值之后进行自适应中值滤波。具体过程如下:

(1)对窗口内除中心点外的各像素灰度值与各自的权值相乘,得到新的灰度值,利用式(31)计算获得。

i'(q)=w·i(q)(31)

(2)对窗口内包括中心点在内的各像素的新值进行排序,取位于中值附近最接近中心点的2个像素值i'(q1),i'(q2),取其均值得到新的亚像素级别灰度值代替原中心点像素的灰度值,由式(32)计算获得。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1