基于主动式全景视觉的火炮內膛疵病检测装置及方法_3

文档序号:9665847阅读:来源:国知局
射光束的入射角,Θ为反射镜面圆弧曲线的切线角;对于选定的固定焦 距的摄像机,反射光束的角度S只有在一个固定的范围内才能在成像芯片上成像;也就是 说,入射光束的高度和角度只有满足一定条件才能在成像芯片上成像。
[0108]全方位视觉传感器的折反射镜面是将凹圆弧的曲线环绕对称轴一周而形成的,如 图11所示;这种设计便于塑料模具成型加工,全景成像的畸变小,垂直成像范围接近90°,并 且成像焦距短;这些特性非常适合于火炮内膛的视觉检测。
[0109]基于上述全景成像几何关系,下面研究全方位视觉传感器的标定问题;标定的目 的是从成像平面上的点P(u',ν')上找出入射光束的高度r和入射光束的角度的r'对应关 系。
[0110] 本发明中将实际物理空间坐标系建立在全景激光光源的轴心线与垂直于轴心线 的全景激光的交点,坐标值分别用X、Y、Z表示,如图14所示;全景图像坐标系建立在全景图 像的中心,坐标值分别用U、V表示,如图11所示;折反射镜面的坐标系建立在凹圆弧的中心, 坐标值分别用X'、Υ'表示,如图14所示。
[0111]全景激光投射到火炮内膛上的点P(x,y,z)经全方位视觉传感器的凹圆弧镜面反 射在成像平面上成像,得到带有全景激光信息的全景图像;根据标定结果,从全景图像上的 点P(u',v')获得该点光束高度r和角度r';为了对火炮内膛进行3D测量,需要对全方位视觉 传感器进行标定,标定的目的是从成像平面上的点P(u',v')上找出入射光束的高度r和入 射光束的角度的r'对应关系;
[0112] r=f(p(u',ν'))
[0113] (5)
[0114]r'=g(p(u' ,ν'))
[0115]式中,p(u',v')是全景成像平面上的一个点,r为入射光束的高度,r'为入射光束 的角度,f(···)和g(···)分别表示函数关系。
[0116]为了计算出火炮内膛上的点P(x,y,z)空间坐标值,这里将实际空间坐标系建立在 全景激光投射面与对称轴的交点上,建立圆柱形坐标系;根据设计,凹圆弧镜面的圆弧中心 〇(B,_H),其中B为凹圆弧镜面的圆弧中心到圆柱形坐标系轴线的距离,Η为凹圆弧镜面的圆 弧中心到全景激光投射面的垂直距离;根据几何关系用公式(6)计算火炮内膛上的点到坐 标系原点的距离Pr,
[0117]
[0118]式中,Η为凹圆弧镜面的圆弧中心到全景激光投射面的垂直距离,B为凹圆弧镜面 的圆弧中心到圆柱形坐标系轴线的距离,r为全景激光在火炮内膛上的反射光束在凹圆弧 镜面的高度,r'为全景激光在火炮内膛上的反射光束的角度,R为凹圆弧镜面的曲率半径。
[0119]基于主动式全景视觉的火炮内膛疵病检测原理是:爬行机构由动力传动机构驱 动,爬行机构携带着视觉检测设备在火炮内膛爬行,视觉检测设备在爬行过程中采集火炮 内膛的全景视频图像,其中包括了火炮内膛全景图像和火炮内膛激光切片扫描全景图像; 采集后的两种全景视频图像通过无线通信单元发送给火炮内膛检测分析系统,在火炮内膛 检测分析系统中进行疵病自动检测、火炮内膛的三维重建,最后将检测结果和火炮内膛的 三维重建显示在显示设备上。
[0120] 全景视频图像接收单元,用于接收从视觉检测设备发送过来的火炮内膛全景视频 图像。根据LED带光源照射得到的是火炮内膛全景图像,根据全景激光光源照射得到的是火 炮内膛激光切片扫描全景图像;由于在火炮内膛全景图像上缺少深度信息,在火炮内膛激 光切片扫描全景图像上缺少纵向纹理信息;因此在对火炮内膛疵病进行解析和识别时,尤 其是对疵病等级进行量化处理时需要融合上述两种信息;这里将接收单元接收到的火炮内 膛激光切片扫描全景图像用爬行器的爬行距离Zm+LASER为文件名保存在存储单位中,将火 炮内膛全景图像用爬行距离Zm*文件名保存在存储单位中。
[0121] 从机器视觉角度来进行火炮内膛的视觉检测主要由两种不同的图像进行分析,一 种是对火炮内膛全景展开图进行解析和识别,另一种是对火炮内膛激光切片扫描图进行解 析和识别;在实际检测过程中,主动式全景视觉传感器由爬行器牵引在火炮内膛移动,随着 爬行器沿火炮内膛轴线爬行,全景激光光源为火炮内膛提供火炮内膛断截面全景扫描光, 全方位视觉传感器获取全景激光扫描的切片图像;图10所示的是火炮内膛横截面图像,在 火炮内膛圆周上均匀分布着阳线和阴线。
[0122] 进一步,需要在全景激光扫描的切片图像上解析出激光投影位置信息;本发明将 上述处理过程称为全景激光截面法;
[0123]在全景激光截面法中,为了有效地获取全景扫描光线投射到火炮内膛的图像信 息,当使用全景扫描光线时,将LED带光源的开关设置为0FF,即关闭所有LED的照明;全景扫 描光线投射到火炮内膛上后再成像平面上会产生一条封闭的曲线,采用全方位面激光信息 解析模块以方位角β遍历全景图得到全景扫描光线在火炮内膛上的空间坐标位置;本发明 中全景扫描光线的颜色为红色;为了对火炮内膛上的点进行空间测量,这里建立了两个坐 标系,如附图6所示,一个是固定坐标系,是建立在所述的爬行器放入火炮内膛后开始爬行 前的空间位置;另一个是移动坐标系,是建立在所述的全景激光发射面与圆柱形坐标系轴 线的交点;假设所述的爬行器是沿火炮内膛直线移动的,那么这两个坐标系之间的关系用 公式(7)进行计算,
[0124]
[0125]式中,X,Υ,Ζ为移动坐标系的三个空间分量,Χο,Υο,Ζο为固定坐标系的三个空间分 量,Zm为爬行器沿火炮内膛轴向方向上的爬行距离。
[0126]全方位面激光信息解析单元,用于对火炮内膛激光切片扫描全景图像进行解析处 理得到火炮内膛的点云数据;在火炮内膛激光切片扫描全景图像上解析出激光投影信息并 计算出空间位置信息,最终得到火炮内膛边缘线;解析在火炮内膛激光切片扫描全景图像 上的红色激光投射点的方法是根据红色激光投射点的像素的亮度要大于成像平面上的平 均亮度,首先是将全景图的RGB颜色空间转化成HIS颜色空间,然后将成像平面上的平均亮 度的1.2倍作为提取红色激光投射点的阈值,为了得到激光投射线的准确位置,本发明采用 高斯近似方法来抽取出激光投射线的中心位置,具体实现算法是:
[0127]Stepl:设置初始方位角β=0;
[0128]Step2:在火炮内膛激光切片扫描全景图像上以方位角β从火炮内膛激光切片扫描 全景图像的中心点开始检索红色激光投射点,对于方位角β上存在着若干个连续的红色激 光投射的像素,这里选择HIS颜色空间中的I分量,即亮度值接近最高值的三个连续像素通 过高斯近似方法来估算激光投射线的中心位置;具体计算方法由公式(8)给出,
[0129]
[0130]式中,f(i_l)、f(i)和f(i+l)分别为三个相邻像素接近最高亮度值的亮度值,d为 修正值,i表示从图像中心点开始的第i个像素点;因此估算得到的激光投射线的中心位置 为(i+d),该值对应于p(u',v');
[0131]Step3:根据标定结果,从全景图像上的点p(u',v')获得该点光束高度r和角度r' ; 根据火炮内膛激光切片扫描全景图像数据的文件名的信息,即以爬行距离Zm+LASER为文件 名的形式,得到爬行器沿火炮内膛轴向方向上的爬行距离Zm,然后用公式(6)计算出爬行器 沿火炮内膛轴向方向上的爬行距离Z4P方位角β'=β情况下在火炮内膛上的激光投射点到 主动式全景视觉传感器的中心轴线之间的距离Pr;最后用公式(9)计算该激光投射点的空 间坐标位置值;
[0132]
(9)
[0133] 式中,Zm为爬行器沿火炮内膛纵向方向上的爬行距离,PR为沿火炮内膛纵向方向上 的位置Z4P方位角β'=β情况下在火炮内膛上的激光投射点到主动式全景视觉传感器的中 心轴线之间的距离,x,y,z分别为激光投射点的空间点云数据坐标值,β为方位角;
[0134]Step4:改变方位角继续检索激光投射点,S卩β=β+Δβ,Δβ= 〇.36;
[0135]Step5:判断方位角β= 360,如果成立,检索结束;反之转到Step2。
[0136]火炮内膛3D建模单元,用于对解析处理得到火炮内膛的点云数据进行拼接和纹理 映射处理得到火炮内膛的3D模型;为了对火炮内膛进行3D建模,需要对驱动着主动式3D立 体全景视觉传感器的爬行器的运动进行估计;这里将检测坐标系建立在全景激光投射面与 对称轴的交点上,使用SFM算法,即运动的结构重建算法,对爬行器的运动进行估计,得到测 量点坐标变换的信息。
[0137] 具体火炮内膛3D建模过程如下:首先,全方位视觉传感器获得其运动过程中的全 方向图像序列;然后利用SFM算法提取和跟踪特征点,以获得全方向图像序列中的相对应 点;接着用线性估计方法估计爬行器的运动,主要利用对应点在每个观测点拍摄的两个图 像的位置;最后为了更精确地估计爬行器的运动,用非线性估计方法重新估算爬行器的运 动。
[0138] 特征点的提取和跟踪:为了在全方位图像序列中获得图像之间的对应点,首先在 第一帧图像中提取特征点,然后沿着图像序列跟踪这些特征点;跟踪特征点采用SIFT算法, 即尺度不变特征变换算法;然而,实际上全方位图像的畸变和投影畸变会影响对应特征点 米集和跟踪;这是因为现有的SIFT算法是一种全局的算法,全景视觉在全局范围内难以保 证尺度不变特征变换条件,从而导致了误跟踪;为了提高SIFT算法的跟踪精度,这里根据爬 行器在火炮内膛中的运动特征,将对应特征点采集和跟踪规定在一个局部范围内,即通过 划分跟踪扇区方法;该方法是基于在全方位图像序列中的两帧之间相对应点的空间位置是 不会发生突变的假设,爬行器在前行过程中,相对应点是在某一个扇区范围内从全景图像 的外圈向图像中心方向移动的,或者是从图像中心向全景图像的外圈方向移动的;有了扇 区约束条件来提高SIFT算法的跟踪精度;具体实现方法是:在第N帧图像中提取特征点,然 后在第N+1帧图像中的同一扇区内跟踪同一特征点。
[0139] 爬行器的运动估计:为了估计爬行器的运动,这里计算两个观测点,即两个不同位 置的检测坐标系之间的相对位置和方位的差异信息的基本矩阵;本质矩阵E用公式(10)表 示;
[0140]πτΕπ= 0 (10)
[0141] 其中,ri= [Xi,yi,Zi]T,ri' = [Xi',yi',zi' ]分别为两个全景图像中对应点的光线 向量,将公式(10)转化成公式(11);
[0142]uiTe= 0 (11)
[0143] 其中
当前第3页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1