一种基于机器视觉的入坞飞机实时捕获方法及系统的制作方法

文档序号:9579872阅读:677来源:国知局
一种基于机器视觉的入坞飞机实时捕获方法及系统的制作方法
【技术领域】
[0001] 本发明涉及一种泊位飞机定位及引导技术,特别是一种用于飞机泊位引导的运动 物体检测、特征识别和验证的基于机器视觉的入坞飞机实时捕获方法及系统。
【背景技术】
[0002] 飞机泊位引导是指将到港飞机从滑行道末端导引至机坪的停机位置并准确停泊 的过程。飞机泊位引导的目的是保障入坞飞机安全准确停泊,能方便飞机与各种地勤接口 的准确对接,并使登机桥能有效靠接飞机舱门,提高机场运行效率和安全。自动飞机泊位引 导系统按使用传感器的类型不同主要分为:(1)地埋线圈类;(2)激光扫描测距类;(3)视 觉感知类。由于激光扫描测距类和视觉感知类自动引导系统能有效获取入坞飞机的可视化 信息,因此该两类自动飞机泊位引导系统又称为可视化泊位引动系统。地埋感应线圈类自 动引导系统通过探测是否有金属物体经过或停留来确定入坞飞机的位置。地埋感应线圈的 优点是响应速度快、成本低,对天气和照度无要求,但误差较大、抗干扰能力低。同时,埋在 地下的引线和电子元件容易被压坏、可靠性不高,测量精度不高,不能识别机型,可调试可 维修性差。激光扫描测距类自动引导系统通过激光测距和激光扫描来确定飞机位置、速度 和机型等信息,不受环境照度的影响、且受天气影响较小,精度较高,可调试可维修性好,但 成本较高,且激光扫描频率有限,限制了引导的实时性和稳定性。视觉感知类自动引导系统 通过光学成像方式获取飞机入坞过程的图像信息,进而通过智能化信息处理技术确定入坞 飞机的位置、速度和机型等信息,系统架构简单、成本低,具有高的智能化水平,可调性可维 护性较好,但对天气和照度有要求、适应性较差。
[0003] 随着视觉感知成像技术、智能化信息处理技术和计算机技术的不断深入发展,可 视化飞机泊位引导技术能精确、快速获取入坞飞机的入坞信息,已在机场的泊位引导系统 中得到应用。美国Honeywell公司研制的可视化飞机泊位引导系统(VDGS)和德国西门子 公司研制的视频泊位引导系统(VD0CKS)作为国际领先水平的视觉引导设备也在国际上一 些机场得到应用,但这些系统对天气和照度要求较高、适应性较差,且缺乏智能化的信息处 理能力。在整个泊位飞机引导过程中,飞机跟踪和定位、机型识别及身份验证操作都是在泊 位飞机捕获之后进行。如果泊位系统并未捕获到泊位飞机,那么后续的一切操作将不会执 行。因此,泊位飞机的快速、准确捕获是泊位引导系统完成泊位飞机引导任务的基础和前 提。一个快速、准确的泊位飞机捕获方法能够为后续的飞机机型识别、跟踪和引导提供更准 确的信息和更多的处理时间。

【发明内容】

[0004] 本发明所要解决的技术问题是提供一种能够快速、准确捕获泊位飞机基于机器视 觉的入坞飞机实时捕获方法及系统。
[0005] 为了实现上述目的,本发明提供了一种基于机器视觉的入坞飞机实时捕获方法, 其中,包括如下步骤:
[0006]S1、飞机泊位场景设置,将监测场景划分为不同的信息处理功能区,以缩小图片的 处理区域范围,提高处理效率;
[0007]S2、飞机捕获,包括:
[0008]S21、背景消除,基于中值滤波的背景模型、混合高斯背景模型或基于核密度概率 估计的背景模型来模拟场景中背景的动态分布并进行背景建模,然后将当前帧与背景模型 作差分以消除背景;
[0009]S22、阴影消除,统计通过背景消除提取的前景区域中的灰度值,找出最大灰度值 gmax和最小灰度值gmin,然后在灰度值小于T=gmin+(gmax-gmin)*0· 5的区域进行阴影 消除;
[0010] S23、区域分类,建立一个标准正面飞机区域模板,经过变化检测提取目标区域并 求取该区域的垂直投影曲线,然后求取该垂直投影曲线与所述标准正面飞机区域模板的垂 直投影曲线的相关系数,若该相关系数大于或等于0.9,则该目标为飞机;
[0011] S24、特征验证,通过检测捕获到的飞机的引擎和前轮来进一步验证该目标是否为 飞机。
[0012] 上述的基于机器视觉的入坞飞机实时捕获方法,其中,在步骤S1之后,还可包括 如下步骤:
[0013]S10、视频图像预处理,对图像进行亮度校正和去噪处理,以改善图像的视觉效果, 提1?图像的清晰度。
[0014] 上述的基于机器视觉的入坞飞机实时捕获方法,其中,所述背景消除步骤S21中, 所述单高斯背景模型的建立包括如下步骤:
[0015]S211、背景模型的建立,初始化背景图像,计算一段时间内视频序列图像f(x,y) 中每一个像素的平均灰度值μ。以及像素灰度的方差W,由μ。和 < 组成具有高斯分布 η(X,μ。,σ。)的初始背景图像Β。,4 =[/Α,,σ,;]
[0016] 其中
[0017] 然后为每帧图像的每个像素点建立高斯模型η(XdμuJ;
[0018] 其中,i为帧序号,Χι为像素点的当前像素值,μi为当前像素点高斯模型的均值, σi为当前像素点高斯模型的均方差;若ΓΙ(Xi,μi,。i) <Tp,Tp为概率阈值,则判定该点 为前景点,否则为背景点;
[0019]S212、背景模型的更新
[0020] 若场景发生变化,则对背景模型进行更新,利用摄像装置拍摄的连续图像提供的 实时信息对背景模型进行更新,如下式:
[0021] μ1+, = (1-α)μ,.+αΧ?
[0022]
[0023] 其中α为更新率,取值在〇~1之间。
[0024]上述的基于机器视觉的入坞飞机实时捕获方法,其中,若该像素为背景,则α取 0.05,若该像素为前景,则α取0.0025。
[0025] 上述的基于机器视觉的入坞飞机实时捕获方法,其中,所述特征验证步骤S24包 括:
[0026]S241、图像极黑区域提取,对图像进行灰度直方图统计,在灰度级中间1%~99% 范围内获得像素数不为〇的最大灰度值/最小灰度值的比值,使用预设的极黑判定阈值提 取图像中最黑的部分,得到一幅极黑区域;
[0027]S242、类圆形检测,提取该极黑区域的所有外层边界,对每一个边界使用边界的矩 计算边界的重心坐标,边界的第ji阶矩定义如下:
[0028]
[0029] 重心坐标(r,y):
[0030]
[0031] 对于当前边界的所有像素点,计算其与该重心的距离,若计算得到的最大距离与 最小距离的比值大于一圆形判定阈值,则认为该区域非圆形,进行下一区域的判定,记录判 定的类圆形区域的重心坐标和半径;
[0032]S243、在类圆区域中通过判断相似度检测飞机引擎;
[0033]S244、检测飞机前轮,确认该飞机引擎和前轮则捕获成功。
[0034] 上述的基于机器视觉的入坞飞机实时捕获方法,其中,在类圆区域中检测飞机引 擎步骤S243中,假设一共检测到了Μ个类圆形区域,其中第i个和第j个的相似度的计算 为:
[0035]Similarity^ = |Heighti-Heights | * |RadiuSi-Radiusj
[0036] 其中,Height为重心高度,Radius为半径,当相似度Similarityij小于预设的相 似度阈值时,则认为区域i和j为飞机引擎。
[0037] 上述的基于机器视觉的入坞飞机实时捕获方法,其中,在步骤S243中,若没有检 测出飞机引擎,则进行迭代检测,将所述极黑判定阈值、圆形判定阈值、相似度阈值分别增 大,再进行步骤S241-243;若仍然没有检测出飞机引擎,则对所有的极黑区域使用7*7的圆 形模板进行开操作,再进行步骤S242-243;
[0038] 若仍然没有检测出飞机引擎,则再进行2次上述迭代检测;
[0039] 若仍然没有检测出飞机引擎,则判定图像中无引擎存在。
[0040] 上述的基于机器视觉的入坞飞机实时捕获方法,其中,所述极黑判定阈值、圆
当前第1页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1