一种基于YOLOv4的无人机场景检测方法与流程

文档序号:23055301发布日期:2020-11-25 17:33阅读:95来源:国知局
一种基于YOLOv4的无人机场景检测方法与流程
本发明涉及无人机领域,特别是涉及一种基于yolov4的无人机场景检测方法。
背景技术
:无人机小巧灵活、视角广阔,近几年来在农业植保、灾情检测、安全防护、航拍视频等方面有广泛的应用。各种深度学习方案使目标识别的准确率和速度有极大发展,但目前目标识别的对象大多是平面视角的,无人机图像中的目标尺度多变、尺寸较小、分辨率低,现有的模型无法直接应用在无人机图像目标识别领域。以faster-rcnn为代表的两阶段目标检测框架需要的硬件资源比较多而且速度较慢,不适合实时性场景。为解决无人机图像中小目标多、像素低、多尺度和无人机硬件平台资源有限、实时性高的难题,本发明基于yolov4网络改进训练一种基于无人机图像的着陆场景多目标识别模型。技术实现要素:有鉴于此,本发明的目的在于提供一种基于yolov4的无人机场景检测方法,主要解决的问题是:现有的目标识别模型对无人机图像中的尺度多变、尺寸较小、分辨率低的小目标检测效果不好,难以判断无人机所处场景的问题。为实现上述的目的,本发明提供如下的技术方案:本发明公开了一种基于yolov4的无人机场景检测方法,包括:s1、建立专有数据集;按照一定比例划分训练集和测试集;s2、建立网络结构,所述网络结构基于改进的yolov4网络,以cspdarknet53作为主干网络,空间金字塔池化模块和路径聚合网络模块作为颈部,yolov3作为头部预测输出;s3、首先使用imagenet大型数据集对s2步骤中得到的网络结构进行训练,得到预训练模型,然后在对网络结构进行特定训练参数设定;s4、使用训练集对预训练模型进行迭代训练,直到损失函数收敛,得到无人机场景检测模型;s5、使用上述测试集对无人机场景检测模型进行测试,并且判断是否符合要求,若不符合,继续进行s4步骤,继续进行迭代训练直到测试结果符合要求;s6、输出符合要求的无人机场景检测模型;s7、使用步骤s6中符合要求的无人机场景检测模型对序列图像进行目标检测,并且识别出无人机所处场景。进一步的,在所述步骤s1中,所述建立专有数据集,包括如下步骤:s1.1、采集基础数据样本,所述基础数据样本,包括:截取自无人机拍摄视频形成的图片,以及截取自网络上航拍数据集中的图片;所述图片包括:含有汽车、船只、操场、篮球场、桥梁、港口六种目标的图片,以及不含有汽车、船只、操场、篮球场、桥梁、港口六种目标的图片;s1.2、对所述基础数据样本中的目标进行标签,并将标签处理为yolo网络所需要的格式,所述标签包括:类别,中心点横坐标,中心点纵坐标,目标宽度和目标长度;s1.3、采用数据增强方法对经过标签的图片和未经过标签的图片进行扩充,得到专有数据集,所述专有数据集共有1000张图片。进一步的,在所述步骤s1中,所述训练集和测试集的比例为:9:1。进一步的,在所述步骤s3中所述特定训练参数为:批次batch=64,每张图的大小为608x608,批次细分subdivision=16,最大批次数为20000次,初始学习率为0.0013。进一步的,在所述步骤s4中,所述损失函数的收敛值为0.5。进一步的,在所述步骤s5中,所述符合要求是指对无人机场景检测模型进行性能评估,map@0.5达到93.33%及以上。本发明的有益效果是:本发明提供的无人机场景检测模型比rcnn系列网络占用内存小,只需占用2g显存,可用于无人机机载硬件平台以及其他硬件资源不足的设备上;改进后的yolov4比原版网络平均交并比改进以后提升了5.26%,精确率比原版提升了3.30%,改进后的召回率提升了1.08%。附图说明图1为基于yolov4的无人机场景检测方法流程图。图2为yolov4网络框架图。图3为yolov4网络详细结构图。图4为损失函数随着模型迭代训练次数变化的关系图。具体实施方式为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。本发明公开了一种基于yolov4的无人机场景检测方法,本发明中提供的无人机场景检测模型相对于现有的模型,占用内存小,只需占用2g显存,并且模型经过训练后整体性能得到了较好的提升。实施例1参见图1、图2和图3,本实施例1公开了一种基于yolov4的无人机场景检测方法,包括:s1、建立专有数据集;按照9:1的比例划分训练集和测试集;专有数据集的数据来自基础数据样本,基础数据样本通过两种渠道获取,第一种渠道是:截取自无人机拍摄视频形成的图片,第二种渠道是截取自网络上航拍数据集中的图片;图片的种类分为两类,第一类图片是含有涉及汽车、船只、操场、篮球场、桥梁、港口六种目标至少一种目标的图片,第二类图片是均不含有汽车、船只、操场、篮球场、桥梁、港口六种目标的图片。对上述图片中的目标进行标签,在本实施例中,对图片中的目标进行标签这一动作可以是使用labelimg标签工具或者其他具有相同功能的标签工具,labelimg标签工具输出的文件格式是xml文件,因为yolo训练的标签文件是txt格式,所以需要再将xml文件转换化为txt格式,可以通过手动转化,或者工具进行批量转化,具体标签包括:类别,中心点横坐标,中心点纵坐标,目标宽度和目标长度。最后采用数据增强方法对上述经过标签的图片和未经过标签的图片进行扩充,得到专有数据集,专有数据集共有1000张图片。s2、建立网络结构,网络结构基于改进的yolov4网络,以cspdarknet53作为主干网络,空间金字塔池化模块和路径聚合网络模块作为颈部,yolov3作为头部预测输出;网络结构的框架图请参照图2和图3;多通道(csp)只将特征图的一部分直接进行卷积操作,其卷积结果和另一部分原始特征进行组合,可以增强神经网络的学习能力,能够在轻量化的同时保持准确性、降低计算瓶颈、降低内存成本。空间金字塔池化模块将空间金字塔匹配特征法集成到卷积神经网络上,无论输入图像的尺寸多大,空间金字塔池化模块均可以产生固定大小的输出。路径聚合网络模块在进行上采样后又进行下采样,改善了神经网络中信息的流通路径,加强了特征金字塔。s3、首先使用imagenet大型数据集对s2步骤中得到的网络结构进行训练,得到预训练模型,所述预训练模型含有多种物体相关的初始化特征参数,然后在对网络结构进行特定训练参数设定;具体的说,上述特定训练参数为:每批次送入网络的图片数batch=64,每张图的大小为608x608,批次细分subdivision=16,以减小显存占用,最大批次数为20000次,初始学习率为0.0013。s4、向预训练模型输入训练集进行迭代训练,直到损失函数收敛,损失函数的收敛值为0.5,得到无人机场景检测模型,根据根据图4的训练损失函数形状可知,学习率设置合理,训练占用显存2g,相比两阶段的目标检测框架更加省计算资源。训练后得到的模型的整体性能指标如表1所示,平均交并比改进以后提升了5.26%,精确率比原版提升了3.30%,改进后的召回率提升了1.08%,map@0.5达到93%。表1性能指标精确率召回率平均交并比map@0.5yolov40.910.930.760.89改进yolov40.940.940.800.93s5、使用上述测试集对无人机场景检测模型进行测试,并且判断是否符合要求,若不符合,继续进行s4步骤,继续进行迭代训练直到测试结果符合要求;具体的话,所述要求是指map@0.5达到93.33%及以上。s6、输出符合要求的无人机场景检测模型。s7、使用步骤s6中符合要求的无人机场景检测模型对序列图像进行目标检测,具体的说,无人机通过机载摄像头拍摄的视频传输到地面站后,地面站在对序列中的图像进行检测,识别出无人机所处场景。本发明未详述之处,均为本领域技术人员的公知技术。以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本
技术领域
中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1