一种基于卷积神经网络的远场无线充电接收目标检测方法与流程

文档序号:17443637发布日期:2019-04-17 05:10阅读:247来源:国知局
一种基于卷积神经网络的远场无线充电接收目标检测方法与流程

本发明涉及计算机视觉领域,尤其是涉及一种基于卷积神经网络的远场无线充电接收端目标检测方法。



背景技术:

近些年电子设备的供电需求不断增长,而电池的续航能力已到达瓶颈,无线充电由此得到越来越多的关注。但传统的无线充电方案,如:磁共振、磁感应和微波充电等,面临着距离、功率、安全性和移动性等方面的挑战。有别与传统充电方案,rbc(resonantbeamcharging)远场无线充电技术使用激光作为传输媒介,能实现米级距离,瓦级功率的安全、可移动能量传输。

在能量传输链路建立前,rbc的发送端必须知道接收端的位置信息,即明确往哪个方向传输能量。现有的接收端定位方案是一个遍历扫描的过程:发射端通过激光扫描整个场景,当接收端收到激光信号后发送反馈信号给发送端,完成配对。遍历扫描过程的效率很低,一种更高效的方案是先对接收端做预定位从而提高配对效率。



技术实现要素:

本发明的目的就是为了克服上述现有技术存在的缺陷而提供将计算机视觉中的目标检测方法应用于远场无线充电接收端的定位,提高发发射端与接收端配对的效率:通过摄像头获取接收端场景图片,传入深度卷积神经网络检测,得到可能存在接收端的区域,再对预检测的区域激光扫描确认,从而提高对rbc接收端定位的效率的一种基于卷积神经网络的远场无线充电接收端目标检测方法。

本发明的目的可以通过以下技术方案来实现:

一种基于卷积神经网络的远场无线充电接收端目标检测方法,包括以下步骤:

步骤1:建立手机数据集,并将将手机数据集输入经过设计的深度卷积神经网络进行训练,得到用于检测手机目标的训练完成的深度卷积网络;

步骤2:将训练完成的深度卷积网络嵌入于远场无线充电rbc控制系统中;

步骤3:将摄像头拍摄的画面输入训练完成的深度卷积网络,获取多个手机目标可能存在的位置;

步骤4:对获取到的位置进行激光扫描,判定定位结果是否准确。

进一步地,其特征在于,所述步骤1中的深度卷积神经网络的模型框架内包括rpn层、roialign层、lossfunction层和resnet101+fpn层,所述步骤1中的深度卷积神经网络的模型框架基于resnet101提取图像特征,结合fpn增强对小目标检测,包含特殊设计的rpn层和roialign层。

进一步地,所述rpn层的输入为特征图featuremaps,输出为类别数k个anchorboxes的变换矩形参数以及目标得分,所述变换矩形参数包括矩形中心坐标(x,y)以及矩形长h和宽w,其中k为自然数。

进一步地,所述lossfunction层包括多任务损失函数,其具体公式为:

l=lcls+lbox+lmask

式中,l为多任务损失函数,lcls为分类误差,lbox为检测误差,lmask为分割误差。

进一步地,所述步骤1的数据集包括训练集和测试集,所述训练集和所述测试集均包括随机的不同姿态不同场景不同型号条件下各自相互组合下的图片,所述图片的数量为2000张,所述训练集的图片数量为1200张,所述测试集的图片数量为800张,所述不同场景包括教室、办公室和宿舍,所述不同型号为包含iphone与安卓的8款手机型号,所述图片均还通过labelme工具设置有位置标签。

进一步地,所述步骤1的深度卷积神经网络的运行速率为5fps,其准确率大于等于60%。

与现有技术相比,本发明具有以下优点:

(1)区别于传统的遍历扫描定位方案,本专利先视觉检测预定位,再激光确认定位,提高了发送端与接收端配对的效率;

(2)区别于传统的微波定位、声波定位方案,本专利使用深度卷积神经网络,只需要增加一个摄像头,不需要额外的设备就能检测,核心依赖视觉算法,检测准确率高且不会因为仪器老化而影响检测效果。

(3)区别与传统的目标检测网络,本专利设计了专门适用于远场无限充电的接收端目标检测网络,注重对小目标的检测和运行速度。

附图说明

图1为本发明中深度卷积神经网络的模型架构示意图;

图2为本发明的方法流程示意图;

图3为本发明的深度卷积神经网络的检测准确率的测试结果示意图;

图4为本发明的检测定位时间的测试结果示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。

实施例

远场无线充电系统rbc的接收端可以是电脑、台灯或各种物联网设备,如果训练神经网络时考虑所有种类的接收端是一个庞大的工程。而手机是最常见且最重要的充电对象,因此在实现方案时以手机作为rbc接收端的代表,如图2所示为本发明方法的实现过程:1)首先建立手机数据集;2)将数据集放入设计过的深度卷积神经网络中训练,得到专门检测手机目标的深度卷积网络;3)将训练完成的网络嵌入到rbc的控制系统中;4)把摄像头拍摄的画面放入网络中分析,得到若干个手机目标可能存在的位置;5)对预定位得到的位置进行激光扫描,确认定位结果。

本实施例借鉴借鉴maskrcnn框架为基础做修改,主干网使用resnet101+fpn,使用自制数据集训练,得到适用于的远场无线充电手机目标检测的深度卷积模型,运行速率5fps,准确率在60%以上,使扫描定位时间缩小到遍历扫描的三分之一。

对于手机检测的流程:

1.充电发射端打开摄像头,获取接收端所在区域的图像;

2.把图像数据传入训练好的深度卷积神经网络检测;

3.检测完得到若干个可能包含手机目标的区域;

4.发射端向每个检测到的区域发射激光扫描,确认得到接收端位置。

卷积神经网络结构:

本实施例以maskrcnn为基础,对网络内的参数作出调整,整体的模型架构如图1所示,包括rpn层、roialign层、lossfunction层(之后进一步结合并输出作为fixedfeaturemap层)和resnet101+fpn层,其中,mask分支对于目标检测的准确率提升有帮助,因此结构上保留了mask分支,具体对于每层的构建描述如下:

rpn层:

maskrcnn的中的rpn网络来源于fasterrcnn,输入特征图featuremaps,输出类别数k个anchorboxes的变换矩形中心坐标(x,y)以及矩形长h和宽w,其中k为自然数。

anchorbox是rpn网络为预测候选区域矩形框做的设计,rpn网络的每个滑动窗口都对应原图片的一块区域,anchorbox就是在原图片该区域上统一初始化的类别数k个box,rpn网络通过对anchorbox平移、缩放来预测可能的目标区域。

roialign层:

roialign层的输入是经过卷积的特征图和rpn输出的anchorbox相对于原图的变化矩阵,通过对anchorbox的处理,在特征图上截取对应的区域,输出固定大小的roi区域。

roialign层是对roipooling层的改进,解决了roipooling在量化操作中造成的区域不匹配的问题。roialign取消了量化操作,使用双线性内插的方法获得坐标为浮点数的像素上的图像数值,从而讲整个特征图聚集过程转化为一个连续的操作。值得注意的一点是,roipooling的不匹配对于目标检测来说,造成的误差可以接受,而主要是对mask的预测有重大影响。因此通过对roi量化的改进,提高了mask的预测结果。

lossfunction层:

lossfunction层包括多任务损失函数,其具体公式为:

l=lcls+lbox+lmask

式中,l为多任务损失函数,lcls为分类误差,lbox为检测误差,lmask为分割误差。

每个roi生成类别数k个m*m的mask,m对应为roialign的池化分辨率,lmask通过逐像素的sigmoid计算得到,本层之后与先前的输入featuremaps相结合,并生成fixedfeaturemap层。

resnet101+fpn层:

主干网由resnet101结合fpn构成,resnet提取图像特征,从原始图像到网络深处的特征图,高级特征越来越丰富,而空间信息越来越少,因此对于小目标的检测很难实现。fpn的引入就是为解决多尺度检测问题,通过简单的网络连接改变,在基本不增加原有模型计算量的情况下,大幅度提升了小物体检测的性能。

fpn网络直接在原来的单网络上做修改,每个分辨率的featuremap引入后一分辨率缩放两倍的featuremap做element-wise相加的操作。通过这样的连接,每一层预测所用的featuremap都融合了不同分辨率、不同语义强度的特征,融合的不同分辨率的featuremap分别做对应分辨率大小的物体检测。这样保证了每一层都有合适的分辨率以及强语义特征,大幅度提升了小物体检测的性能。

本实施例针对真实场景中的充电接收端目标检测,有两个创新点:1)注重对小目标的检测,因为在真实场景中,接收端在摄像头拍摄的画面中会很小;2)系统的实时性好,检测速度块,让充电系统能更快地定位目标,提高用户体验,相比于传统的微波定位、声波定位等方法,基于视觉的手机粗定位方案只需确保发射端有摄像头,不需要在接收端增加多余设备,检测的准确度依赖于深度学习算法而不用担心硬件带来的误差。长远来说,远场无线充电与视觉的结合不局限于手机定位,更大可以是实现智能充电,具有重大应用价值。

本实施例的具体实验验证过程如下:

制作数据集:

本发明关注的问题是手机目标检测,图像中只区分背景和手机,而通用的目标检测数据集如voc、coco都适用于多目标的检测,手机目标检测为远场无线充电服务,应用于室内的真实场景,因此采集了教室、办公室、宿舍等多个不同室内场景的图片,另外为了能检测不同款式的智能手机,数据图片包含了iphone与安卓的8款手机型号(当然现在手机外形大同小异,8款虽然少但并不会造成严重的过拟合),采集过程中尽可能地保留了手机的不同姿态,如正对镜头,握在手中,侧对镜头,多部手机叠放在一起等情景,实验最终拍摄了1000张原始数据图片,加上左右对称变换做图像增强,一共得到2000张数据图片,再借助labelme工具为每幅图片打上手机位置的标签,最后随机取1200张图片用于训练,剩下800张图片用于测试。

深度卷积模型的训练:

模型的权重根据maskrcnn在mscoco上训练得到的结果初始化,采用了迁移学习的思想,这意味着参数在初始化的时候已经是在几万张图片上训练了很多天后的结果,网络本身已经具有了强大的特征提取和分类能力,而1200张用于在原先的基础上微调,让输出结果更加针对手机检测,训练过程分两步走,首先对网络模型的前几层头部分支进行训练,增强对手机目标的特征提取能力,接着对所有层微调,学习率选取更小的值,在训练集上训练使损失函数减小,之后切换到测试集上测试,记录当下测试集上的损失函数值,再切换到训练集上训练,最终取合适的训练结果,在训练集和测试集上都有很好的表现,防止欠拟合与过拟合。

模型检测准确率实验:

以上述制作的数据集与训练过程为例,测试模型的平均检测准确率ap(averageprecision),实验的测试集包括800张图片,测试不同的iou(intersectionoverunion)阈值(从0.5到0.95,步长0.05,共10个值)下检测的准确率,具体结果如图3所示,由图可知:

图中的map(meanaverageprecision)是10次检测的平均值,map为57.66%,比maskrcnn在coco测试集上的38.2%准确率高很多,有三个原因导致了模型的高检测率:

一、模型的分类任务属于二分类,而常见的目标分类大多是多分类,因此预设任务更加简单,如果需要检测充电的所有种类的接收端,那么模型的检测准确率会相应地下降。

二、测试集在制作的时候包含较多的大目标(占图像面积的比例,是相对大小),而大目标上是更易检测的,因此模型最后的ap值更高,后续需要更关注小目标的检测,增加更多的小目标图片数据。

三、数据集在采集的时候,所属的场景比较单调,多以教室、办公室和宿舍为主。因此训练集和测试集有冗余,导致检测的准去率上升。

检测定位时间对比实验:

以一个实际应用为例,对比传统遍历扫描所需时间与本模型检测方案检测所需的时间,传统的遍历扫描方案将扫描区域分成n个小区间,逐个扫描,没扫描一个区间需要的时间是ts,因此检测的平均时间t1如下式,其中n为自然数:

本实施例的平均检测时间为t2,1)首先需要td的时间检测图片,检测的准确率是ap;2)在检测出的目标区域先扫描,如果确认检测到目标则完成检测;3)如果没有检测到目标,则遍历剩下的区域,t2的具体表达式为:

在rbc系统中,n通常取64,每个区域需要约ts=2s的时间扫描,本实施例的模型检测时间每张图需要td=0.2s,图4展示了不同iou(intersectionoverunion)下(ap不同)的检测时间t2,同时也标注了t1。

t1计算得65s,以ap为0.7举例,t2等于21.4秒,因此本实施例的模型将传统的扫描定位时间缩小到了三分之一。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1