一种车辆查找方法、装置、存储介质及终端与流程

文档序号:24790953发布日期:2021-04-23 14:12阅读:82来源:国知局
1.本申请涉及计算机
技术领域
:,具体涉及一种车辆查找方法、装置、存储介质及终端。
背景技术
::2.随着科技的发展和进步,城市规模不断扩大、车辆数量大幅增长,车辆停放成为居民出行的首要解决问题。因此,停车场智能化的趋势越来越明显。且随着人工智能(artificialintelligence,ai)技术的不断发展,将ai技术应用到停车系统领域中是智能停车系统领域的研究新方向,可以使得停车系统体验更智能、更友好,与用户有更多的交互。3.相关技术中,当车辆驶入停车场时,通过识别车辆图像得到车辆的车牌信息,然后在车辆入场后,通过停车场内设置的通信装置与车辆实时通信来获取车辆的停车位置发送至车辆终端,使得用户根据该接收到的停车位置查找自己的车辆。4.在对相关技术的研究和实践中,本申请的发明人发现,现有技术中,在车辆停放过程中,当车辆终端与停车场的通信设备建立通信连接时,需要获取车辆终端的用户信息,才能将当前车辆与进场时识别到的车牌信息进行绑定,从而将位置信息发送至正确的车辆。因此,现有的方式操作繁琐,导致停车系统效率较低。技术实现要素:5.本申请实施例提供一种车辆查找方法、装置、存储介质及终端,可以提高车辆查找效率。6.本申请实施例提供了一种车辆查找方法,包括:7.采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;8.若识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;9.获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;10.当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配;11.若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。12.相应的,本申请实施例还提供了一种车辆查找装置,包括:13.采集单元,用于采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;14.确定单元,用于若识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;15.关联单元,用于获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;16.发送单元,用于当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配;17.操作单元,用于若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。18.相应的,本申请实施例还提供了一种存储介质,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行如上所述的车辆查找方法。19.相应的,本申请实施例还提供了一种终端,包括处理器和存储器,所述存储器存储有多条指令,所述处理器加载所述指令以执行如上所述的车辆查找方法。20.本申请实施例通过训练后模型对采集到的目标图像进行识别,当时别出目标图像中存在目标车辆时,提取目标车辆的车辆信息,并将车辆信息与当前车位的位置信息进行关联,以使用户可以在指定应用界面输入车辆信息,确定车辆信息关联的位置信息,从而快速确定目标车辆的位置信息,提高车辆查找效率。附图说明21.为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。22.图1为本申请实施例提供的一种车辆查找方法的流程示意图。23.图2为本申请实施例提供的一种图片分割示意图。24.图3为本申请实施例提供的一种张量预测结果得到的张量结构示意图。25.图4为本申请实施例提供的一种车辆与停车位置的示意图。26.图5为本申请实施例提供的另一种车辆查找方法的流程示意图。27.图6为本申请实施例提供的一种车辆查找装置的结构框图。28.图7为本申请实施例提供的另一种车辆查找装置的结构框图。29.图8为本申请实施例提供的另一种车辆查找装置的结构框图。30.图9为本申请实施例提供的另一种车辆查找装置的结构框图。31.图10为本申请实施例提供的另一种车辆查找装置的结构框图。32.图11为本申请实施例提供的终端的结构示意图。具体实施方式33.下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。34.基于上述问题,本申请实施例提供一种车辆查找方法、装置、存储介质及终端,可以提高车辆查找效率。以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。35.请参考图1,图1为本申请实施例提供的一种车辆查找方法的流程示意图。该车辆查找方法可以应用于诸如手机、平板电脑、笔记本电脑,掌上电脑、便携式媒体播放器(portablemediaplayer,pmp)等移动终端,以及诸如台式计算机等固定终端。该车辆查找方法的具体流程可以如下:36.101、采集当前场景下的目标图像,并基于训练后模型对目标图像进行识别。37.在本申请实施例中,以该车辆查找方法应用于检测设备为例进行说明。具体的,检测设备用于识别车辆以及定位车辆信息等。该检测设备可以对目标图像进行识别,检测目标图像中存在的物体。38.其中,目标图像指的是包括有物体的图像,目标图像中可以包括各种物体类型的物体。比如,物体类型可以包括车辆类型,人物类型等等。该目标图像可以通过多种方式采集,比如,可以通过摄像头拍摄、网上下载、其他设备发送等。39.在本申请实施例中,为了提高目标图像识别结果的准确性,可以通过摄像头采集目标图像。其中,摄像头可以为tof(timeofflight,飞行时间测距法)摄像头。该tof摄像头可以设置在检测设备中,通过摄像指令触发检测设备的tof摄像头采集目标图像。40.tof指的是由一组人眼看不到的红外光(激光脉冲)向外发射,遇到物体后反射,反射到摄像头结束,计算从发射到反射回摄像头的时间差或相位差,并将数据收集起来,形成一组距离深度数据,从而得到一个立体的3d(3dimensions,三维)模型的成像技术。41.tof摄像头存在如下优点:在拍摄照片时,将景深拍的更真实,不再依赖算法虚化背景;在物体识别方面也更精准,可以扫描镜头前面的物体,识别手势,室内导航等,增强手机的感知能力;在ar(augmentedreality,增强现实)体验上肯定会有所改善,有一些具有ar的游戏中,对人体姿势及手势的识别也更为精准;在具有一些需要深度扫描的应用中,也能更突出细节。因此,通过tof摄像头采集目标图像,可以获取到目标图像中的各物体的3d模型,提高图像识别效率。42.其中,训练后模型指的是使用人工智能的各种算法对采集的数据做模型的训练,生成用于检测图像中物体类型的神经网络模型。43.例如,物体类型可以包括第一类型、第二类型等,将采集的目标图像导入训练后模型中进行物体类型检测,若检测出目标图像存在第一类型的物体,则可以确定该目标图像中存在的物体类型为第一类型。44.其中,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。45.人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大身份验证技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。46.本申请实施例中的训练后模型,主要涉及人工智能技术中的机器学习/深度学习技术。47.其中,机器学习(machinelearning,ml)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。48.深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习是无监督学习的一种。深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。此后提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。49.神经网络(neuralnetworks,nn)是由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学习系统。神经网络具有大规模并行、分布式存储和处理、自组织、自适应和自学能力,特别适合处理需要同时考虑许多因素和条件的、不精确和模糊的信息处理问题。神经网络的发展与神经科学、数理科学、认知科学、计算机科学、人工智能、信息科学、控制论、机器人学、微电子学、心理学、光计算、分子生物学等有关,是一门新兴的边缘交叉学科。50.神经网络模型是以神经元的数学模型为基础来描述的。人工神经网络(artificialneuralnetworks,anns),是对人类大脑系统的一阶特性的一种描。简单地讲,它是一个数学模型。神经网络模型由网络拓扑.节点特点和学习规则来表示。神经网络对人们的巨大吸引力主要在下列几点:并行分布处理;高度鲁棒性和容错能力;分布存储及学习能力;能充分逼近复杂的非线性关系。51.在一些实施例中,为了提高对目标图像识别的准确性,在步骤“基于训练后模型对目标图像进行识别”之前,还可以包括以下步骤:52.获取多个待处理图像集合;53.将多个待处理图像集合添加至训练样本集中,54.根据训练样本集对预设神经网络模型进行训练,得到所述训练后模型。55.在本申请实施例中,获取多个待处理图像集合的目的是训练不同物体的识别模型,以便于对目标图像进行识别时可以快速识别出目标图像中的物体。56.其中,属于同一待处理图像集合的待处理图像中存在有相同的物体。57.例如,待处理图像集合可以包括:第一图像集合、第二图像集合等。其中,第一图像集合中的待处理图像中存在的物体可以为车辆,第二图像集合中的待处理图像中存在的物体可以为人物。58.其中,训练样本集指的是用来进行模型训练的样本集合。59.比如,可以将第一图像集合添加至第一训练样本集,第一训练样本集可以用来对车辆进行识别训练;可以将第二图像集合添加至第二训练样本集,第二训练样本集可以用来对人物进行识别训练。60.其中,预设神经网络模型可以根据实际应用的需求进行设定,以该结构为卷积神经网络(cnn,convolutionalneuralnetwork)为例,该结构可以包括卷积层(convolutionlayers)和全连接层(fc,fullyconnectedlayers)等。61.卷积神经网络(convolutionalneuralnetwork,cnn)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(poolinglayer)。这一结构使得卷积神经网络能够利用输入数据的二维结构。62.其中,卷积层,卷积神经网络中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。全连接层,用于连接所有的特征,将输出值送给分类器(如softmax分类器)。63.卷积层:主要用于对输入的图像(比如训练样本或需要识别的图像)进行特征提取(即将原始数据映射到隐层特征空间),其中,卷积核大小可以根据实际应用而定。比如,卷积层可以包括四个,从第一层卷积层至第四层卷积层的卷积核大小依次可以为(7,7),(5,5),(3,3),(3,3)。可选的,为了降低计算的复杂度,提高计算效率,这四层卷积层的卷积核大小也可以都设置为(3,3)。可选的,为了提高模型的表达能力,还可以通过加入激活函数来加入非线性因素。64.其中,激活函数(activationfunction),就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。比如,常用的激活函数包括:sigmoid函数、tanh函数、relu函数等。在本申请实施例中,可以采用leakyrelu激活函数(带泄露修正线性单元函数是经典的relu激活函数的变体,该函数输出对负值输入有很小的坡度)。65.全连接层:可以将学到的“分布式特征表示”映射到样本标记空间,其在整个卷积神经网络中主要起到“分类器”的作用,全连接层的每一个结点都与上一层(如卷积层中的下采样层)输出的所有结点相连,其中,全连接层的一个结点即称为全连接层中的一个神经元,全连接层中神经元的数量可以根据实际应用的需求而定;可选的,在全连接层中,也可以通过加入激活函数来加入非线性因素,比如,可以采用leakyrelu激活函数。66.例如,可以将第一训练样本集与第二训练样本集分别添加至卷积神经网络中,进行模型识别训练,得到训练后模型。该训练后模型可以包括第一图像集合中的物体的特征信息以及第二图像集合中的物体的特征信息。67.在一些实施例中,为了提高对模型训练的效率,步骤“根据训练样本集对预设神经网络模型进行训练”,可以包括以下操作:68.将训练样本集中的每一待处理图像分割为多个单元格;69.确定待处理图像中目标物体的中心点所处的单元格,得到目标单元格;70.通过目标单元格对目标物体的位置以及类别置信度进行预测,得到预测值;71.计算预测值与真实值的差值,并基于差值调整预设神经网络模型的模型参数,直至预设神经网络模型收敛。72.在本申请实施例中,对预设神经网络模型进行训练可以采用yolo(youonlylookonce:unified,real‑timeobjectdetection,yolo算法的特点:youonlylookonce说的是只需要一次cnn运算,unified指的是这是一个统一的框架,提供end‑to‑end的预测,而real‑time体现是yolo算法速度快)算法实现。73.其中,yolo算法的实现原理如下:首先将输入图片resize(调整大小)到448x448,然后将调整后图片送入cnn网络进行处理,最后处理网络预测结果得到检测的目标。74.具体的,yolo的cnn网络将输入的图片分割成sxs网格,然后每个单元格负责去检测那些中心点落在该格子内的目标。75.例如,请参见图2,图2为本申请实施例提供的一种图片分割示意图。在图2中,将输入图像t分割为7x7的网格,目标物体a位于图片左下角,目标物体a的中心点b位于单元格c中。其中,每一单元格的边长可以为数值1。76.在图2中,可以看到目标物体a的中心点b落在左下角一个单元格c内,那么该单元格c负责预测这个目标物体a。每个单元格会预测b个边界框(boundingbox)以及边界框的置信度(confidencescore)。77.其中,置信度其实包含两个方面,一是这个边界框含有目标的可[0078][0079]能性大小,二是这个边界框的准确度。前者记为pr(object),当该边界框是背景时(即不包含目标),此时pr(object)=0。而当该边界框包含目标时,pr(object)=1。边界框的准确度可以用预测框与实际框(groundtruth)的iou(intersectionoverunion,交并比)来表征,记为:[0080]因此,置信度可以定义为:[0081][0082]其中,边界框的大小与位置可以用4个值来表征:(x,y,w,h)。其中,(x,y)是边界框的中心坐标,而w和h是边界框的宽与高。其中,中心坐标的预测值(x,y)是相对于每个单元格左上角坐标点的偏移值,并且单位是相对于单元格大小的。[0083]比如,在图2中,单元格b在图片中的位置为:第六行第二列。每一单元格的边长为数值1,若中心点b相对于单元格c的偏移值分别为0.5,0.6,则可以确定中心点b的坐标为(0.5,0.6)。[0084]在一些实施例中,为了保证计算中心坐标偏移的准确性,可以采用如下计算方式:[0085]bx=σ(tx)+cx[0086]by=σ(ty)+cy[0087][0088][0089]上述公式中:tx、ty分别表示预测的坐标偏移值,经过sigmoid变换。cx、cy表示的是预测bbox的中心点坐标。tw、th表示宽和高尺度缩放。bx、by表示预测出的bbox的中心点坐标。bw、bh表示预测出的bbox的宽和长。pw、ph指的是anchorbox(边界框)经过缩小之后,映射到feature(特征)中的宽和高。[0090]其中,每个单元格在featuremap中的宽和高均为1。cx、cy在featuremap中是单元格的左上角坐标。pw、ph是anchorbox经过缩小之后,映射到feature中的宽和高,是通过原始坐标/stride后得到的,其中stride代表每个像素对应原图的大小。在本申请实施例中,预设神经网络学习的是tx、ty、tw、th这四个参数。[0091]其中,边界框的w和h预测值是相对于整个宽与高的比例,这样理论上4个元素的大小应该在[0,1]范围。基于此,每个边界框的预测值实际上包含5个元素:(x,y,w,h,c),其中前4个表征边界框的大小与位置,而最后一个值是置信度。[0092][0093]具体的,对于每一个单元格其还要给出预测出c个类别概率值,其表征的是由该单元格负责预测的边界框其目标属于各个类别的概率。但是这些概率值其实是在各个边界框置信度下的条件概率,即pr(classi|object)。值得注意的是,不管一个单元格预测多少个边界框,其只预测一组类别概率值。同时,我们可以计算出各个边界框类别置信度(class‑specificconfidencescores):[0094]其中,边界框类别置信度表征的是该边界框中目标属于各个类别的可能性大小以及边界框匹配目标的好坏。[0095]具体的,每个单元格需要预测(b*5+c)个值。如果将输入图片划分为sxs网格,那么最终预测值为sxsx(b*5+c)大小的张量。对于pascalvoc数据(为图像识别和分类提供了一整套标准化的优秀的数据集,训练集以带标签的图片的形式给出。这些物体包括20类),其共有20个类别,如果使用s=7,b=2,那么最终的预测结果就是7x7x30大小的张量。[0096]进一步的,yolo采用卷积网络来提取特征,然后使用全连接层来得到预测值。网络结构参考goolenet模型,包含24个卷积层和2个全连接层。对于卷积层,主要使用1x1卷积来做channlereduction(通道减少),然后紧跟3x3卷积。对于卷积层和全连接层,采用leakyrelu激活函数:max(x,0.1x)。但是在最后一层采用线性激活函数。[0097]其中,请参见图3,图3为本申请实施例提供的一种张量预测结果得到的张量结构示意图。在图3中,张量z所代表的具体含义为:对于每一个单元格,前20个元素是类别概率值,然后2个元素是边界框置信度,两者相乘可以得到类别置信度,最后8个元素是边界框的(x,y,w,h)。[0098]在本申请实施例中,在对预设神经网络模型的训练过程中,当获取到预测值之后,可以计算预测值与真实值的差值,基于该差值对预设神经网络中的模型参数进行收敛,即可以得到训练后模型。其中,真实值指的是图像中目标物体的真实位置以及真实类别。[0099]具体可以采用预设损失函数对预测结果与真实结果进行收敛,得到训练后模型。在本申请实施例中,使用的损失函数计算如下:[0100][0101]其中,第一项是边界框中心坐标的误差项,指的是第i个单元格存在目标,且该单元格中的第j个边界框负责预测该目标。第二项是边界框的高与宽的误差项。第三项是包含目标的边界框的置信度误差项。第四项是不包含目标的边界框的置信度误差项。而最后一项是包含目标的单元格的分类误差项,指的是第i个单元格存在目标。置信度的target值ci,如果不存在目标,此时由于pr(object)=0,那么ci=0。如果存在目标,pr(object)=1,此时需要确定置信度:[0102][0103]例如,预测一张输入图片。根据前面的分析,最终的网络输出是7x7x30的张量,可以将其分割成三个部分:类别概率部分为[7,7,20],置信度部分为[7,7,2],而边界框部分为[7,7,2,4](对于这部分不要忘记根据原始图片计算出其真实值)。然后将前两项相乘(矩阵[7,7,20]乘以[7,7,2]可以各补一个维度来完成[7,7,1,20]x[7,7,2,1])可以得到类别置信度值为[7,7,2,20],这里总共预测了7*7*2=98个边界框。基于yolo算法,先使用nms(nonmaximumsuppression,非极大值抑制算法),然后再确定各个box(边界框)的类别。对于98个boxes,首先将小于置信度阈值的值归0,然后分类别地对置信度值采用nms,这里nms处理结果不是剔除,而是将其置信度值归为0。最后才是确定各个box的类别,当其置信度值不为0时才做出检测结果输出。[0104]在一些实施例中,为了提高对目标图像的识别效率,步骤“基于训练后模型对目标图像进行物体类型识别”,可以包括以下操作:[0105]提取目标图像中的物体的特征信息;[0106]根据训练后模型计算特征信息与每一样本特征信息的匹配度;[0107]确定与特征信息匹配度最高的样本特征信息对应的物体,得到目标图像中存在的物体。[0108]其中,特征信息包括多个特征点,这些特征点可以用于反映物体的几何尺寸。[0109]其中,训练后模型可以包括多个样本特征信息,不同的样本特征信息可以对应不同的物体。[0110]例如,训练后模型中可以包括第一样本特征信息、第二样本特征信息以及第三样本特征信息。其中,第一样本特征信息对应第一物体,第二样本特征信息对应第二物体,第三样本特征信息对应第三物体。[0111]具体的,可以将目标图像中的物体的特征信息与训练后模型中的样本特征信息进行匹配,计算特征信息与每一样本特征信息的相似度值,也即匹配度。[0112]例如,计算得到:特征信息与第一样本特征信息的相似度可以为20%,特征信息与第二样本特征信息的相似度可以为50%,特征信息与第三样本特征信息的相似度可以为90%,可以确定样本特征信息与第三样本特征信息的相似度最高。进一步的,可以确定第三样本特征信息对应的第三物体为目标图像中的物体。[0113]102、若识别出目标图像中存在车辆,则从目标图像中确定目标车辆。[0114]通过上述方式对目标图像进行识别,若识别出目标图像中的物体的特征信息与车辆的特征信息匹配成功,则可以确定目标图像中存在车辆。[0115]其中,目标车辆指的是目标图像中存在的车辆。[0116]在一些实施例中,为了提高车辆移动过程中的安全性,在步骤“所述从目标图像中确定目标车辆”之后,还可以包括以下步骤:[0117]在目标车辆移动过程中,检测设备获取目标车辆与当前停车位置的边界的距离;[0118]当距离小于预设距离时,检测设备触发警报功能提示用户。[0119]其中,检测设备可以放置于停车位置的边界,该检测设备可以设置有tof摄像头。当目标车辆移动时,检测设备可以通过tof摄像头获取与该目标车辆的距离。[0120]请参见图4,图4为本申请实施例提供的一种车辆与停车位置的示意图。在图4中,目标车辆g在停车位置f中移动,在目标车辆g移动过程中,位于停车位置边界的检测设备e通过安装的tof摄像头采集目标车辆g的图像,从而可以根据图像计算出目标车辆g与停车位置f的边界的距离l。[0121]由于可能存在光线较暗或者其他影响因素,导致目标车辆的倒车影像显示不清晰,用户则无法辨别车尾距离停车位置的边界距离,那么,在倒车过程中可能出现碰撞情况。通过上述方式,可以解决用户无法辨别车尾距离停车位置的边界距离,而且不需要用户自己观看倒车影像来判断,检测设备实时检测车辆与车位边界的距离,当该距离小于预设距离时,检测设备可以触发警报功能,从而可以提示用户当前车辆与车位边界距离小于安全距离,以使用户可以及时调整车辆方向,保证停车安全。[0122]在一些实施例中,为了保证车辆停车的安全性,本申请实施例中的方法还可以包括以下步骤:[0123]若识别出目标图像中存在人物,则生成提示信息,提示信息用于提示当前位置为停车位置。[0124]具体的,通过步骤101中的方式对目标图像进行识别,若识别出目标图像中的物体的特征信息与人物的特征信息匹配成功,则可以确定目标图像中存在人物。[0125]由于当前位置为停车位置,随时可能有车辆在该停车位置进行停放,那么,处于该停车位置的行人可能存在安全隐患。因此,当检测设备识别出目标图像中存在人物时,可以生成提示信息。该提示信息可以包括多种内容,比如,该提示信息的内容可以为“当前位置为停车位置,为保证安全,请远离当前位置”等。[0126]进一步的,提示信息的提示方式可以包括多种。比如,检测设备可以包括麦克风设备,通过该麦克风可以播放提示信息,以达到更好的提示效果。[0127]103、获取目标车辆的车辆信息,并将车辆信息与当前停车位置关联。[0128]其中,车辆信息包括目标车辆的车牌信息、目标车辆的用户信息。车牌信息也即车牌号,用户信息可以包括用户身份证号和驾驶证号。[0129]在一些实施例中,为了快速获取目标车辆的车辆信息,步骤“获取目标车辆的车辆信息”,可以包括以下流程:[0130]获取目标车辆的车牌图像;[0131]从车牌图像中提取车辆的车牌信息;[0132]从多个样本车辆信息中,确定车牌信息对应的样本车辆信息,得到目标车辆的车辆信息。[0133]其中,车牌图像指的是目标图像中含有车牌区域块的图像。该车牌图像可以从目标图像中提取。[0134]具体的,可以对目标图像进行图像识别处理,当识别出存在车牌时,从目标图像中裁剪车牌区域,即可以得到车牌图像。[0135]在确定车牌图像后,可以从该车牌图像中提取字符内容,即可以得到目标车辆的车牌信息。[0136]例如,该车牌图像中包括的内容为:“we2367”,则可以确定目标车辆的车牌号为“we2367”。[0137]其中,检测设备中可以存储有车辆信息库,该车辆信息库中包括多个样本车辆信息,不同的样本车辆信息对应不同的车辆。[0138]当获取到目标车辆的车牌信息之后,可以将该车牌信息与每一样本车辆信息中的样本车牌信息进行匹配,将与车牌信息匹配成功的样本车牌信息对应的样本车辆信息作为目标车辆的车辆信息。[0139]在一些实施例中,为了方便用户快速查找自己的车辆,步骤“将车辆信息与当前停车位置关联”,可以包括以下操作:[0140]获取目标车辆所处车位的车位信息;[0141]基于车位信息确定目标车辆的停车位置;[0142]将车辆信息与停车位置进行关联。[0143]其中,车位信息包括车位编号以及车位位置。车位位置也即停车位置。[0144]具体的,每一车位可以设置一个检测设备,该检测设备中存储有当前车位的车位信息。当检测设备检测到有目标车辆在当前车位进行停车时,则可以根据存储的当前车位的位置信息确定目标车辆的停车位置。进一步的,将目标车辆的车辆信息与当前车位的停车位置关联,以便于用户后续快速查找目标车辆。[0145]104、当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配。[0146]其中,用户终端指的是用户使用的可移动智能设备,比如,用户终端可以为手机等。当用户终端接收到用户在指定应用界面的输入操作时,向检测设备发送输入操作的输入信息。[0147]其中,指定应用指的是实现车辆查找功能的应用程序,指定应用界面则是该指定应用的操作界面。[0148]比如,指定应用界面可以为指定应用的输入界面等。[0149]其中,输入操作指的是用户在指定应用界面执行信息输入的操作,输入操作的方式可以包括多种。[0150]比如,输入操作可以为触摸输入,语音输入等多种输入方式,在此不作限定。[0151]其中,输入信息指的是用户输入操作输入的内容,输入信息可以包括:文字、数字、字母、符号等等。[0152]例如,当用户终端检测到用户在指定应用界面的输入操作时,可以获取当前输入操作对应的输入信息,也即车牌号。然后将获取的输入信息发送至检测设备。以使检测设备对该输入信息进行判断。[0153]其中,待查询车辆信息指的是用户终端接收到用户输入的车牌号。[0154]例如,用户终端检测到用户在指定应用界面输入:gh2678,得到待查询车辆信息为:gh2678。然后将该待查询车辆信息发送至检测设备,检测设备即可以对该待查询车辆信息进行判断。[0155]105、若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。[0156]当检测设备接收到用户终端发送的待查询车辆信息后,可以将待查询车辆信息与目标车辆的车辆信息进行匹配。若待查询车辆信息与目标车辆的车辆信息匹配成功,则可以将该车辆信息关联的停车位置发送至用户终端,以使用户终端可以根据该停车位置进行导航操作,从而准确查找到停放车辆的位置,提高用户体验。[0157]例如,检测设备获取待查询车辆信息的内容可以为“gh2678”,然后检测设备将该待查询车辆信息与车辆信息进行匹配,若存在车辆信息中包括“gh2678”,则可以确定待查询车辆信息与车辆信息匹配成功。进一步的,检测设备可以获取与该车辆信息关联的停车位置,若为第一停车位置,则可以将该第一停车位置发送至用户终端。[0158]当用户终端接收到检测设备发送的停车位置后,可以启动导航应用,将该停车位置作为目的地开始执行导航操作,将用户引导至车辆位置。[0159]在一些实施例中,为了提高车辆查找效率,当检测设备将停车位置与车辆信息关联之后,可以将该关联信息发送至用户终端。那么,当用户终端检测到用户在指定应用界面的输入操作时,获取输入操作的输入信息,然后将输入信息与关联信息中的车辆信息进行匹配,若匹配成功,则可以直接确定停车位置,可以避免检测设备与用户终端之间数据传输较慢时,用户终端需要等待一定时间才能接收到检测设备发送的停车位置,从而提高车辆查找效率。[0160]本申请实施例公开了一种车辆查找方法,该车辆查找方法包括:采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;若识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配;若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。本申请实施例通过训练后模型对采集到的目标图像进行识别,当时别出目标图像中存在目标车辆时,提取目标车辆的车辆信息,并将车辆信息与当前车位的位置信息进行关联,以使用户可以在指定应用界面输入车辆信息,确定车辆信息关联的位置信息,从而快速确定目标车辆的位置信息,提高车辆查找效率。[0161]参考图5,图5为本申请实施例提供的另一种车辆查找方法的流程示意图。该车辆查找方法的具体场景应用可以如下:[0162]201、当检测设备检测到有物体接近时,采集物体图像。[0163]在本申请实施例中,车辆查找方法可以应用于智能停车系统。在停车场的每一车位中可以放置一个检测设备,该检测设备可以为rraspberrypi4b设备。[0164]rraspberrypi4b设备是一款基于arm的微型电脑主板,以sd/microsd卡为内存硬盘,卡片主板周围有1/2/4个usb接口和一个10/100以太网接口(a型没有网口),可连接键盘、鼠标和网线,同时拥有视频模拟信号的电视输出接口和hdmi高清视频输出接口,以上部件全部整合在一张仅比信用卡稍大的主板上,具备所有pc的基本功能只需接通电视机和键盘,就能执行如电子表格、文字处理、玩游戏、播放高清视频等诸多功能。raspberrypib款只提供电脑板,无内存、电源、键盘、机箱或连线。[0165]其中,本申请实施例中的rraspberrypi4b设备中部署有训练后模型,可以实现车辆存在检测以及车辆查找功能。其中,训练后模型的定义可以参见上述实施例,在此不多做赘述。[0166]另外,还可以在检测设备中设置tof摄像头,该tof摄像头用于采集物体图像,还可以用于判断与物体的距离。[0167]其中,检测设备可以通过传感器检测移动物体,然后通过tof摄像头获取与移动物体之间的距离,当检测到与移动物体的距离越来越小时,则可以确定有物体接近,然后可以触发tof摄像头采集该移动物体的图像,得到物体图像。[0168]202、检测设备根据训练后模型对物体图像进行识别,得到识别结果。[0169]当检测设备通过tof摄像头采集到物体图像后,可以基于检测设备中部署的训练后模型对该物体图像进行物体识别,从而可以得到识别结果。具体的,基于训练后模型对物体图像进行物体识别的实现在上一实施例中已做详细说明,可以参见上一实施例。[0170]203、检测设备判断识别结果是否指示物体为车辆。[0171]其中,识别结果指的是检测设备识别出物体图像中的物体类型。检测设备可以根据识别结果中不同的物体类型执行不同的操作。[0172]当检测设备识别出物体图像中的物体为车辆时,可以执行步骤204。[0173]当检测设备识别出物体图像中的物体不为车辆时,可以执行步骤209。[0174]204、检测设备从物体图像中提取车辆的车牌信息。[0175]其中,车牌信息指的是车辆的车牌号,不同车辆的车牌号不相同。[0176]具体的,当检测设备识别出物体图像中的物体类型为车辆时,可以从物体图像中采集该车辆的车牌图像块,然后对该车牌图像块进行内容提取,将提取到的内容作为该车辆的车牌号,也即车牌信息。[0177]例如,检测设备从物体图像中采集到车牌图像块,对该车牌图像块进行内容提取,提取的内容可以为“www888”,则可以确定“www888”为该车辆的车牌号,得到车辆的车牌信息。[0178]205、检测设备获取当前车辆所处停车车位的位置信息,并将车牌信息与位置信息进行关联。[0179]在为每一停车车位设置检测设备时,会将该停车车位的位置信息以及其他车位信息存储至该停车车位对应的检测设备,则每一停车车位的检测设备保存有该停车车位的信息,以便于快速获取停车车位的位置信息。[0180]当检测设备提取到车辆的车牌信息,以及获取到当前车辆所处停车车位的位置信息之后,可以将车牌信息与位置信息进行关联。然后将车牌信息与位置信息的关联关系进行存储。[0181]206、检测设备将关联的车牌信息与位置信息发送至用户终端。[0182]其中,用户终端指的是车辆用户使用的移动智能设备,比如,用户终端可以为智能手机等。[0183]在一些实施例中,为了避免检测设备将车牌信息与位置信息的关联关系发送至错误的用户终端,可以选择车牌信息绑定的用户终端作为目标终端,然后将车牌信息与位置信息的关联关系发送至该目标终端。[0184]207、当用户终端接收到车辆查找指令时,获取与车牌信息关联的位置信息。[0185]其中,车辆查找指令指示用户终端获取车辆的位置信息,该车辆查找指令可以通过用户触发。[0186]比如,用户可以启动指定应用,在指定应用界面进行输入操作,输入车辆的车牌信息。[0187]其中,指定应用可以为智能停车系统中的应用程序,用于实现车辆查找功能。[0188]在用户终端获取到用户在指定应用界面输入的车牌信息后,可以根据车牌信息与位置信息的关联关系,确定该车牌信息对应的位置信息。该位置信息也即为用户车辆的停车位置。[0189]208、用户终端基于位置信息开始执行导航操作。[0190]其中,用户终端安装的指定应用还可以实现导航功能,当确定位置信息后,可以将指定应用界面切换至导航界面,以该位置信息为目的地开始进行导航,以使用户快速、准确地在停车场中找到自己的车辆,节省用户找车时间。[0191]209、当识别结果指示物体为人物时,触发检测设备生成提示消息提示用户。[0192]具体的,当检测设备识别出物体图像中的物体类型为人物时,为了避免安全事故,可以生成提示信息,该提示信息用于提示用户当前位置为停车位置。[0193]比如,识别出物体图像中的物体类型为人物时,检测设备启动语音提示“当前位置为停车位置,请远离”,以此,可以确保用户安全。[0194]本申请实施例公开了一种车辆查找方法,该车辆查找方法包括:当检测设备检测到有物体接近时,采集物体图像,检测设备根据训练后模型对物体图像进行识别,得到识别结果,检测设备判断识别结果是否指示物体为车辆,若是,则检测设备从物体图像中提取车辆的车牌信息,检测设备获取当前车辆所处停车车位的位置信息,并将车牌信息与位置信息进行关联,检测设备将关联的车牌信息与位置信息发送至用户终端,当用户终端接收到车辆查找指令时,获取与车牌信息关联的位置信息,用户终端基于位置信息开始执行导航操作;若否,则当识别结果指示物体为人物时,触发检测设备生成提示消息提示用户。以此,可以提高车辆查找效率,提高用户体验。[0195]为便于更好的实施本申请实施例提供的车辆查找方法,本申请实施例还提供一种基于上述车辆查找方法的装置。其中名词的含义与上述车辆查找方法中相同,具体实现细节可以参考方法实施例中的说明。[0196]请参阅图6,图6为本申请实施例提供的一种车辆查找装置的结构框图,该车辆查找装置可以应用于诸如手机、平板电脑、笔记本电脑,掌上电脑、便携式媒体播放器(portablemediaplayer,pmp)等移动终端,以及诸如台式计算机等固定终端,该装置包括:[0197]采集单元301,用于采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;[0198]确定单元302,用于识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;[0199]关联单元303,用于获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;[0200]发送单元304,用于当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配;[0201]操作单元305,用于若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。[0202]在一些实施例中,请参阅图7,图7为本申请实施例提供的另一种车辆查找装置的结构框图,采集单元301可以包括:[0203]第一提取子单元3011,用于提取所述目标图像中的物体的特征信息;[0204]计算子单元3012,用于根据训练后模型计算所述特征信息与每一样本特征信息的匹配度;[0205]第一确定子单元3013,用于确定与所述特征信息匹配度最高的样本特征信息对应的物体,得到所述目标图像中存在的物体。[0206]在一些实施例中,请参阅图8,图8为本申请实施例提供的另一种车辆查找装置的结构框图,该装置还可以包括:[0207]获取单元306,用于获取多个待处理图像集合,其中,属于同一待处理图像集合的待处理图像中存在有相同的物体;[0208]添加单元307,用于将所述多个待处理图像集合添加至训练样本集中,[0209]训练单元308,用于根据训练样本集对预设神经网络模型进行训练,得到所述训练后模型。[0210]在一些实施例中,请参阅图9,图9为本申请实施例提供的另一种车辆查找装置的结构框图,训练单元308,可以包括:[0211]分割子单元3081,用于将训练样本集中的每一待处理图像分割为多个单元格;[0212]第二确定子单元3082,用于确定所述待处理图像中目标物体的中心点所处的单元格,得到目标单元格;[0213]预测子单元3083,用于通过所述目标单元格对所述目标物体的位置以及类别置信度进行预测,得到预测值;[0214]验证子单元3084,用于计算所述预测值与真实值的差值,并基于所述差值调整所述预设神经网络模型的模型参数,直至所述预设神经网络模型收敛。[0215]在一些实施例中,请参阅图10,图10为本申请实施例提供的另一种车辆查找装置的结构框图,关联单元303,可以包括:[0216]第一获取子单元3031,用于获取所述目标车辆的车牌图像;[0217]第二提取子单元3032,用于从所述车牌图像中提取所述车辆的车牌信息;[0218]第三确定子单元3033,用于从多个样本车辆信息中,确定所述车牌信息对应的样本车辆信息,得到所述目标车辆的车辆信息。[0219]在一些实施例中,该装置还可以包括:[0220]获取单元,用于在所述目标车辆移动过程中,获取所述目标车辆与当前停车位置的边界的距离;[0221]触发单元,用于当所述距离小于预设距离时,触发警报功能提示用户。[0222]在一些实施例中,关联单元303还可以包括:[0223]第二获取子单元,用于获取所述目标车辆所处车位的车位信息;[0224]第四确定子单元,用于基于所述车位信息确定所述目标车辆的停车位置;[0225]关联子单元,用于将所述车辆信息与所述停车位置进行关联。[0226]在一些实施例中,该装置还可以包括:[0227]提示单元,用于若识别出所述目标图像中存在人物,则生成提示信息,所述提示信息用于提示当前位置为停车位置。[0228]本申请实施例公开了一种车辆查找装置,该车辆查找装置包括:采集单元301采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;确定单元302若识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;关联单元303获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;发送单元304当接收到用户终端发送的待查询车辆信息时,将待查询车辆信息与所述车辆信息进行匹配;操作单元305若待查询车辆信息与车辆信息匹配成功,则获取与车辆信息关联的停车位置,并向用户终端发送停车位置。以此,可以提高车辆查找效率。[0229]本申请实施例还提供一种终端。如图11所示,其示出了本申请实施例所涉及的终端的结构示意图,具体来讲:[0230]该终端可以包括一个或者一个以上处理核心的处理器701、一个或一个以上计算机可读存储介质的存储器702、电源703和输入单元704等部件。本领域技术人员可以理解,图11中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:[0231]处理器701是该终端的控制中心,利用各种接口和线路连接整个终端的各个部分,通过运行或执行存储在存储器702内的软件程序和/或模块,以及调用存储在存储器702内的数据,执行终端的各种功能和处理数据,从而对终端进行整体监控。可选的,处理器701可包括一个或多个处理核心;优选的,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。[0232]存储器702可用于存储软件程序以及模块,处理器501通过运行存储在存储器702的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器702可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器702还可以包括存储器控制器,以提供处理器701对存储器702的访问。[0233]终端还包括给各个部件供电的电源703,优选的,电源703可以通过电源管理系统与处理器701逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源703还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。[0234]该终端还可包括输入单元704,该输入单元704可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。[0235]该终端还可以包括至少一种传感器705,比如深度传感器。具体的,深度传感器可以用于感知接近物体,采集接近物体的深度图像数据等。[0236]尽管未示出,终端还可以包括显示单元等,在此不再赘述。具体在本实施例中,终端中的处理器701会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器702中,并由处理器701来运行存储在存储器702中的应用程序,从而实现各种功能,如下:[0237]采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;[0238]若识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;[0239]获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;[0240]当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配;[0241]若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。[0242]以上各个操作的具体实施可参见前面的实施例,在此不再赘述。[0243]由上可知,本实施例的终端可以实现身份验证车辆查找的方法,提高车辆查找效率。[0244]本申请实施例公开了一种车辆查找方法、装置、存储介质及终端。该车辆查找方法包括:采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;若识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配;若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。本申请实施例通过训练后模型对采集到的目标图像进行识别,当时别出目标图像中存在目标车辆时,提取目标车辆的车辆信息,并将车辆信息与当前车位的位置信息进行关联,以使用户可以在指定应用界面输入车辆信息,确定车辆信息关联的位置信息,从而快速确定目标车辆的位置信息,提高车辆查找效率。[0245]本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于存储介质中,并由处理器进行加载和执行。[0246]为此,本申请实施例提供一种存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种车辆查找方法中的步骤。例如,该指令可以执行如下步骤:[0247]采集当前场景下的目标图像,并基于训练后模型对所述目标图像进行识别;若识别出所述目标图像中存在车辆,则从所述目标图像中确定目标车辆;获取所述目标车辆的车辆信息,并将所述车辆信息与当前停车位置关联;当接收到用户终端发送的待查询车辆信息时,将所述待查询车辆信息与所述车辆信息进行匹配;若所述待查询车辆信息与所述车辆信息匹配成功,则获取与所述车辆信息关联的停车位置,并向所述用户终端发送所述停车位置。[0248]以上各个操作的具体实施可参见前面的实施例,在此不再赘述。[0249]其中,该存储介质可以包括:只读存储器(rom,readonlymemory)、随机存取记忆体(ram,randomaccessmemory)、磁盘或光盘等。[0250]由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种车辆查找方法中的步骤,因此,可以实现本申请实施例所提供的任一种车辆查找方法所能实现的有益效果,详见前面的实施例,在此不再赘述。[0251]以上对本申请实施例所提供的车辆查找方法、装置、存储介质及终端进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。当前第1页1 2 3 当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1