一种基于DDPG的RFID室内定位算法的制作方法

文档序号:16644223发布日期:2019-01-16 08:01阅读:631来源:国知局
一种基于DDPG的RFID室内定位算法的制作方法

本发明涉及无线射频识别(radiofrequencyidentification,rfid)中的室内定位技术,具体地说,是一种基于深度确定性策略(deepdeterministicpolicygradient,ddpg)的rfid室内定位算法。



背景技术:

随着通信技术和物联网的发展,智能终端及移动生活的普及,人们的生活和工作中都需要应用到基于位置提供的定位服务,对定位要求也越来越高,所需的定位技术也从室外定位发展到室内定位。室内定位还是室外定位,这是根据定位对象的应用场景确定的。在室外定位中,基于卫星导航的定位技术已经趋于成熟,但是室外定位由于受稠密植被和大部分建筑物的影响,会造成定位不够准确,甚至不能定位。为了满足人们对高精度、低成本定位技术的需求,室内定位成了人们研究的热点。目前,室内定位在人员定位追踪、资产管理、安防救援和商品零售的领域有广泛的应用前景。

当前,rfid室内定位技术,有辅助gps技术、红外线定位技术、超宽带(uhb)定位技术、超声波定位技术、wifi定位技术、rfid定位技术、蓝牙定位技术、计算机视觉定位技术、图像分析定位技术、光跟踪技术、信标定位技术等等定位技术。其中rfid定位技术是一种比较高效的定位方法,它具有能耗低,实施成本少,测量性高及定位精度高等特点。rfid室内定位基于不同的解决思路主要有四种测距思路,分别是基于信号到达时间(toa)测距法,基于信号到达时间差(tdoa)测距法,基于信号到达角度(aoa)测距法,基于信号到达强度(receivedsignalstrengthindication,rssi)测距法。本发明主要是基于信号到达强度测距方法。

目前,许多人将机器学习的方法用在室内定位方法中,如基于贝叶斯室内定位的分层模型完成无线网络的精确估计,模型在训练时间上提升了许多,引入了完全自适应零捕捉位置方法的概念。基于机器学习指纹的定位算法,可以提供比其他现有的指纹方法更高的定位精度,降低了定位成本,突破了机器学习定位方法只能适用于有源标签的弊端,将范围扩大到了无源标签上。基于粒子波模型的定位算法,需要通过大量粒子群模拟状态分布,然后根据观察结果更新他们的权重模型,粒子通常收敛于最可能的用户位置,收敛成本比较高。



技术实现要素:

本发明的目的是提供一种基于ddpg的rfid室内定位算法,利用强化学习中的深度确定性策略建立多种神经网络,通过动作-评价策略确定连续动作的输出,从而构建ddpg定位模型,最终得到rfid待测目标的具体位置。

为实现上述目的,本发明提供了如下方案:

一种基于ddpg的rfid室内定位算法,包括:

步骤1)对区域内的m个rfid样本标签的rssi值进行采集,获得原始训练数据;

步骤2)初始化噪声,利用动作网络的q估计网络学习,在每个动作中加入噪声,更新状态并获得rfid样本标签最优的rssi值,将学习到的经验和数据存入记忆库中;

步骤3)训练神经网络:建立动作网络q(s,a|θq)和评价网络μ(s|θμ),再分别建立这两个网络的目标网络:q′←q,μ′←μ,目标网络获得下一个状态动作函数,根据评价损失函数更新评价网络,同时根据策略梯度更新动作网络,最后再更新动作网络和评价网络的权重目标网络,使其跟踪学习网络,输出rfid样本标签对应的具体位置,最终得到ddpg定位模型;

步骤4)精准定位:当携带有rfid标签的待定位目标进入检测区域,读写器获取标签信息及rssi信号强度值,然后将这些数据传至计算机并输入到训练好的ddpg定位模型中,模型准确识别数据并输出待定位目标的具体位置。

作为本发明的进一步改进,所述步骤2)中初始化噪声,具体包括:初始化噪声分布n,构造探索策略μ′,每个动作策略添加一个噪声,执行当前动作at并观察当前回报值rt,然后观察得到下一个状态st+1,在记忆库r中保存经验(st,at,rt,st+1),并获得当前标签的最优rssi值。

作为本发明的进一步改进,所述步骤2)中,采用记忆回放的方法,先建立一个记忆库,将部分采样样本收集起来,每次优化是从记忆库中随机取出一部分进行优化,进行小批量的学习,这样可以在不同类型单元的不同任务之间有效学习,减少部分动作不稳定性问题。

作为本发明的进一步改进,所述步骤2)中的学习过程是一个不断递归的过程,符合贝尔曼方程。

作为本发明的进一步改进,所述步骤3)中训练神经网络,具体包括:

a)取记忆并训练:从记忆库中取出部分随机样本,表示为(si,ai,ri,si+1),然后训练更新目标网络,学习过程可表示为

yi=ri+γq′(si+1,u′(si+1|θu′)|θq′)

其中yi代表目标网络,ri代表在i学习过程中的回报值,θu′、θq′代表目标权重,γ代表折扣因子;

b)根据最小损失函数更新评价网络:

其中l代表损失函数;

c)根据策略梯度更新动作网络:

其中代表梯度,用动作网络的方法调整权重值;

d)更新目标网络,即权重更新:

评价网络权重更新:θq′←τθq+(1-τ)θq′

动作网络权重更新:θμ′←τθμ+(1-τ)θμ′

作为本发明的进一步改进,所述步骤3)中,评价网络类似于策略评估,用于估计动作值函数μ(s|θμ),动作以评价所指导的方向更新策略参数,深度确定性策略梯度ddpg为:

作为本发明的进一步改进,所述步骤3)中,策略梯度包括:在连续行动空间使用离线学习算法进行优化,采用e-greedy贪婪策略,以一定的概率使用随机函数,而在剩下的情况下使用最优行动,最终得到一个确定的动作,这个动作不需要从概率分布中采样,相当于当前状态下的最优策略。

作为本发明的进一步改进,所述步骤3)中,目标网络通过设置一个不会大幅更新的模型,使模型计算的值函数在一定程度上减少波动,使rfid定位位置更稳定,通过采用滑动平均的方法更新目标网络:

θt+1←τθt+(1-τ)θ′t

τ设置为非常接近1的数,这样目标网络的参数θ不会发生太大的变化。

本发明的有益效果为:

(1)由于rfid室内定位中rssi值是连续读取的,因此若要筛选出最优rssi值,这个动作也应当是连续的,利用策略梯度的连续性,动作-评价让策略梯度单步更新,可以很好的解决这个问题。

(2)利用策略梯度与深度q网络相结合,包含了深度q网络的取记忆学习,反向传播,梯度更新,自动探索学习等,解决不同标签输出的rssi定位问题。

(3)为了避免确定性策略陷入局部最优化学习的问题,策略中加入部分噪声,使动作探索更广泛和高效。

(4)建立多个神经网络,包括动作网络和评价网络,动作网络和评价网络分别包含各自的估计和现实网络,利用评价网络指导动作网络,动作网络利用梯度策略不断地修改更新,最终网络快速收敛并选择出最优rssi值,输出rfid标签具体位置。

(5)当待测目标进入定位区域时,动作网络从记忆库中取出部分记忆,对待测目标进行训练学习,输出得到rfid标签具体位置,相比传统的室内定位方法,本方法可以连续自动学习并定位,定位精度和定位速度上都有很大的提升。

附图说明

图1.本发明一种基于ddpg的rfid室内定位算法总体框架图;

图2.本发明一种基于ddpg的rfid室内定位算法流程图

具体实施方式

为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施例对本发明作进一步详细说明。

实施例:

参见图1,为本发明一种基于ddpg的rfid室内定位算法总体框架图。本发明首先在定位区域对rfid标签进行rssi数据采集,具体包括:标签反向散射信号,计算机通过数据处理中心发送指令到读写器,读写器进一步控制标签读取,以获取标签的原始rssi值,并将这些rssi值输入动作网络和评价网络进行处理。

动作网络包括动作估计网络和动作目标网络,动作估计网络利用强化学习中的深度确定性策略逼近行为值函数qμ(s,a)和确定性策略μθ(s),在动作输出方面采用一个网络来拟合策略函数,直接输出实时动作,实时进行策略梯度更新,可以应对连续动作的输出及大的动作空间,很好的解决了定位连续性的问题,动作目标网络则是用来更新评价网络。评价网络包括评价估计网络和评价目标网络,两者都在输出当前状态的评价,但输入端有所不同:评价估计网络使用最原始的rssi值施加的动作当做输入,评价目标网络则使用从动作目标网络生成的动作加上状态的观测值加以分析,作为下一状态的目标值。评价网络指导动作网络建立位置记忆库,反向传播,不断梯度更新,最终选出最优rssi值并输出具体标签位置。

参见图2,为本发明一种基于ddpg的rfid室内定位算法流程图。在室内布置若干个读写器和rfid样本标签,具体步骤为:

步骤1)初始化:根据rfid定位环境,初始化动作网络q(s,a|θq)和评价网络μ(s|θμ),再分别初始化这两个网络的目标网络:q′←q,μ′←μ,初始化记忆库为r;

步骤2)执行动作:初始化噪声分布n,构造探索策略μ′,每个动作策略添加一个噪声,执行当前动作at并观察当前回报值rt,然后观察得到下一个状态st+1,在记忆库r中保存经验(st,at,rt,st+1),并获得当前rfid样本标签的最优rssi值;

步骤3)取记忆并训练:从记忆库r中取出部分随机样本,表示为(si,ai,ri,si+1),然后训练更新目标网络,选出最优rssi值,并将经验存入记忆库,学习过程可表示为

yi=ri+γq′(si+1,u′(si+1|θu′)|θq′)

其中yi代表目标网络,ri代表在i学习过程中的回报值,θu′、θq′代表目标权重,γ代表折扣因子;

步骤4)根据最小损失函数更新评价网络:

其中l代表损失函数;

步骤5)根据策略梯度更新动作网络:

其中代表梯度,用动作的方法调整权重值;

步骤6)更新目标网络,即权重更新:

评价网络权重更新:θq′←τθq+(1-τ)θq′

动作网络权重更新:θμ′←τθμ+(1-τ)θμ′

步骤7)当学习步数结束时,输出样本标签的具体位置,训练完成ddpg定位模型;

步骤8)当待测目标进入检测区域时,读写器读取目标所携带的rfid标签的rssi值,并根据ddpg定位模型配置参数,由于标签在读取过程中,存在信号反射,衰减,多径干扰等因素的影响,应不断学习,并调整学习参数,估算出待测目标的具体坐标值。

最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求内。本发明是在多位rfid室内定位技术人员长期进行研究的经验积累基础上,通过创造性劳动而得出,利用动作-评价网络找到最优rssi值,训练输出样本标签位置,并将经验存入记忆库,建立ddpg定位网络模型;当有待测目标进入检测区域时,网络模型自动抽取相关记忆,预测并训练得到目标具体位置,有效的解决了室内定位精度低及环境噪声影响等问题,且模型简单,定位成本低。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1