无线网络视频图像多视角协作目标跟踪测量方法

文档序号:7656243阅读:197来源:国知局
专利名称:无线网络视频图像多视角协作目标跟踪测量方法
技术领域
本发明属于机器视觉与模式识别技术领域,涉及一种目标监测和 定位方法,具体涉及一种无线网络视频图像多视角协作目标跟踪测量 方法。
背景技术
基于视频图像序列的目标跟踪技术,是机器视觉与模式识别领域 的重要研究内容之一,在工业生产、军事、社区安全、交通监控等领 域具有广泛的应用前景。实际应用中,通常采用单视角测量方法实现 目标跟踪。但由于单视角测量方法受环境噪声影响大,目标容易被障 碍物遮挡产生观测干涉,实际测量中对视频图像采集装置的可靠度要 求高,且在无背景先验知识的前提下,仅能获得目标方位信息,无法 完成对目标三维位置的准确跟踪。
随着无线网络技术的发展,网络化协作测量己经逐渐成为一种受 到广泛关注的现代化测量手段。针对视频图像测量的特点,多视角协 作测量有利于扩大跟踪范围,减少观测干涉,提高目标跟踪的准确性 和鲁棒性。而无线网络相比于有线网络在灵活性、适用性和动态性上 都更具优势。如何通过多个视频图像监测节点的有效协作,在无线网 络条件下自主、智能、高效地完成对目标的准确跟踪己经成为一个倍 受关注的研究领域。为了阐述基于无线网络测量的视频图像多视角协 作目标跟踪测量方法,给出如下基本概念-
1、无线视频图像监测节点无线视频图像监测节点(下文简称 节点)是一种具有无线通信能力、视频图像采集能力和基本信号处理 能力的设备,具有网络通信带宽小、能量有限、计算能力低等特点, 能够在接收到测量指令好,独立实时地完成对指定区域的图像采集、 存储、预处理、目标提取和信号传输。
2、 中心处理节点中心处理节点是一种具有无线通信能力和较 强信号处理能力的设备,其网络带宽高、能量充足(可采用外部供能)、 计算能力强,能够周期性地向无线视频图像监测节点发送指令完成测 量任务,并接收各无线视频图像监测节点发回的信号,通过多视角协 作跟踪测量方法实现对多目标的定位和跟踪。
3、 无线视频图像监测网络典型的无线视频图像监测网络由多 个无线视频图像监测节点和一个中心处理节点组成。测量过程中,各 无线视频图像监测节点独立完成不同视角的图像采集、目标提取等工 作;中心处理节点根据测量需求周期性地向无线视频图像监测节点发
送测量指令,获取后对各视频图像监测节点的监测结果进行融合,实 现对多目标的准确跟踪。
4、 测量指令测量指令是由中央处理节点向各无线视频图像监 测节点发布的指令,指明在特定时间内执行的特定测量任务。
5、 多视角协作测量多视角协作测量是指需要两个或多个无线 视频图像监测节点根据一定策略协作,共同对目标实施监测的测量方 法。由于单个无线视频图像监测节点的能量、带宽资源、感知范围和 信号处理能力有限,因此无线视频图像监测节点间的协作对于提高无 线视频图像监测网络的测量性能和容错能力至关重要。
如何有效地协调网络资源,实现网络化协作测量已成为当前测量 领域的研究热点之一。目前,网络化协作测量领域的研究工作大部分 停留在理论框架研究和系统仿真上。对于视频图像目标跟踪这类复杂 应用,如何协调无线视频图像监测节点信号处理、网络传输和中心节 点信号处理的关系仍是一个难题,如何从系统角度出发,有效实现无 线视频图像监测节点和中心处理节点的协作,平衡网络能耗和目标跟 踪精度的关系都是亟待研究的课题。

发明内容
本发明的目的是提出一种用于无线网络条件下视频图像目标跟 踪的多视角协作测量方法,通过多个无线视频图像监测节点的协作, 实现对目标位置的准确定位,减少观测干涉,提高目标跟踪的准确性 和鲁棒性。
本发明通过以下技术方案实现多视角协作跟踪测量,首先通过动
态背景构建方法在单个无线视频图像监测节点中实现目标测量,得到
仅含有目标的最小矩形边界;然后通过节点间的协作,采用渐进分布 式数据融合方法,融合各无线视频图像监测节点的测量结果,实现对 移动目标的协作式定位测量,在协作过程中综合采用了基于能量熵和 马氏距离的能耗、剩余能量、信息有效性、节点特性、信息反馈等多 参数评价方法;如进行多目标监测,则还需要在融合定位之前对各节 点多目标测量信号进行基于最优似然估计的数据关联;完成目标定位 后,采用无迹卡尔曼滤波和最优似然估计方法实现对多移动目标的定 位跟踪和数据关联,以获得多目标运动轨迹。
以下对本发明方法作进一步说明,具体步骤如下
(1) 基于动态背景构建的目标测量动态背景构建过程主要包 含两个阶段,首先采用基于像素的中值滤波方法,通过多帧连续识别 区分图像中的静态像素点和动态像素点,并采用静态像素点初始化背 景模型;然后在监测过程中,通过对实际图像序列的分析,从像素和 对象两个层次更新背景模型参数,以解决光照和背景物体的变化对背 景模型造成的影响。获得当前时刻的动态背景图像后再将原图像减去 图像背景,则可获得包含目标的前景图像。
(2) 多视角协作融合目标定位在单个无线视频图像监测节点 完成基于动态背景构建的目标测量后,即可获得包含移动目标的最小 矩形边界。假设目标位置的测量不确定度可采用2维Gaussian分布表 示,则可将各无线视频图像监测节点从不同视角测得的目标位置概率 分布映射为最小矩形边界中的概率分布。通过融合投影在目标运动平 面上的多视角目标位置概率分布结果,即可获得目标在运动平面上实 际位置的概率分布。若各节点工作正常,融合后的概率分布精度将高 于或等于最精确的节点精度;但若部分节点失效,或在节点的对应视 角中目标被遮挡,则这些节点的目标方位信息则不能用于融合。
多视角测量信息融合由中心处理节点发起,中心处理节点根据评 价参数选择某个节点作为激活节点,向其传递测量指令;然后该节点 根据当前节点状况,动态选择下一激活节点,并将本节点获取的初步 处理信息传递给新的激活节点。该节点将接收到的信息与自身决策信 息融合得到不完全融合结果后再次选择新激活节点,并将不完全融合 结果传递给该节点。如此不断循环节点选择和渐进融合过程直至结果 满足精度要求,最后将融合结果传递至中心处理节点。由于实际测量
过程中,处于不同视角的无线视频图像监测节点所能获得的目标运动 信息质量不同,为平衡无线视频图像监测网络的跟踪性能和能耗,多 视角协作融合目标定位方法在选择激活节点时,综合考虑了网络状 态、各节点工作状态、节点位置、节点剩余能量、节点测量能力和预 测的节点测量信息有效性等因素。
(3) 目标跟踪与预测当目标定位完成后,中心处理节点采用 无迹卡尔曼滤波方法根据定位信息实现目标跟踪与预测。无迹卡尔曼 滤波方法建立在无迹变换理论基础上,通过确定地选取少量样本
(Sigma点)描述随机变量分布,对各样本进行非线性变换,计算样 本均值和方差,作为实际随机变量通过非线性系统后均值和方差的近 似值。通过对噪声均值和方差的精确估计,无迹卡尔曼滤波能够有效 地对目标运动进行跟踪与预测。
(4) 多目标跟踪数据关联由于复杂环境中,多目标测量信号 经常出现不同程度的交叠与重合,使目标跟踪难度加大,应采用数据 关联技术确定各测量值与各跟踪轨迹间的对应关系,实现多目标定位 与跟踪。在多视角协作融合定位过程中,根据前一时刻的无迹卡尔曼 滤波目标跟踪和预测结果,通过最近邻法实现测量结果和轨迹间的最 大似然关联。
本发明同传统的单视角多目标跟踪方法相比,通过采用多视角跟 踪测量扩大跟踪范围,减少观测干涉,提高目标跟踪的准确性和鲁棒 性;同时,各无线视频图像监测节点间的协作通过采用渐进式数据融 合方法,平衡了目标跟踪精度和网络能耗,避免了不必要地数据传递。 与集中式数据融合方法相比,本发明具有能耗低、网络延迟少、定位 精度高等特点,可以满足地形复杂、环境恶劣条件下的应用需求,可 广泛应用于各类军、民用系统,具有广阔的市场前景和应用价值。


图1为无线网络视频图像多视角协作目标跟踪测量方法的系统框
图2为单视角目标测量结果;
其中图(a)是动态构建的单视角背景;图(b)是待分析的单视 角测量前景;图(c)是去除背景后得到的目标测量二值结果;
图3为单视角目标位置测量不确定度的2维Gaussian分布示意; 图4为多视角融合定位方法的基本原理;
图5为基于目标跟踪与预测的最近邻法多目标跟踪数据关联基本 原理;
图6为验证系统的布置图; 图7为多视角目标测量结果;
其中,图(a) 图(d)分别为4个不同无线视频图像监测节点 的多目标检测结果;
图8为渐进分布式多视角协作融合多目标跟踪结果。
具体实施例方式
以下结合附图对本发明的实施方式作进一步描述。 如图1所示,无线网络视频图像多视角协作目标跟踪测量方法首 先在各无线视频图像监测节点中通过动态背景构建方法实现目标测 量,得到仅含有目标的最小矩形边界;然后通过节点间的协作,采用 渐进分布式数据融合方法,融合各无线视频图像监测节点的测量结 果,实现对移动目标的协作式定位测量;如进行多目标监测,则还需 要在融合定位之前对各节点多目标测量信号进行基于最优似然估计 的数据关联;完成目标定位后,采用无迹卡尔曼滤波和最优似然估计 方法实现对多移动目标的定位跟踪和数据关联,以获得多目标运动轨 迹。各部分具体实施细节如下
1、基于动态背景构建的目标测量
动态背景构建方法主要包含两个阶段初始化背景模型和更新背 景模型参数。在初始化背景模型阶段,首先采用基于像素的中值滤波 方法通过多帧连续识别区分图像中的静态像素点和动态像素点;然后 采用静态像素点初始化背景模型。假设r(:c)为第i帧图像中像素点jc 的亮度值,0"(x)和;i(x)为像素点x在所有7V帧连续图像中的标准差和 均值,则像素点x的初始背景模型构建如下-<formula>formula see original document page 9</formula>
(1)
其中,m(x)代表图像序列(",hl,K TV中所有图像像素点;c的亮度最 小值,"(x;代表图像序列irj,"l,K TV中所有图像像素点x的亮度最
大值,^xj代表图像序列irj,^i,K W中所有相邻两幅图像像素点x
的亮度差值的绝对值最大值。
目标测量过程事实上就是从图像序列中区分前景目标和背景图 像的过程,也就是区分图像序列中各像素点属于前景像素和背景像素 的过程。其中,前景像素即指该像素点对应的像素信息在当前的背景 模型下被判定属于前景目标;背景像素则指该像素点对应的像素信息 在当前的背景模型下被判定属于背景图像。理论上,在构建背景模型 后,通过当前图像和背景模型的差值比较即可获得前景目标的分布区 域。然而,监测过程中,光照的影响和背景物体的变化将改变背景模 型,将影响前景像素和背景像素的区分和识别。动态背景构建方法分 别采用基于像素和基于对象的更新方法解决光照和物体变化的影响。 跟踪过程中,通过构建背景变化图决定是否更新背景模型。背景变化 图包含三个主要部分检测图feS),运动图(m5)和历史信息图(/ 5), 三类图的定义方式如下
<formula>formula see original document page 9</formula>如x是背景像素 如x是前景像素
(2)
附,
附S(x,<formula>formula see original document page 9</formula>(3)<formula>formula see original document page 10</formula>
255 如x是前景象素
255
其他
(4)
其中,/(W)代表图像序列在/时刻像素点x的亮度值。7V为图像 序列所包含的图像数量。跟踪过程中,由前景像素 (m《jc),"《x),W(x))、背景像素(V(x)乂(x),W(x》和当前背景模 型信息(m1:c),^(x),,(jc》构建新背景模型信息
<formula>formula see original document page 10</formula>
(5)
其中,参数&和&通常分别设为0.8和1。 JV为图像序列所包含的图像
如背景光照突然发生变化,则目标检测过程将出现错误。因此, 当图像的80%像素被检测为前景像素时,动态背景构建方法将停止背 景更新,并重新构建新的背景模型。完成背景模型构建后,再通过各 像素点的最小像素值m(x)、最大像素值"(x)和最大帧间差《提取前
<formula>formula see original document page 10</formula>(6)
、1前景 其他. 其中,/'为当前图像信息,帧间差参数&取值为2。采用动态背景构 建方法进行目标检测的结果如图2所示。 2、多视角协作融合目标定位
多视角融合定位是由各无线视频图像监测节点完成不同视角的 图像采集和目标测量,由中心处理节点融合不同视角方位信息的目标 定位方法。如图3所示,假设目标位置的测量不确定度可采用2维 Gaussian分布表示。则多视角融合方法将各节点的2维Gaussian分布映 射为相应目标区域内的概率分布,然后融合映射后的概率分布获取目 标位置的分布结果,相关原理如图4所示
V '.=1 乂
(7)
其中,Z为目标位置随机变量,P(XlZ,.)代表节点i测得的Gaussian分 布,P(ZJ为相关系数,此处为目标与节点距离的倒数,《是归一化 算子。Z的数学期望即为目标位置的估计结果
丰)^,(x,) (8)
由(7)式可知,若各节点工作正常,融合后的概率分布精度将 高于或等于最精确的节点精度;但若其中部分节点失效,或在节点的 对应视角中目标被遮挡(如图4中的节点4),则这些节点的目标方位 信息不能用于融合。针对网络化视频图像测量的特点,可以假设若节 点提供的方位信息存在以下任何一种情况则认为该节点信息不可用 不提供方位信息;提供的方位信息与其余方位信息融合后使目标概率 分布为零(即无交集);融合后(归一化前)的目标概率分布值偏小 (即只有少部分边界区域存在交集)。
对于无线网络化应用而言,网络能耗、网络传输数据量以及网络 延时是决定网络化测量的重要因素。传统的集中式数据融合方法,通 过将大量原始图像数据传递到中心处理节点中完成数据融合,导致网 络中将产生大量通信负担,从而引起无线网络联接的拥塞,增加网络 延时。因此,此处采用渐进分布式数据融合方法实现网络化多视角协 作融合目标定位。在实际测量中,多视角测量信息融合由中心处理节 点发起,并在网络中反复循环激活节点选择和渐进融合过程,直至融 合结果满足精度要求,最后将融合结果传递至中心处理节点。激活节 点的选择将决定无线视频图像监测网络的融合精度和网络能耗。为平 衡融合精度与能耗,在节点选择中采用如下目标函数
M (《)=-" i,") + (1 - "). L (S ) ( 9 ) 其中,《指第/个节点,^M,为能耗参数,^,%是信息有效性参数," 为调节系数。节点选择可定义为如下优化问题
z、argm,(M(S)) (10)
能耗参数^w,包括三个部分测量能耗^,通信能耗仍和信息能
耗^,其中通信能耗占网络总能耗的比例最高。根据Friis自由空间传 播模型,在无线通信过程中,节点&.接收的信号强度/>,.与节点&发
送的信号强度^关系为
其中(^,为节点《发射系数,G^为节点^的接收系数,/l为无线通
信波长,/ 为系统功耗因子,《,为节点5;和A间的空间距离。由式
(11)得知,可采用空间距离的平方作为单位数据传输能耗的评价指标。
另外,根据无线视频图像监测网络应用情况应尽可能平均地消耗 各节点能量以延长网络寿命。采用能量熵理论评价节点剩余能量的平
均性;熵值越大,则剩余能量分布越平均。当f时刻完成数据传输后, 无线视频图像监测网络的剩余能量熵//(&)定义如下
雄》-2X五"》og來) (12)
综上,无线视频图像监测网络传输能耗评价参数为
L(S,Hi维) (13)
^M,越大表示信息传输对网络能耗造成的影响越大。
信息有效性参数^^一可用各节点对融合精度的贡献度衡量。实
验表明如目标位置的置信状态可用Gaussian分布预测,则采用马氏距 离作为评价参数能准确预测节点对当前置信状态更新效果的贡献度 大小,由此可得贡献度因子^^。/为<formula>formula see original document page 13</formula>
其中,s,是节点a的位置,i和i是目标位置置信状态的均值和协方 差。除置信状态概率分布外,观测过程还受节点特性的影响,如节点 对不同材料的敏感度、测量范围、测量可靠度等因素。将节点特性对 信息有效性造成的影响统一称为特性因子^^ 。
信息有效性不仅取决于节点和目标,还受环境影响,但由于环境 影响难以直接衡量,因此以节点预测结果与融合结果的相似性为置信
因子^vw,用于评价环境对节点测量产生的影响,定义如下<formula>formula see original document page 13</formula>
其中z二是前一时刻节点/的测量结果,i'和i:'是前一时刻最终融合 结果的^j值和协方差。
将能耗参数和信息有效性参数带入式(9)可得节点选择的目标函
数为<formula>formula see original document page 13</formula>
渐进分布式多视角融合在各节点中不断循环节点选择和渐进融 合过程,直至结果满足一定精度要求。由于概率分布越集中表明结果 越确定,因此可以将融合结果概率分布的熵作为融合过程中止阈值
<formula>formula see original document page 13</formula>
与集中式融合方法相比,渐进分布式融合方法能够根据各节点当 前状态动态选择最佳节点序列完成融合,并通过顺序信息传递和渐进 信息融合降低网络拥塞,减少能耗和延时。当系统延时低于一个测量 周期且跟踪目标移动速度较慢时,由系统延时产生的位置测量误差可 以忽略,此时可将顺序信息传输视为同步过程,从而减少融合过程中 产生的测量信息序列紊乱现象,提高融合精度。另外,由于渐进分布
式融合是动态选择的过程,因此可以有效避免网络故障的影响,从而 提高网络的适应性和稳定性。
3.目标跟踪与预测
当目标定位完成后,中心处理节点采用无迹Kalman滤波方法, 根据定位信息实现目标跟踪与预测。无迹Kalman滤波建立在无迹变 换的基础上,通过确定地选取少量样本(Sigma点)描述随机变量分 布,对各样本进行非线性变换,计算样本均值和方差,作为实际随机 变量通过非线性系统后均值和方差的近似值。Sigma点和权值的选择 方法为<formula>formula see original document page 14</formula>
(18)
其中,;c,.为Sigma点,^为可调参数,反映样本散布范围大小; 为矩阵平方根的第冽。根据Sigma点和权值求解j^一和尸雄—,,可推得,' Sigma点的样本均值和方差均以二次精度逼近状态变量的均值和方 差
<formula>formula see original document page 14</formula> (20)
4.多目标跟踪数据关联
采用最近邻法实现多目标跟踪数据关联,根据目标跟踪和预测实 现测量结果与轨迹间的最大似然关联。其基本原理如图5所示,方位 融合的不确定性使测量过程中出现了4个可选位置,根据最优似然估 计原则,采用马氏距离方法进行各目标数据关联
arg^"腳(尸—乂义,)=(尸—-A) V((尸—-A)) (21)
其中^^是预测目标位置,f,和i,是第f个可选位置概率分布的均值 和协方差,W是可选位置数量,最大值为AUxAU一,其中^U 是当前节点测量的目标个数,A^^,是不完全融合结果包含的目标个 数。
5.验证系统及实验结果
下面通过一些跟踪实例验证无线网络视频图像多视角协作目标 跟踪测量方法的有效性。如图6所示,无线网络视频图像多视角协作 目标跟踪验证系统,由设置在室内的18个无线视频图像监测节点和 l个中心处理节点组成。其中,中心处理节点为一台主频为2GHz的 笔记本电脑,无线视频图像监测节点包含一个视角60° 、焦距3.6mm、 图像釆集速率30帧/秒的彩色CMOS图像传感模块和一个热释红外传 感模块,图像采集分辨率为160X120像素。同时,无线视频图像监 测节点还包含一个中央处理模块,主要由ARM9处理芯片构成,其 处理速度为200MHz。
实验中通过动态能量管理策略控制各节点的激活或休眠。目标进 入无线视频图像监测网络测量区域后,网络测量频率为10Hz,即每 个渐进融合过程的周期为0.1秒,融合图像的时间差距最大值为0.13 秒,对于数据融合可认为采集的信息同步。融合过程中传递的数据包 大小为lkbytes,包含目标位置预测信息、不完全融合跟踪结果和已 传递节点列表,为简化路由,节点间采用单跳方式传递数据包。各节 点根据通信时间、测量时间和计算时间估算能耗及剩余能量,并与其 他节点共享剩余能量信息,能量信息共享周期为60秒。无线视频图 像监测网络MAC层采用CSMA/CA协议,具体网络通信参数设置如 表1所示。利用无线视频图像监测网络对2个人的移动进行跟踪,具 体场景为其中一个人将物件放在房间中央后向房间的另一侧移动并 隐匿,同时另一人始终坐在房内某位置。
表1无线视频图像监测网络通讯参数设置
信道参数参数值
数据率19.2kbps
基频900MHz
MAC协议CSMA/CA
带宽7.2MHz
图7为验证系统中节点Nl、 N8、 N10和N18的多目标检测结果。 图8为渐进分布式多视角协作融合多目标跟踪结果。实验结果与实际 目标移动一致。实验结果表明渐进分布式多视角协作融合跟踪方法能 有效实现多目标的测量和跟踪。
权利要求
1、无线网络视频图像多视角协作目标跟踪测量方法,其特征是包括下列步骤首先通过动态背景构建方法在单个无线视频图像监测节点中实现目标测量,得到仅含有目标的最小矩形边界;然后通过节点间的协作,采用渐进分布式数据融合方法,融合各无线视频图像监测节点的测量结果,实现对移动目标的协作式定位测量,在协作过程中综合采用基于能量熵和马氏距离的能耗、剩余能量、信息有效性、节点特性、信息反馈等多参数评价方法;如进行多目标监测,则还需要在融合定位之前对各节点多目标测量信号进行基于最优似然估计的数据关联;完成目标定位后,采用无迹卡尔曼滤波和最优似然估计方法实现对多移动目标的定位跟踪和数据关联,以获得多目标运动轨迹。
2、 根据权利要求1所述的无线网络视频图像多视角协作目标跟踪 测量方法,其特征是所述基于动态背景构建的目标测量具体步骤是 动态背景构建过程包含两个阶段,首先采用基于像素的中值滤波方 法,通过多帧连续识别区分图像中的静态像素点和动态像素点,并采 用静态像素点初始化背景模型;然后在监测过程中,通过对实际图像 序列的分析,从像素和对象两个层次更新背景模型参数,以解决光照 和背景物体的变化对背景模型造成的影响;获得当前时刻的动态背景 图像后再将原图像减去图像背景,则可获得包含目标的前景图像。
3、 根据权利要求1所述的无线网络视频图像多视角协作目标跟踪 测量方法,其特征是所述多视角协作融合目标定位具体步骤是在单 个无线视频图像监测节点完成基于动态背景构建的目标测量后,即可 获得包含移动目标的最小矩形边界,将各无线视频图像监测节点从不 同视角测得的目标位置概率分布映射为最小矩形边界中的概率分布, 通过融合投影在目标运动平面上的多视角目标位置概率分布结果,即 可获得目标在运动平面上实际位置的概率分布。
4、 根据权利要求3所述的无线网络视频图像多视角协作目标跟踪 测量方法,其特征是多视角测量信息融合由中心处理节点发起,中心 处理节点根据评价参数选择某个节点作为激活节点,向其传递测量指 令;激活节点根据当前节点状况,动态选择下一激活节点,并将本节 点获取的初步处理信息传递给新的激活节点,该节点将接收到的信息 与自身决策信息融合得到不完全融合结果后再次选择下一个激活节 点,并将不完全融合结果传递给该节点,如此不断循环节点选择和渐 进融合过程直至结果满足精度要求,最后将融合结果传递至中心处理 节点。
5、 根据权利要求1所述的无线网络视频图像多视角协作目标跟踪测量方法,其特征是所述目标跟踪与预测具体步骤是当目标定位完 成后,中心处理节点采用无迹卡尔曼滤波方法根据定位信息实现目标 跟踪与预测。
6、 根据权利要求l所述的无线网络视频图像多视角协作目标跟踪 测量方法,其特征是所述多目标跟踪数据关联具体步骤是采用数据 关联技术确定各测量值与各跟踪轨迹间的对应关系,实现多目标定位 与跟踪,在多视角协作融合定位过程中,根据前一时刻的无迹卡尔曼 滤波目标跟踪和预测结果,通过最近邻法实现测量结果和轨迹间的最 大似然关联。
全文摘要
一种无线网络视频图像多视角协作目标跟踪测量方法,能够实现对目标位置的准确定位,减少观测干涉,提高目标跟踪的准确性和鲁棒性。技术方案包括下列步骤首先通过动态背景构建方法在单个无线视频图像监测节点中实现目标测量,得到仅含有目标的最小矩形边界;然后通过节点间的协作,采用渐进分布式数据融合方法,融合各无线视频图像监测节点的测量结果,实现对移动目标的协作式定位测量,在协作过程中综合采用基于能量熵和马氏距离的能耗、剩余能量、信息有效性、节点特性、信息反馈等多参数评价方法;为进行多目标监测,在融合定位之前对各节点多目标测量信号进行基于最优似然估计的数据关联;完成目标定位后,采用无迹卡尔曼滤波和最优似然估计方法实现对多移动目标的定位跟踪和数据关联,以获得多目标运动轨迹。
文档编号H04N7/18GK101179707SQ200710122148
公开日2008年5月14日 申请日期2007年9月21日 优先权日2007年9月21日
发明者毕道伟, 晟 王, 雪 王, 马俊杰 申请人:清华大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1