一种基于新型视觉追踪技术的目标追踪方法

文档序号:6631817阅读:267来源:国知局
一种基于新型视觉追踪技术的目标追踪方法
【专利摘要】本发明提供了一种基于新型视觉追踪技术的目标追踪方法,该方法通过将三维空间区域分格,并标记颜色或数字,通过移动网格来得到所要选取的子格,再将选取的子格逐级放大来进行视觉辅助,重复进行网格划分与选取,直到达到设定的空间精度标准,最终确定用户所要选取的目标;该方法能够使不同行业的用户可以根据行业或者自身需要进行更直观、更形象的追踪目标,实现了目标追踪的可视化,而且也使得目标追踪的操作动作与状态紧密结合,使得操作更加简单方便、错误机率大大减小,从而进一步提高了目标追踪的准确性。
【专利说明】一种基于新型视觉追踪技术的目标追踪方法

【技术领域】
[0001] 本发明涉及计算机视觉和计算机图形学领域,特别是涉及一种在3D空间内进行 目标追踪的基于新型视觉追踪技术的目标追踪方法。

【背景技术】
[0002] 目前,3D空间选取特定位置的目标时,常常通过辅助工具来辅助用户进行视觉追 踪以便选取合适的目标,但是,现有的辅助工具都存在一定缺陷,从而导致用户无法进行快 捷、精确的选取所需目标,主要有以下几种原因:
[0003] (1)空间圆球辅助追踪:当用户使用球坐标进行目标选取时,由于缺乏一个清晰 的标尺,所以操作者通常需要不断的旋转或放大三维空间物体才能找到所要选取的目标, 使得操作比较复杂,用户的追踪也比较困难;
[0004] (2)在屏幕上设置标尺,由于设置的标尺离所要选取的内容比较远,便会导致用户 视觉分离,从而使用户选取时容易错格,增加了选取的错误率。
[0005] 由于现有技术中的三维视觉追踪工具比较少,用户在3D空间目标选取过程中往 往会通过操作者手工控制,但是由于操作比较繁杂,使得人的视觉追踪就比较困难,从而使 得目标的选取不够直观、形象,在屏幕上设置标尺后,标尺与内容相隔较远,又会产生视觉 分离,选取的错误几率相应也会增大,从而影响了 3D空间目标的精确定位。因此,如何在3D 空间中方便快捷且精确的选取空间特定位置的目标,已成为亟待解决的问题。


【发明内容】

[0006] 本发明针对上述技术问题,提出了一种基于新型视觉追踪技术的目标追踪方法, 通过将三维空间区域分格,并将网格逐级放大来进行视觉辅助,能使得不同行业的用户可 以根据行业或者自身需要进行目标追踪,这样不仅使用户在目标选取过程中更直观、更形 象,而且使得操作动作及状态紧密结合,从而使得目标选取更加准确、快捷和方便,大大提 高了用户的工作效率。
[0007] 本发明的技术方案为:
[0008] 和现有技术相比,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所 述方法包括:
[0009] 步骤Al:初步选定3D空间内合适的子空间区域;选取的子空间区域可以是在3D 空间透视柱上初步选定的子空间区域;或是通过用户根据所要选取的目标在三维空间内直 接选定的子空间区域;
[0010] 步骤A2 :将选定的子空间区域进行网格划分,按照等分或是不等分方法划分;
[0011] 步骤A3 :利用颜色或数字来标记划分完的网格,颜色标记采取渐变的形式;
[0012] 步骤A4 :将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;用 户根据选取的设备选取屏幕上的点击键,设备为按键、鼠标或触屏等,使子空间区域上利用 颜色或数字等做标记的X轴、Y轴、Z轴交汇的格子可以在整个3D空间内进行上下左右前后 的移动,通过移动得到用户想要选取的目标所在的子格位置,除了通过按键,用户还可以通 过移动鼠标或手触方式进行上下左右前后移动来选取所要得到的子格;
[0013] 步骤A5 :判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤A6,若 否,则将选中的子格空间区域进行显示放大,放大到用户觉得可以自行进行划分后,并返回 步骤A2;
[0014] 步骤A6:选出合适的追踪目标。
[0015] 所述步骤A2中的网格划分采用等分划分或不等分划分,例如5X5X5或5X4X6。
[0016] 所述步骤A3中的颜色标记采取渐变的形式,网格与选定的子空间区域的两个平 面相交的部分颜色标记较深,除相交之外的部分颜色标记较浅,其中X轴标记颜色的网格 与选定的子空间区域的两个平面相交的部分为暗红色,除相交之外的部分为浅红色,Y轴标 记颜色的网格与选定的子空间区域的两个平面相交的部分为暗绿色,除相交之外的部分为 浅绿色,Z轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗蓝色,除相交 之外的部分为浅蓝色,当X轴、Y轴、Z轴标记颜色的网格相交时,X轴、Y轴、Z轴标记颜色 的网格颜色利用色彩学叠加原理叠加后会呈现一种明显识别的发亮颜色,这样有助于用户 在选择的时候容易区分出X轴、Y轴、Z轴交汇的格子;
[0017] 所述步骤A4中的X轴、Y轴、Z轴交汇的格子采用按键、移动鼠标或手触方式进行 上下左右前后的移动;用户根据选取的设备选取屏幕上的点击键,设备为鼠标或触屏等,使 子空间区域上利用颜色或数字等做标记的X轴、Y轴、Z轴交汇的格子可以在整个3D空间内 进行上下左右前后的移动,通过移动得到用户想要的目标所在的格子位置,除了通过按键, 用户还可以通过移动鼠标或手触方式进行上下左右前后移动来选取所要得到的子格。
[0018] 本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
[0019] 步骤Bl:在2D平面内,用户选取一个位置点Stl,记录点击点平面坐标(Xtl,Ytl);
[0020] 步骤B2 :以选取的位置点Stl为中心圈定2D范围的前端可视平面;
[0021] 步骤B3 :将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透 视柱,并去除透视柱之外的点;
[0022] 步骤M:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始 定位;
[0023] 步骤B5:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透 视柱;
[0024] 步骤B6 :用户根据初步选定的空间点在3D透视柱上的位置来截取空间区域,从而 得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平 面记为Zbadt;
[0025] 步骤B7:用户按照Z轴方向拉动所截取空间区域的Zfront和Zbadt平面来改变所截 取空间区域的长短,从而选取合适的空间区域,即Zfmt和Zbadt平面之间的空间区域;
[0026] 步骤B8 :将选定的子空间区域进行网格划分;
[0027] 步骤B9 :利用颜色或数字来标记划分完的网格;
[0028] 步骤BlO:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
[0029] 步骤Bll:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤B12, 若否,则将选中的子格空间区域进行显示放大,并返回步骤B8;
[0030] 步骤B12:选出合适的追踪目标。
[0031] 所述3D透视柱旋转的角度范围为5° -15°。
[0032] 所述扩散的形状为圆形或方形。
[0033] 本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
[0034] 步骤Cl:在2D平面内,用户选取一个位置点Stl,记录点击点平面坐标(Xtl,Ytl);
[0035] 步骤C2 :以选取的位置点Stl为中心圈定2D范围的前端可视平面;
[0036] 步骤C3 :将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透 视柱,并去除透视柱之外的点;
[0037] 步骤C4 :对3D透视柱上的候选点进行分群;
[0038] 步骤C5 :判定符合用户选取意图的最优群;
[0039] 步骤C6 :选取最优群的成员点平均深度值Zmeantl作为3D空间选取点的Z值;
[0040] 步骤C7 :初步确定用户选取的3D空间点S',S'坐标记录为(X。,Y。,Zmeantl)。
[0041] 步骤C8 :将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透 视柱;
[0042] 步骤C9 :用户根据初步选定的空间点S'在3D透视柱上的位置来截取空间区域, 从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远 的平面记为Zbadt;
[0043] 步骤ClO:用户按照Z轴方向拉动所截取空间区域的Zfront和Zbadt平面来改变所截 取空间区域的长短,从而选取合适的空间区域,即Zfmt和Zbadt平面之间的空间区域;
[0044] 步骤Cll:将选定的子空间区域进行网格划分;
[0045] 步骤C12 :利用颜色或数字来标记划分完的网格;
[0046] 步骤C13 :将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
[0047] 步骤C14 :判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤C15, 若否,则将选中的子格空间区域进行显示放大,并返回步骤Cll;
[0048] 步骤C15 :选出合适的追踪目标。
[0049] 所述的分群方法采用相邻间距阈值判定方法或K-means分群方法。
[0050] 所述的相邻间距阈值判定方法包括以下步骤:
[0051] 步骤Dl:设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
[0052] 步骤D2:根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
[0053] 步骤D3 :对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若 相邻点Z间距小于阈值,则判定为同一群。
[0054] 所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心 轴较近的点群和所属点群密度较大的点群中的一种。
[0055] 若所述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性 加权为代表的综合判定方法。
[0056] 本发明可采取多种方法来初步选定子空间区域,例如:通过用户的可视范围来初 步确定子空间区域或是通过用户初步选定的空间点来确定子空间区域;用户初步选取空间 点的判定方法主要是通过用户的认知意图从3D空间中选点,用户的认知意图可以归结为 两点:(1)选取离观察者距离较近的点;(2)选取靠近观察者的某一可见点群,从点群中选 取出用户所要选取的点。通过比较可以得知,采用初步选定的空间点所确定的子空间区域 比用户的可视范围所确定的子空间区域更加准确,进一步的通过分群方法初步选定空间点 所确定的子空间区域更加接近用户所要追踪的目标,从而使得用户的追踪目标更加准确。
[0057] 本发明的技术效果为:
[0058] 本发明针对用户目标选取的意图,提供了一种基于新型视觉追踪技术的目标追踪 方法,该方法通过将三维空间区域分格,并标记颜色或数字,通过移动网格来得到所要选取 的子格,再将选取的子格逐级放大来进行视觉辅助,重复进行网格划分与选取,直到达到设 定的空间精度标准,最终确定用户所要选取的目标,该方法能够使不同行业的用户可以根 据行业或者自身需要进行更直观、更形象的追踪目标,实现了目标追踪的可视化,而且也使 得目标追踪的操作动作与状态紧密结合,使得操作更加简单方便、错误机率大大减小,从而 进一步提商了目标追踪的准确性。

【专利附图】

【附图说明】
[0059] 图1为本发明的目标追踪方法的流程图。
[0060] 图2为本发明子空间区域划分网格示意图。
[0061]图3为本发明按照Z轴方向形成3D透视柱的示意图。
[0062] 图4为旋转后的3D透视柱的示意图。
[0063] 图5为本发明初步选取空间点方法的流程图。
[0064] 图6为本发明按照Z轴方向分群的示意图。

【具体实施方式】
[0065]下面结合【专利附图】
附图
【附图说明】本发明的【具体实施方式】:
[0066]实施例1 :
[0067]由图1-2所示,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述 方法包括:
[0068]步骤Al :初步选定3D空间内合适的子空间区域,选取的子空间区域是通过用户根 据所要选取的目标在三维空间内直接选定的子空间区域;
[0069]步骤A2:将选定的子空间区域进行网格划分,按照等分或是不等分方法划分,例 如 5X5X5 或 5X4X6 ;
[0070] 步骤A3 :利用颜色或数字来标记划分完的网格,颜色标记采取渐变的形式,网格 与选定的子空间区域的两个平面相交的部分颜色标记较深,除相交之外的部分颜色标记较 浅,其中X轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗红色,除相 交之外的部分为浅红色,Y轴标记颜色的网格与选定的子空间区域的两个平面相交的部分 为暗绿色,除相交之外的部分为浅绿色,Z轴标记颜色的网格与选定的子空间区域的两个平 面相交的部分为暗蓝色,除相交之外的部分为浅蓝色,当X轴、Y轴、Z轴标记颜色的网格相 交时,X轴、Y轴、Z轴标记颜色的网格颜色利用色彩学叠加原理叠加后会呈现一种明显识别 的发亮颜色,这样有助于用户在选择的时候容易区分出X轴、Y轴、Z轴交汇的格子;
[0071] 步骤A4 :将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;用 户根据选取的设备选取屏幕上的点击键,设备为按键、鼠标或触屏等,使子空间区域上利用 颜色或数字等做标记的X轴、Y轴、Z轴交汇的格子可以在整个3D空间内进行上下左右前后 的移动,通过移动得到用户想要的目标所在的子格位置,除了通过按键,用户还可以通过移 动鼠标或手触方式进行上下左右前后移动来选取所要得到的子格。
[0072] 步骤A5 :判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤A6,若 否,则将选中的子格空间区域进行显示放大,放大到用户觉得可以自行进行划分后,并返回 步骤A2 ;
[0073] 步骤A6 :选出合适的追踪目标。
[0074] 实施例2 :
[0075] 由图1-4所示,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述 方法包括:
[0076] 步骤Bl:在2D平面内,用户选取一个位置点Stl,记录点击点平面坐标(Xtl,Ytl),其 中,Xtl是指在水平X轴上的用户所处位置的数值,Ytl是指在垂直方向上的用户所处位置的 数值;
[0077] 步骤B2 :以选取的位置点Stl为中心圈定2D范围的前端可视平面;
[0078] 步骤B3 :将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透 视柱,并去除透视柱之外的点,所述扩散的形状为圆形或方形,用户可以遵循简单、方便的 原则自行选择扩撒形状,为了便于观察透视柱,将透视柱可视化,在3D透视柱圈定用户观 察到的3D透视柱范围,Z轴上的可见范围之中距离用户最近的Z值记为Znemest,距离用户最 远的Z值记为Ztost ;
[0079] 步骤M:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始 定位;
[0080] 步骤B5 :将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透 视柱;所述3D透视柱旋转的角度范围为5° -15°,将透视柱旋转可以得到用户非常直观的 观察的透视柱,便于用户根据需要在透视柱上选取所需要的空间区域;
[0081] 步骤B6 :用户根据选定的空间点在3D透视柱上的位置来截取空间区域,从而得到 与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfrant,离用户最远的平面记 为Zback;
[0082] 步骤B7 :用户按照Z轴方向拉动所截取空间区域的Zfront和Zbadt平面来改变所截 取空间区域的长短,从而选取合适的空间区域,即Zfmt和Zbadt平面之间的空间区域;
[0083] 步骤B8 :将选定的子空间区域进行网格划分;
[0084] 步骤B9 :利用颜色或数字来标记划分完的网格;
[0085] 步骤BlO:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
[0086] 步骤Bll:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤B12, 若否,则将选中的子格空间区域进行显示放大,并返回步骤B8;
[0087] 步骤B12 :选出合适的追踪目标。
[0088] 实施例3 :
[0089] 由图1-6所示,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述 方法包括:
[0090] 步骤Cl:在2D平面内,用户选取一个位置点Stl,记录点击点平面坐标(Xtl,Ytl);
[0091] 步骤C2 :以选取的位置点Stl为中心圈定2D范围的前端可视平面;
[0092] 步骤C3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透 视柱,并去除透视柱之外的点;
[0093] 步骤C4:对3D透视柱上的候选点进行分群;
[0094] 划分群的方法可采用相邻间距阈值判定法或K-means分群方法;
[0095] 所述的相邻间距阈值判定方法包括以下步骤:
[0096] 设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
[0097] 根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
[0098] 对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻点Z 间距小于阈值,则判定为同一群;
[0099]所述K-means分群方法是将大量高维的资料点聚类分群的一种通行方法,其分割 成的每一个子群可选出一个中心点或代表点;本发明应用K-means方法,针对透视柱内所 有候选点的一维向量Z值或三维向量XYZ值进行分群;其中X、Y、Z值分别为在三维空间中 三个轴向上的偏移量,其中,水平方向-X轴,垂直方向-Y轴,深度方向-Z轴;
[0100] 步骤C5:判定符合用户选取意图的最优群;
[0101] 所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心 轴较近的点群或所属点群密度较大的点群中的一种;其中,离观察者前方较近处的点群,即 深度Z值最贴近观察者的群,根据

【权利要求】
1. 一种基于新型视觉追踪技术的目标追踪方法,其特征在于,所述方法包括: 步骤Al :初步选定3D空间内合适的子空间区域; 步骤A2 :将选定的子空间区域进行网格划分; 步骤A3 :利用颜色或数字来标记划分完的网格; 步骤A4 :将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格; 步骤A5 :判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤A6,若否, 则将选中的子格空间区域进行显示放大,并返回步骤A2 ; 步骤A6 :选出合适的追踪目标。
2. 如权利要求1所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述步 骤A2中的网格划分采用等分划分或不等分划分。
3. 如权利要求1所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述步 骤A3中的颜色标记采取渐变的形式。
4. 如权利要求1所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述步 骤A4中的X轴、Y轴、Z轴交汇的格子采用按键、移动鼠标或手触方式进行上下左右前后的 移动。
5. -种基于新型视觉追踪技术的目标追踪方法,其特征在于,所述方法包括: 步骤Bl :在2D平面内,用户选取一个位置点Stl,记录点击点平面坐标(Xtl, Ytl); 步骤B2 :以选取的位置点Stl为中心圈定2D范围的前端可视平面; 步骤B3 :将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视 柱,并去除透视柱之外的点; 步骤M :运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始定 位; 步骤B5 :将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视 柱; 步骤B6 :用户根据步骤M初步选定的空间点在3D透视柱上的位置来截取空间区域, 从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远 的平面记为Z badt ; 步骤B7 :用户按照Z轴方向拉动所截取空间区域的Zfmt和Zbadt平面来改变所截取空 间区域的长短,从而选取合适的空间区域,即Zfmt和Zbadt平面之间的空间区域; 步骤B8 :将选定的子空间区域进行网格划分; 步骤B9 :利用颜色或数字来标记划分完的网格; 步骤BlO :将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格; 步骤Bll :判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤B12,若 否,则将选中的子格空间区域进行显示放大,并返回步骤B8 ; 步骤B12 :选出合适的追踪目标。
6. 如权利要求5所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述3D 透视柱旋转的角度范围为5° -15°。
7. 如权利要求5所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述扩 散的形状为圆形或方形。
8. -种基于新型视觉追踪技术的目标追踪方法,其特征在于,所述方法包括: 步骤Cl :在2D平面内,用户选取一个位置点Stl,记录点击点平面坐标(Xtl, Ytl); 步骤C2 :以选取的位置点Stl为中心圈定2D范围的前端可视平面; 步骤C3 :将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视 柱,并去除透视柱之外的点; 步骤C4 :对3D透视柱上的候选点进行分群; 步骤C5 :判定符合用户选取意图的最优群; 步骤C6 :选取最优群的成员点平均深度值Znreantl作为3D空间选取点的Z值; 步骤C7 :初步确定用户选取的3D空间点S',Si坐标记录为(Xtl, Ytl, Z_nQ)。 步骤C8 :将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视 柱; 步骤C9 :用户根据初步选定的空间点S'在3D透视柱上的位置来截取空间区域,从而 得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平 面记为Z badt ; 步骤ClO :用户按照Z轴方向拉动所截取空间区域的Zfront和Zbadt平面来改变所截取空 间区域的长短,从而选取合适的空间区域,即Zfmt和Zbadt平面之间的空间区域; 步骤Cll :将选定的子空间区域进行网格划分; 步骤C12 :利用颜色或数字来标记划分完的网格; 步骤C13 :将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格; 步骤C14:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤C15,若 否,则将选中的子格空间区域进行显示放大,并返回步骤Cll ; 步骤C15 :选出合适的追踪目标。
9. 如权利要求8所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述的 分群方法采用相邻间距阈值判定方法或K-means分群方法。
10. 如权利要求9所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述的 相邻间距阈值判定方法包括以下步骤: 步骤Dl :设定一深度间隔距离的阈值,根据具体情况确定阈值大小; 步骤D2 :根据设定的阈值对候选点按照其深度Z值采用升序或降序排序; 步骤D3 :对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻 点Z间距小于阈值,则判定为同一群。
11. 如权利要求8所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述用 户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心轴较近的点群和 所属点群密度较大的点群中的一种。
12. 如权利要求11所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:若所 述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性加权为代表的 综合判定方法。
【文档编号】G06T17/00GK104318587SQ201410583687
【公开日】2015年1月28日 申请日期:2014年10月27日 优先权日:2014年10月27日
【发明者】祁海江 申请人:祁海江
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1