一种基于多重语义交互的递归式场景理解方法与流程

文档序号:16882749发布日期:2019-02-15 22:20阅读:146来源:国知局
一种基于多重语义交互的递归式场景理解方法与流程
本发明涉及图像处理领域,尤其涉及一种基于多重语义交互的递归式场景理解方法。
背景技术
:作为计算机视觉领域的研究热点,场景理解技术受到了广泛的关注与研究。根据图像的多层次语义表达,场景理解可分为局部和全局场景理解两大方面。其中,前者涉及诸如物体类和形状的识别,相机姿态和位置估计以及场景深度预测等图像中包含的多种语义研究,而后者则聚焦于场景的整体分析,其需要综合对多种图像语义挖掘的基础上分析不同语义之间存在的内在关联性,也就是图像上下文关系的研究。图像上下文关系的研究对于计算机更深入而准确地理解图像内容具有非常重要的意义。近二十年里,关于图像上下文关系的研究已取得了不少成果,比如:murphy等人利用全局gist表示同时对场景深度和相机视点进行估计以改进物体识别的精度,而sudderth等人和liu等人分别借助物体检测的结果辅助场景深度的推理。除此之外,其他学者还尝试建立物体和场景几何之间的语义关系或者对不同物体之间的共生关系进行建模等以改进上述场景理解的可靠性。不过,以上方法均遵循了1978年marr提出的以前馈(feed-forward)的方式建立视觉分析系统并逐步生成高层图像语义的思路。然而,该思路存在的主要缺陷是当某一环节一旦出错将直接导致整个系统对该错误无法进行纠正。技术实现要素:本发明的技术方案是:一种基于多重语义交互的递归式场景理解方法,方法包括步骤:s1、提供一待检测图像,通过场景表面布局估计输出待检测图像的几何和语义本征图像;s2、根据上述几何和语义本征图像辅助场景中的物理边界的推理,并通过结合推理出的物体边界信息和相机视点信息对图像场景中物体的相对深度关系进行估计;s3、对待检测图像进行物体/视点检测,并结合深度关系的估计结果,获取最终检测结果。较佳的,场景表面布局估计算法输出十个本征图像,本征图像包括一个地面支撑区域的置信度图、垂直于地面的六个平面区域、两个非平面区域置信度图以及一个天空区域置信度图。较佳的,在步骤s2中,利用边界信息和深度信息改善待检测图像中场景的集合和语义标注的方法包括:查找待检测图像的分隔块内最有可能的边界e,并根据训练条件随机场模型后输出的边界置信度p(e|i)判断该分割块是否具有单一的场景几何标注:当p(e|i)>0.5时,我们认为分割块具有单一的平面几何标注,否则判断其内部混合了具有多种平面几何标注的超像素。较佳的,在每个分割块中分别计算所有像素点的平均深度以及深度斜率将图像分块的平均深度作为能量项加入到fdepth,将深度斜率作为新的统计特征用于场景表面布局估计算法中平面几何标注分类器的重训练。较佳的,边界/深度估计算法和物体/视点检测算法在进行语义交互时,包括步骤:在待检测图像的每个分割块中,计算各个物体类检测假设的平均和最大置信度,统计所有物体类假设的平均置信度之和、两个近邻分割块之间物体假设的平均置信度的绝对值差之和不同物体假设置信度之间的最大绝对值之差三个统计特征,利用上述三个统计特征训练基于adaboost的逻辑回归分类器,将训练后的逻辑回归分类器已对近邻分割块是否属于同一物体进行预测;于如果物体/视点检测算法输出的物体假设与边界/深度估计模块得到的结果不一致,则将该物体假设丢弃;于边界/深度估计算法输出的划分后的区域与物体检测框之间有至少50%的区域重叠,该区域被标注为此物体类;于被标注为某物体类的区域面积小于期望物体类面积的25%,那么该候选物体假设也将被剔除。较佳的,方法还包括步骤:s41、利用物体/视点检测算法获取待检测图像的物体检测假设,学习物体在图像中的存在性、位置以及尺寸三种上下文语义特征,对语义特征进行加权,获取物体假设的置信图以及水平线的位置估计;s42、根据物体假设的置信图以及水平线的位置统计获取物体类特征输入以及水平线位置与表面区域的顶部和底部之间的行坐标之差;s43、将物体类特征输入以及行坐标差作为初始的场景表面布局估计算法进行重新训练,以改进视点和密度类的估计。较佳的,物体/视点检测算法输出物体假设的置信度图以及水平线的位置估计两个本征图像。较佳的,对于每个表面区域k,分别利用三种新的统计特征对初始的场景表面布局估计算法进行重新训练以改进视点和密度类的估计,这三种新的统计特征为:对每个像素的物体类置信度pobj(k)求和并计算其均值作为新的物体类特征输入f1、统计物体/视点估计算法输出的水平线位置h的顶部和底部之差f2、表面区域k的顶部和底部之差f3。上述技术方案具有如下优点或有益效果:本文提出了一种简易的交互式方法,其特点在于场景语义的不确定性能够通过不同的视觉分析过程协同工作实现求解和优化。在该方法中,我们分别使用了三个经典的场景理解算法作为视觉分析模块,不同模块之间利用彼此输出的表面布局,边界,深度,视点和物体类等上下文语义之间的交互以实现各自性能的渐进式提升。实验结果表明,这种基于本征信息交互的反馈式设计能够有效改善前馈式系统存在的不足,并且具有良好的可扩展性。附图说明参考所附附图,以更加充分的描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。图1为本发明一种基于多重语义交互的递归式场景理解方法的流程示意图一;图2为本发明一种基于多重语义交互的递归式场景理解方法中基于递归的场景表面布局估计算法的示意图;图3为本发明一种基于多重语义交互的递归式场景理解方法的流程示意图二;图4为本发明一种基于多重语义交互的递归式场景理解方法中融合多种上下文信息的物体/视点估计的流程示意图;图5为本发明一种基于多重语义交互的递归式场景理解方法的流程框图;图6为本发明一种基于多重语义交互的递归式场景理解方法中不同视点估计算法的误差对比。具体实施方式下面结合附图和具体实施例对本发明一种基于多重语义交互的递归式场景理解方法进行详细说明。如图1所示,一种基于多重语义交互的递归式场景理解方法,包括步骤:s1、提供一待检测图像,通过场景表面布局估计输出该待检测图像的几何和语义本征图像;s2、根据上述几何和语义本征图像辅助场景中的物理边界的推理,并通过结合推理出的物体边界信息和相机视点信息对图像场景中物体的相对深度关系进行估计;s3、对待检测图像进行物体/视点检测,并结合深度关系的估计结果,获取最终检测结果。具体来说,在本申请中提出了三种检测方法的结合检测方法,即表面布局估计方法、边界/深度估计方法以及物体/视点检测方法。首先,由表面布局估计方法检测出待检测图像的几何和语义本征图像结果,然后将该图像结果进行物理边界推理以获取物理边界信息,将物理边界信息与相机视点信息进行结合,以对该待检测图像的相对深度关系进行估计。最后,利用物体/视点检测方法对该待检测图像进行检测,将该检测结果结合上一步骤中的深度关系的估计结果以获取最终检测结果。近一步来讲,在步骤s1中,场景表面布局估计算法输出十个本征图像包括:一个地面支撑区域的置信度图(ground);垂直于地面的六个平面区域和两个非平面区域置信度图(vertical);一个天空区域置信度图(sky)。场景表面布局估计算法根据相机的不同视角来定性地描述三维空间,其根据图像分块的投影方式不同分可分为八种不同的视角类型。为了描述施加在每个图像分块上的重力以及图像分块之间的相互支撑关系,场景表面布局估计算法还根据不同的密度属性将物体大致分为三大密度类。在对场景表面布局估计算法进行初始化时,首先通过平面几何标注算法实现场景中地面和天空区域的提取,接着对垂直于地面的区域通过基于不同参数设置的无监督分割法生成图像分块词典:{b1,b2,...,bi,...,bk-1,bk}。我们不仅对各个图像分块的视角类型进行预测,而且还训练一个超像素分类器来对场景中物体的密度进行估计。图像分块的视角类和密度类估计方法相似,式(1)给出了上述两种估计的一般化方法:在上式中,图像i中超像素i的标注yi(视角类或者密度类)的置信度p(yi|i)可通过对超像素i所属的图像分块bj所对应的标注概率进行加权平均得到,而权重p(bj|i)表述了分块bj的同质性。和p(bj|i)的估计均通过训练基于adaboost构建的逻辑回归分类器实现。值得指出的是,标注概率指的是图像分块bj属于某一物体类的概率,比如总共有10个视角类,那么就有10个可能的赋值,用于分别代表不同的视角类,而置信度p(yi|i)是最终通过加权后得到的最终归属于某一视角类yi的概率,即确定其属于视角类yi的概率。此外,场景表面布局估计算法还通过静力平衡、支持力、体积约束和深度排序等多种几何和物理属性以提供场景结合和语义推理所需要的全局约束。该方法通过递归的方式逐步往场景中加入图像分块并对其几何和物理属性进行分析,从而逐步实现场景的一致性理解,其基本流程如图2所示。该算法针对由图像分块构成的子集wt采用了一种全新的搜索策略,即在每次递归时根据以下五种局部标准从图像分块词典中挑选若干个分块并加入到场景中:(a)视角估计;(b)密度估计;(c)内部物理稳定性;(d)外部支撑关系;(e)相对深度关系。每个图像分块子集加入到wt后通过最小化式(2)中的代价函数e来获取相应的评分,并将具有最小代价的图像分块子集加入到wt后以构成wt+1,上述过程不断重复直到遍历完所有图像分块为止。对于候选分块bi,场景表面布局估计算法通过最小化能量函数e(bi)来决定其是否加入到w中:在上式中,r代表ground或sky二值的变量,sij代表分块之间的支撑关系,blocks指的是已被挑选的分块集合。由于图像分块采样的假设空间巨大导致e(bi)的最小化求解变得困难,因此场景表面布局估计算法在递归的基础上通过分步最小化的形式来获得近似解:(a)首先,估计bi的几何属性,即包括了对其视角类型vi和地平线的二维位置fi进行推理,并通过最小化能量项fgeometry和fcontacts来实现。其中,fgeometry定义了bi内部所有超像素的平面几何标注的均值与预测得到的bi视角类型vi之间的相似度,而fcontacts代表了地面区域与垂直于地面区域的交点以及天空区域与垂直于地面区域的交点之间的几何一致性;(b)其次,利用步骤(a)估计得到的几何属性vi和fi,通过最小化能量项fintra_stability和finter_stability来计算bi的稳定性。在这里,fintra_stability和finter_stability在密度估计d的基础上度量了bi的内在物理稳定性以及和其他分块之间的外在物理稳定性;(c)接着,通过步骤(a)和(b)推理得到的vi和sij来最小化代表各个图像分块在三维空间中相对深度关系的代价函数fdepth,且分块之间的深度排序d需要满足图像中投影区域的一致性;(d)最后,由于算法初始生成的超像素容易形成不完整的分块,为此在先前估计得到的深度排序d和视角类型vi基础上,场景表面布局估计算法以递归的方式进行图像分块的分裂和合并以实现进一步的优化。进一步来讲,在步骤s2中,物体的真实边界位于不同物体类超像素的共同边界上。事实上,场景表面布局估计也往往能够给场景中不同物体类之间的区分提供潜在信息。那么,场景表面布局估计算法可通过如下方式来改进边界/深度估计算法的性能:通过场景表面布局估计更新后输出的几何和语义本征图像辅助场景中物体边界的推理,并通过结合物体边界和相机视点信息对场景中物体的相对深度关系进行估计。由于物体边界能够提供空域支持关系,为此我们也利用边界和深度信息来改善场景的几何和语义标注,具体方式如下:首先,在通过对图像i进行多尺度分割后得到的分割块集中,查找分割块内部最有可能的边界e,并根据训练条件随机场模型后输出的边界置信度p(e|i)判断该分割块是否具有单一的场景几何标注:当p(e|i)>0.5时,我们认为分割块具有单一的平面几何标注,否则判断其内部混合了具有多种平面几何标注的超像素。上述判断有助于改进式(1)中分割块同质性预测的鲁棒性,进而优化场景的几何结构推理。其次,由于图像区域的外观特征通常随着距离的变化而变化。由于在场景表面布局估计算法中对视点类的学习综合了颜色和纹理等多种特征,因此上述纹理变化对于分割块的视点估计同样会产生影响。为此,本文在每个分割块中分别计算所有像素点的平均深度以及深度斜率其中,通过首先计算每一图像行上各个图像点深度的均值,然后将所有图像行的深度均值经过最小二乘法拟合得到。在边界/深度估计算法中,将起到以下两大作用:首先,作为新特征来重新训练场景表面布局估计算法中的平面布局标注分类器,从而对位于不同深度位置分割块的类别标注进行改进;其次,场景表面布局估计算法中的全局深度排序主要通过分析分块之间的密度和相互支撑关系得到。当已知每个图像分块的时,将其作为具有较高权重系数的能量项加入到fdepth中,进而实现深度排序的优化。则同样被作为新的统计特征用于场景表面布局估计算法中平面几何标注分类器的重训练,从而对属于平面结构的分割块所对应的视角类型vi估计进行优化。进一步来讲,在步骤s3中,边界/深度估计和物体/视点检测算法之间也可以通过语义交互实现各自的优化:首先,物体假设可以通过判断近邻的分割块是否属于同一物体的不同组成部分以改进物体边界推理的效果,具体思路如下:在每个分割块中,首先分别计算各个物体类检测假设的平均和最大置信度;接着,统计如下特征:(a)所有物体类假设的平均置信度之和;(b)两个近邻分割块之间物体假设的平均置信度的绝对值差之和;(c)不同物体假设置信度之间的最大绝对值之差。利用上述新的统计特征,我们同样训练基于adaboost的逻辑回归分类器已对近邻分割块是否属于同一物体进行预测。其次,物体/视点检测算法输出的物体边界预测同样有助于将错误的物体检测结果剔除,从而证明它们从属于某个具有更大尺寸物体的一部分,比如:人行道中的一部分被物体/视点估计模块判定为属于汽车,并且该结果与预测的相机视点结果一致。不过,当它属于更大的水泥结构道路的一部分时则该物体假设被丢弃。为此,本文框架采取了以下三种机制:(a)如果物体/视点检测算法输出的物体假设与边界/深度估计模块得到的结果不一致,则将该物体假设丢弃;(b)如果边界/深度估计算法输出的划分后的区域与物体检测框之间有至少50%的区域重叠,那么该区域将被标注为此物体类;(c)如果被标注为某物体类的区域面积小于期望物体类面积的25%,那么该候选物体假设也将被剔除。相应的,如图3所示,基于多重语义交互的递归式场景理解方法还包括步骤:s41、利用物体/视点检测算法获取待检测图像的物体检测假设,学习物体在图像中的存在性、位置以及尺寸三种上下文语义特征,对语义特征进行加权,获取物体假设的置信图以及水平线的位置估计;s42、根据物体假设的置信图以及水平线的位置统计获取物体类特征输入以及水平线位置与表面区域的顶部和底部之间的行坐标之差;s43、将物体类特征输入以及行坐标差作为初始的场景表面布局估计算法进行重新训练,以改进视点和密度类的估计。在上述方法中,如图4所示,物体/视点检测算法首先通过基于部件模型学习的uoctti检测器在每幅图像中获取评分前100位的物体检测假设。对于每个检测假设,采用了多种不同的上下文信息来分别学习得到物体在图像中的存在性,位置以及尺寸上述三种上下文语义,并在pascalvoc’08数据集的基础上通过训练经典的逻辑回归分类器对上述语义特征进行加权。对于每幅测试图像,使用该逻辑回归分类器对上述物体假设进行重新评分。更新后的物体假设得分box_score在接下来被用于基于物体空域支撑的上下文特征分析中,通过与经典的图像语义分割算法所输出的物体假设得分seg_score进行加权,进而得到优化后的最终检测假设评分。物体/视点检测算法将输出以下两个本征图像:(a)物体假设的置信度图;(b)水平线的位置估计。同样,物体假设和视点等信息可通过如下方式来改进场景表面布局估计算法的性能:对于每个表面区域k,我们根据式(3)提取如下三种新的统计特征,并对初始的场景表面布局估计算法进行重新训练以改进视点和密度类的估计:(a)对每个像素的物体类置信度pobj(k)求和并计算其均值作为新的物体类特征输入f1;(b)统计物体/视点估计算法输出的水平线位置h与表面区域k的顶部和底部(位于10%和90%之间图像横坐标内的区域)之间的行坐标之差,即f2和f3。在上式中,和分别代表表面区域k的顶部和底部(位于10%和90%之间图像横坐标内的区域)之间的行坐标。上述方法设计了一种基于多种语义交互的递归式场景理解框架。在该框架中,采用了三种经典的场景理解算法:表面布局估计,边界/深度估计和物体/视点检测作为该框架的视觉分析模块(分别定义为模块1,模块2和模块3),其流程如图5所示:上述框架具有如下优点:(1)不同视觉分析模块之间进行语义交互,上述过程通过各自输出的本征图像进行,并不断对本征图像进行更新,从而使得各个模块性能均得到逐步改善;(2)根据需要可插入新的模块而无须对框架进行大的调整,具有良好的可扩展性;(3)通过本征信息而不是使用某些人为设定的硬约束实现语义交互,使得算法具有较好的鲁棒性并适用于一般化的场景。下面对上述方法的实验结果进行分析。本文在加州大学伊利诺伊分校的geometriccontext图像集基础上,通过设计不同的实验来分别定性和定量地测试本文提出的基于多重语义交互的递归式场景理解框架性能。我们人工采样了其中的50幅图像用于场景几何和语义标注以及边界/深度推理过程中的模型学习,200幅图像则用于测试场景几何,物体,视点,边界以及深度等的预测结果,还有50幅图像则用于交叉验证。不同实验场景下,本文框架中各个视觉分析模块在不同递归次数时的本征图像输出。在基于场景几何和标注的本征图像中,不同的颜色区域分别代表朝向为“frontal”、“left-occluded”、“right-occluded”、“solid”和“porous”的图像分块。在基于边界/深度估计的本征图像中,曲线代表了估计得到的物体边界,颜色的渐变则代表了由近至远的距离深度变化。在基于物体/视点估计的本征图像中,不同颜色的外接矩形框代表了各个物体识别的结果,而直线段则代表了估计的水平线位置。通过不同模块之间的语义交互,场景中各个区域的几何和语义标注准确性均得到了渐进式改进。比如,“city05”图像中,基于场景表面布局估计的本征图像中左边建筑朝向的初始估计为“frontal”,通过语义交互后则被修正为“left-occluded”;基于边界/深度估计的本征图像中的深度信息通过递归后显得更接近真实情况;基于物体/视点估计的本征图像中左侧边界将部分汽车区域和建筑混合在一起,而经过优化后得到的边界则更为准确,成功地将建筑和汽车进行了区分,并且物体识别的效果也得到了进一步的优化。同样,在“college08”图像中,基于场景表面布局估计的本征图像中部被树木分割开来的建筑两面的朝向估计经过递归优化后得到了有效改进,同时深度估计和物体识别同样实现了优化;在图“streets05”图像中,不仅基于场景表面布局估计的本征图像中部的汽车以及右侧的建筑的朝向和深度均实现了改进,而且找到了树木和建筑之间的准确边界,此外场景中汽车目标的定位也变得更为精准。表1给出了hoiem等人提出的平面几何标注算法(定义为a1)和在其基础之上实现改进的场景表面布局估计算法(定义为a2)上述两种经典算法与本文框架中不同递归过程(分别命名为i1,i2和i3)得到的结果之间进行定量的性能对比。通过表1可以看到,当单独运行算法a2(其等价于本文框架的第一次递归)时,其三大主视角类(“ground”,“vertical”和“sky”)的平均分类精度为88.7%,而“vertical”中的八个子视角类(“frontal”,“front-right”,“front-left”,“left-right”,“left-occluded”,“right-occluded”,“porous”和“solid”)的平均分类精度则为66.9%。当来自物体,视点,边界和深度等上下文本征图像被同时加入时,可以发现主视角类和“vertical”子视角类的平均分类精度则分别提高了2.6%和2.2%。其中,仅有子视角类“left-occluded”和“left-right”的分类精度略有降低,这很可能是由于边界/深度估计模块提供的边界和深度信息不够精确所致。另外通过实验还可以发现,随着递归次数的增加,各个不同的视角类从总体上均体现出不同程度的性能提升趋势,并且基本上到了第三次递归时绝大多数的视角类均已改进不显著或者无法继续改进。此外,对于“vertical”中的子视角类“solid”,来自物体/视点估计模块的“person”置信度被作为特征而选择,因此具有较高“person”置信度的区域很有可能属于“solid”类型通过第一次递归中图像中部“person”识别的结果起到了改进第三次递归时场景表面布局估计的效果。表1不同场景表面布局估计算法的性能比较2、边界/深度估计分析采用边界分类(定义为c1),前景/背景分割(定义为c2)以及整体分割精度(定义为c3)上述三个指标来定量地评价边界/深度推理模块的性能。通过实验我们发现,当物体识别的信息被加入时“car”和“person”的边界通过数次递归后在测试图像中被更好地勾勒出来。然而在某些情况下,比如一群“person”或者一排“car”的groundtruth标注通常被标注为一个物体。针对上述情况,我们分别统计归一化割(normalizedcuts)(定义为d1)和多尺度分割(multiplesegmentation)(定义为d2)上述两种经典的无监督分割算法以及本文框架在不同递归阶段的性能统计,如表2所示:表2基于不同方法的边界推理性能对比算法/评价(%)c1c2c3d178.362.081.7d2(i1)84.275.282.4i286.079.983.7i387.481.586.2通过表2不难看到,本文框架通过多次递归后在获得了比上述两种经典分割方法更为精确的边界描述。此外,由于相机的视点和焦距未知,从而只能定性地区判断深度估计的准确性。3、物体/视点估计分析为了便于比较,本文框架使用了dalal-triggs提出的物体检测器[18]来提供不同类别的物体假设以及置信度。我们忽略了geometriccontext测试数据集中高度低于25个像素的“car”以及高度低于50个像素的“person”,那么最终数据集中总共包含了85个“car”和384个“person”物体。表3分别统计了[18](定义为b1),[16](定义为b2)和[14](定义为b3)上述三种经典的物体检测算法以及本文算法在不同递归阶段的检测精度。表3不同物体检测算法之间的比较物体/算法(%)b1b2b3(i1)i2i3person43.446.244.953.050.7car50.254.847.554.055.9在表3中可以看到,方法b2一开始在上述三种经典方法中具有最好的表现,然而在通过基于语义交互的三次递归后,本文的物体/视点估计模块在上述两类物体的检测性能均超过了方法b2,最终的物体检测精度相比于第一次递归时分别提高了5.8%和8.4%。此外,当在第一次递归中加入视点以及场景表面布局等语义时,“person”的检测结果改进较为显著,不过当在接下来的递归中边界信息也加入时,“car”的检测精度得到了改进但是“person”的检测精度则略微有所下降,这可能是由于远距离的“person”依然坚持使用不再鲁棒的边界信息所致。与此同时,通过统计发现10%的正确“person”检测和7%的正确“car”检测在基于边界的滤波中被丢弃。不过总体上,当场景的几何,语义,视点和边界信息同时加入后,“car”和“person”的检测精度均得到了提升。由于无法获取数据集中的实际相机高度,为此我们通过分析水平线的位置来评价视点估计的效果。在图6中可以发现,groundtruth标注的水平线与本文算法估计得到的水平线之间图像高度差的平均(mean)百分比达到了14.5%;当使用基于数据驱动(data-driven)的水平线估计(即采用labelme图像集来估计水平线位置)时,该误差下降了3.0%。在本文算法的第一次递归后,该误差下降则可以下降到4.8%。不过,接下来的递归后误差并没有明显的下降。上述方法一改传统的前馈式系统设计思路,提出了一种简易的交互式场景理解框架。在该框架中,不同的视觉分析模块之间可通过上下文语义交互实现各自性能的渐进式优化。实验结果证明,这种基于本征信息交互的递归式场景理解框架能够改善传统基于前馈式系统存在无法纠错的问题,具有自我改善的机制和良好的扩展性,并为一般化的图像理解算法性能提升开辟了一条新的途径。传统基于前馈设计的视觉系统存在的一大缺陷是当某个环节出现错误时无法被及时修正,从而影响系统的最终性能。为此,本文提出了一种简易的交互式方法,其特点在于场景语义的不确定性能够通过不同的视觉分析过程协同工作实现求解和优化。在该方法中,我们分别使用了三个经典的场景理解算法作为视觉分析模块,不同模块之间利用彼此输出的表面布局,边界,深度,视点和物体类等上下文语义之间的交互以实现各自性能的渐进式提升。实验结果表明,这种基于本征信息交互的反馈式设计能够有效改善前馈式系统存在的不足,并且具有良好的可扩展性。对于本领域的技术人员而言,阅读上述说明后,各种变化和修正无疑将显而易见。因此,所附的权利要求书应看作是涵盖本发明的真实意图和范围的全部变化和修正。在权利要求书范围内任何和所有等价的范围与内容,都应认为仍属本发明的意图和范围内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1