专利名称:基于全景立体视觉的采摘对象的识别、分类和空间定位装置及方法
技术领域:
本发明属于全景立体视觉技术、采摘机器人技术、数字图像处理技术和模式识别技术在颗粒状农作物自动化采摘方面的应用,尤其适用于采摘机器人的自动采摘作业。
背景技术:
农作物采摘作业是农作物生产链中最耗时、最费力的一个环节。同时,采摘作业质量的好坏还直接影响到产品的后 续加工和储存。如何以低成本获得高品质的产品是农作物生产环节中必须重视和考虑的问题。由于采摘作业的复杂性,目前我国采摘作业的规模化、自动化和智能化程度仍然很低,基本上农作物采摘作业都是手工进行,就棉花采摘这一项来说每年约需要人工采摘成本8个亿。随着人口的老龄化和农业劳动力的减少,农业生产成本也相应提高,这样会大大降低产品的市场竞争力。因此采摘机器人是未来智能农业机械的发展方向。采摘机器人工作在高度非结构化的环境下,采摘对象是有生命的生物体,具有以下的特点1)采摘对象娇嫩、易脆,形状复杂且个体之间的差异性大;2)采摘对象大多数被树叶、树枝等掩盖,增大了机器人视觉定位难度,降低采摘成功率;3)采摘对象分布是随机的,分布在采摘机器人的周围,因此需要全方位的检测方法;4)希望实现智能化自动分级技术边采摘边分级,即在采摘过程中进行分类,以提高采摘物的品质和减少后续的分拣工序。采摘对象的识别与定位,是实现采摘自动化的第一步。考虑到采摘对象的生长环境、空间位置和分布状态等要素,采用三维视觉进行采摘对象的检测是一种非常有前途的解决方案。所谓三维视觉信息包括从摄像机到物体之间的距离、物体的大小和形状、各物体之间的关系等。对于采摘机器人视觉系统而言,在自然光条件下,不仅要探测到目标的存在,还要计算出采摘对象的空间坐标。目前,在园林生产和田间作业中,对于橙、橘、番茄、土豆、蘑菇、黄瓜、苹果、西瓜、葡萄等果蔬的基于机器视觉的采摘技术,国内外已有一些相关报道,但尚未检索到棉花采摘机器人的相关报道。颜色、大小和形状是反映采摘对象的重要视觉特征,是基于机器视觉的采摘对象的识别、分类的重要依据。每一种采摘对象都有其特有的颜色、大小和形状特征,这些视觉信息是识别采摘对象的重要属性特征;同时每一种采摘对象在其不同的生长期和不同的品质上,其颜色、大小和形状均有较大的差别,这些差别是基于机器视觉的分类和分级中各种判定指标和阈值取值的根据。在采摘对象颜色测量中,应选用一定的颜色模型来对采摘对象表面的颜色特征进行研究。通过该研究建立多种各具特色的颜色模型,在机器视觉研究中,常用的RGB和HIS颜色模型,HIS颜色模型的描述更接近人的视觉对颜色的感知方式,它包含色相、饱和度和亮度三要素。根据对颜色的研究结果,结合有关评级标准,就可选定区别不同色度等级的色相阈值,计算出此值下的累计频度值,就可完成颜色分级。
利用被采摘对象的颜色色差信息进行图像识别,对于有些被采摘对象,如果蔬的识别,采用HIS彩色模型用于颜色评价和图像处理是非常有效的。对于棉桃的识别,主要是基于棉桃的R、G、B均值几乎相等,而棉叶、棉枝的R、G、B均值相差较大。棉桃颜色差值绝大多数分布在45°线上,只有少量偏离45°线,且偏离程度较小;而棉叶和棉枝的颜色差值偏离45°线,且偏离程度较大,因此可以利用此特征差异进行图像识别。利用此色差模型可以有效地将棉桃从背景图像中分离出来。机器视觉的作用是从三维环境图像中获得所需的信息并构造出观察对象的明确而有意义的描述。视觉包括三个过程图像增强、特征提取和图像理解。由视觉传感器获取数字图像,经图像增强后提取颜色、形状和纹理特征参数对棉花进行分类、识别和描述。目前获取采摘对象的三维坐标的定位方法主要有下面4种类型1)多目立体视觉融合多个摄像机观察到的目标特征,重构这些特征的三维原像,并计算出目标的空间坐标;2)时间差法利用一台摄像机的多幅连续图像序列实现“从运动得到结构”,由图像匹 配估计匹配点的三维坐标;3)结构光法选择激光、微波或超声波等光源,采用光栅法、移动投光法获取距离图像和反射图像,经联合分析测出物体的形状和空间分布;4)传感器融合由视觉传感器获取原始平面图像,计算其形心坐标,再利用测距传感器测量目标的深度信息。就上述4种定位方式来说,立体视觉具有投资小、能与采摘机器人的自动导航共用一套立体视觉系统、能与前期采摘对象的识别和分类等处理共用一种视频源,因此是一种首选的解决方案。立体视觉系统一般可分为图像采集、摄像系统标定、特征选择与提取、立体匹配、深度确定和内插6个步骤。双目立体视觉运用两个相同的摄像机对同一景物从不同位置成像,获得景物的立体图像对,通过各种算法匹配出相应像点,从而计算出视差,然后采用基于三角测量的方法恢复深度信息。目前的立体视觉系统,利用立体摄像机获取不同距离的采摘对象的立体图像对,通过对图像进行灰度图像处理,将彩色图像转换为灰度图像.然后根据灰度图像对中像素点的相关性进行立体匹配,计算像素点的位置信息而获得一幅深度图像。最后对照采摘对象在深度图像中的位置,获取采摘对象的三维位置信息。但是目前的立体视觉系统在农作物采摘的实际应用中还存在着不少问题,其主要问题在于立体成像范围有限,由于采摘机器人行走在农田采摘作物环境中,采摘对象的生长区域是开放式的、随机的、不规则的和全方位的,因此,需要转动立体视觉系统来获取周边的采摘对象视频信息;其次,立体成像摄像机标定、特征提取和立体图像匹配方面在实际应用上仍然存在着一些难以解决的问题。另外由于固定的焦距只能在一定景深范围内清晰拍摄图像,因而,它限制了在某些方面的应用。此外,还存在着以下不足之处1)由于标定技术不够完善,立体视觉测量系统在采摘机器人运动中其摄像机的内外参数变化是不可避免的,因而限制了许多应用;2)在各种shape from X过程中,涉及多次坐标的转换,造成计算量过大,难以进行实时处理,限制了对采摘对象的实时识别等应用;3)双目视觉的对应点匹配歧异性大,造成了匹配的误差,影响了匹配精度。立体匹配属于典型的视觉“病态”计算问题,目前的技术还很难对图像进行无歧义高准确率的立体匹配。近年发展起来的全方位视觉传感器,以下简称0DVS,为实时获取场景的全景图像提供了一种新的解决方案。ODVS的特点是视野广(360度),能把一个半球视野中的信息压缩成一幅图像,一幅图像的信息量更大;获取一个场景图像时,ODVS在场景中的安放位置更加自由,为感知采摘机器人自身周围状态提供了一种新的重要手段;0DVS技术是以人为中心观察的图像获取技术,能使人产生身临其境的沉浸感,将ODVS技术应用于采摘机器人的导航、采摘对象的识别、分类和定位,就相当给予了采摘机器人具备了以采摘机器人为中心观察的图像获取技术,特别的是单视点的全景成像镜面的设计为构建采摘机器人的双目立体全景获取技术提供了一个良好的技术基础。
发明内容
为了克服已有的农作物采摘机器人的视觉系统难以同时完成自主导航、农作物的识别、分类和空间定位等不足,本发明提供一种既能用于采摘机器人的自主导航,又能用于农作物的识别、分类和空间定位的基于全景立体视觉的采摘对象的识别、分类和空间定位
>J-U ρ α 装直。本发明解决其技术问题所采用的技术方案是一种基于全景立体视觉的采摘对象的识别、分类和空间定位装置,包括双目立体全景视觉传感器,用于对采摘对象的识别、分类和空间定位进行分析处理的微处理器,所述的双目立体全景视觉传感器与所述的微处理器进行连接;所述的双目立体全景视觉传感器,包括两台具有相同参数的固定单视点的全方位视觉装置,全方位视觉装置简称0DVS,两台ODVS按照全方位的极线平面要求以垂直连接固定,并保证两个ODVS的主轴在同一直线上;所述的微处理器包括视频图像读取单元,用于读取两个相同成像参数的ODVS的视频图像,并保存在指定的存储设备中,其输出与视频图像展开单元连接;视频图像展开单元,用于对ODVS获取的原始视频图像进行图像预处理,图像预处理中首先对全方位图像进行展开,展开全景图保存在指定的存储单元中,其输出与采摘对象识别模块和比较标准特征参数抽取模块相连接;采摘对象识别模块,用于根据采摘对象的颜色和外形特征对采摘机器人周围的展开全景图中的采摘对象进行识别,其输出与采摘对象分类模块和采摘点匹配单元相连接;采摘对象分类模块,用于根据各种不同的采摘对象的分类标准指标库中相对应的采摘对象的分类标准对采摘对象进行分类分级,其输出与采摘对象分类控制模块相连接;各种不同的采摘对象的分类标准指标库以及采摘对象的特征库,用于存放各种不同的采摘对象的分类标准指标和颜色与外形特征值;采摘点匹配单元,用于找出同一时刻两个不同视点的图像中同一采摘对象的中心点对应的两个像点,其输出与空间信息计算单元连接;空间信息计算单元,用于计算空间上的采摘对象的中心点到立体视觉测量装置中心点的距离、方位角以及入射角,其输出与机械手空间位置计算单元连接;机械手空间位置计算单元,用于计算机械手的采摘端的空间位置,其输出控制机械手的动作,完成米摘任务;采摘对象分类控制模块,用于控制将分类分级后的采摘对象收集或分拣到相对应的采摘对象容器中。
进一步,所述的采摘对象识别模块中,通过被采摘对象的颜色特征进行识别,利用被采摘对象的颜色色差信息进行图像识别,针对每种不同的采摘对象通过实验研究,将能对某种采摘对象进行有效识别的特征值写入到各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中,每一种采摘对象在各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中都有其相对应的颜色或者外形特征的描述,所述的采摘对象识别模块根据某个规定的采摘对象的描述从ODVS获取的全景图像中检索出相似的对象,以实现采摘对象识别的目的。更进一步,所述的采摘对象分类模块,用于对识别出来的采摘对象进行分类分级,对所采收的采摘对象进行不同分级分仓归类,以减少后续的人工分拣分级的劳动;所述的采摘对象分类模块根据 采摘对象的分类分级标准进行判断,本发明中主要是根据采摘对象的视觉特征进行分类;因此从某种程度上说所述的采摘对象分类模块是所述的采摘对象识别模块的升级;每种采摘对象的分类分级标准在视觉特征上都存在着相对应的描述表达;所述的采摘对象分类模块,在采摘对象分类过程中,首先读取所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中相对应的采摘对象特征参数值或者指标值;接着采用数字图像处理方法计算每个被采摘对象的各项指标,分别取各指标的平均值作为参考形状的特征参数;然后对被采摘对象作相应的参数计算,并与所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中相对应的采摘对象特征参数值进行比较,其差值即为被采摘对象的识别特征参数;最后根据识别特征参数对采摘对象进行分类,分类的结果输出给采摘对象分类控制模块,采摘对象分类控制模块控制机械手将采摘对象收集或分拣到相对应的分类分级容器中;关于半径指标、曲率指标、连续性指标、半径指标的对称性、曲率指标的对称性和连续性指标的对称性的判断均采用数字图像处理和模式识别技术进行加工和处理。所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库,用于存放各种不同的采摘对象的分类标准指标和特征参数,分类标准指标和特征参数主要来源是O国家、行业的有关采摘对象的相关标准,对于棉花分级标准有《棉花颜色级检验技术规范》;2)按某一种采摘对象的不同等级,对其的颜色和外形进行图像分析,得到该采摘对象的各种不同等级的特征参数;因此,写入所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库也有两种对应的方法,一种方法是人工输入,即以采摘对象为主键、以采摘对象的分类分级识别代码为第二关键词,将该采摘对象某等级的标准指标和特征参数写入数据库中;另一种方法是采用图像识别和分析的方式,从给定的采摘对象等级实物图像中抽取出该采摘对象等级的特征参数作为分类标准。所述的空间信息计算单元,依据所述的采摘对象识别模块所得到的识别结果,通过全景立体ODVS所获得的立体全景视频图像,从上ODVS图像中所识别出的采摘对象通过物点的匹配找到下ODVS图像中的对应点,然后计算空间上的采摘对象的中心点到立体视觉测量装置中心点的距离、方位角以及入射角;两个ODVS的入射角,SP Φ1和Φ2和基线距AB的长度,就能计算出物点离视点中心的距离;基线距AB的长度d在设计双目立体全方位视觉传感器的结构时已经确定,公式
(7)为ODVS的入射角的计算方法,公式中的各参数是通过ODVS的标定来确定的;
权利要求
1.一种基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于包括双目立体全景视觉传感器,用于对采摘对象的识别、分类和空间定位进行分析处理的微处理器,所述的双目立体全景视觉传感器与所述的微处理器进行连接; 所述的双目立体全景视觉传感器,包括两台具有相同参数的固定单视点的全方位视觉装置,全方位视觉装置简称ODVS,两台ODVS按照全方位的极线平面要求以垂直连接固定,并保证两个ODVS的主轴在同一直线上; 所述的微处理器包括 视频图像读取单元,用于读取两个相同成像参数的ODVS的视频图像,并保存在指定的存储设备中,其输出与视频图像展开单元连接; 视频图像展开单元,用于对ODVS获取的原始视频图像进行图像预处理,图像预处理中首先对全方位图像进行展开,展开全景图保存在指定的存储单元中,其输出与采摘对象识别模块和比较标准特征参数抽取模块相连接; 采摘对象识别模块,用于根据采摘对象的颜色和外形特征对采摘机器人周围的展开全景图中的采摘对象进行识别,其输出与采摘对象分类模块和采摘点匹配单元相连接; 采摘对象分类模块,用于根据各种不同的采摘对象的分类标准指标库中相对应的采摘对象的分类标准对采摘对象进行分类分级,其输出与采摘对象分类控制模块相连接;各种不同的采摘对象的分类标准指标库以及采摘对象的特征库,用于存放各种不同的采摘对象的分类标准指标和颜色与外形特征值; 采摘点匹配单元,用于找出同一时刻两个不同视点的图像中同一采摘对象的中心点对应的两个像点,其输出与空间信息计算单元连接; 空间信息计算单元,用于计算空间上的采摘对象的中心点到立体视觉测量装置中心点的距离、方位角以及入射角,其输出与机械手空间位置计算单元连接; 机械手空间位置计算单元,用于计算机械手的采摘端的空间位置,其输出控制机械手的动作,完成采摘任务; 采摘对象分类控制模块,用于控制将分类分级后的采摘对象收集或分拣到相对应的采摘对象容器中。
2.如权利要求1所述的基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于所述的采摘对象识别模块中,通过被采摘对象的颜色特征进行识别,利用被采摘对象的颜色色差信息进行图像识别,针对每种不同的采摘对象通过实验研究,将能对某种采摘对象进行有效识别的特征值写入到各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中,每一种采摘对象在各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中都有其相对应的颜色或者外形特征的描述,所述的采摘对象识别模块根据某个规定的采摘对象的描述从ODVS获取的全景图像中检索出相似的对象,以实现采摘对象识别的目的。
3.如权利要求1或2所述的基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于所述的采摘对象分类模块,用于对识别出来的采摘对象进行分类分级,对所采收的采摘对象进行不同分级分仓归类,以减少后续的人工分拣分级的劳动;所述的采摘对象分类模块根据采摘对象的分类分级标准进行判断,本发明中主要是根据采摘对象的视觉特征进行分类;因此从某种程度上说所述的采摘对象分类模块是所述的采摘对象识别模块的升级;每种采摘对象的分类分级标准在视觉特征上都存在着相对应的描述表达; 所述的采摘对象分类模块,在采摘对象分类过程中,首先读取所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中相对应的采摘对象特征参数值或者指标值;接着采用数字图像处理方法计算每个被采摘对象的各项指标,分别取各指标的平均值作为参考形状的特征参数;然后对被采摘对象作相应的参数计算,并与所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中相对应的采摘对象特征参数值进行比较,其差值即为被采摘对象的识别特征参数;最后根据识别特征参数对采摘对象进行分类,分类的结果输出给采摘对象分类控制模块,采摘对象分类控制模块控制机械手将采摘对象收集或分拣到相对应的分类分级容器中;关于半径指标、曲率指标、连续性指标、半径指标的对称性、曲率指标的对称性和连续性指标的对称性的判断均采用数字图像处理和模式识别技术进行加工和处理。
4.如权利要求3所述的基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库,用于存放各种不同的采摘对象的分类标准指标和特征参数,分类标准指标和特征参数主要来源是1)国家、行业的有关采摘对象的相关标准,对于棉花分级标准有《棉花颜色级检验技术规范》;2)按某一种采摘对象的不同等级,对其的颜色和外形进行图像分析,得到该采摘对象的各种不同等级的特征参数;因此,写入所述的各种不同的采摘对象的分类标准指标库以及采摘对象的特征库也有两种对应的方法,一种方法是人工输入,即以采摘对象为主键、以采摘对象的分类分级识别代码为第二关键词,将该采摘对象某等级的标准指标和特征参数写入数据库中;另一种方法是采用图像识别和分析的方式,从给定的采摘对象等级实物图像中抽取出该采摘对象等级的特征参数作为分类标准。
5.如权利要求1或2所述的基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于所述的空间信息计算单元,依据所述的采摘对象识别模块所得到的识别结果,通过全景立体ODVS所获得的立体全景视频图像,从上ODVS图像中所识别出的采摘对象通过物点的匹配找到下ODVS图像中的对应点,然后计算空间上的采摘对象的中心点到立体视觉测量装置中心点的距离、方位角以及入射角; 两个ODVS的入射角,即Φ I和Φ 2和基线距AB的长度,就能计算出物点离视点中心的距离;基线距AB的长度d在设计双目立体全方位视觉传感器的结构时已经确定,公式(7)为ODVS的入射角的计算方法,公式中的各参数是通过ODVS的标定来确定的;
6.如权利要求1或2所述的基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于所述的空间信息计算单元,得到采摘对象的中心点P在高斯坐标系中的方位角βρ、入射角Φρ和采摘中心点的距离rp,根据高斯坐标系与笛卡尔坐标系的转换关系,可以将采摘对象的中心点P用笛卡尔坐标系表达,如公式(9)所示, xP=rP X COS ΦρΧ COS β ρ yp=rpX cos ΦΡΧ sin β p(9) zp=rp X sin<jip 式中,xp、Y1^Pzp分别为采摘对象的中心点P在笛卡尔坐标系中的值,βρ、小1)和1'1)分别为采摘对象的中心点P在高斯坐标系中的值。
7.如权利要求1或2所述的基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于所述的机械手空间位置计算单元,用于计算机械手的采摘端的空间位置;这里将所述的双目立体ODVS的中点作为视觉坐标系的原点,并建立XV、YV和Zv构成的三维全景视觉坐标系;将机械手的固定点作为机械手的坐标原点,并建立\、1和Za构成的三维机械手运动坐标系;由于双目立体ODVS和机械手均固定在采摘机器人的行走部分的上面,因此,用公式(10)建立三维全景视觉坐标系和三维采摘机械手运动坐标系的几何关系; Xa = )CV + X^Κ,^Κ+y( ο)Ze =Zv +Z 式中,Xa、Ya和Za分别表示三维采摘机械手运动坐标系,Xv、Yv和Zv分别表示三维全景视觉坐标系,X、y和Z分别表示两个坐标系原点之间在三维坐标上的投影距离。
8.如权利要求1或2所述的基于全景立体视觉的采摘对象的识别、分类和空间定位装置,其特征在于所述的视频图像展开单元,采用柱状展开方式,设展开的图像尺寸为mXl,则展开算法中水平方向的计算步长为,Λ β=2π/1 ;垂直方向的计算步长为Am=cKax-D ;式中,Φ_为全景原图最大有效半径Rmax对应的场景光线入射角,Φ*为全景原图最小有效半径Rmin对应的场景光线入射角; 与用极坐标表示的全景原图中的原像点Ρ(Φ,β )对应的球面展开方式中的P点坐标分别为 X= β / Δ β ;γ=φ-φηι η/ Am(6) 式中Λ β为水平方向的计算步长,β为方位角,Am为垂直方向的计算步长,φ全景原图有效半径R对应的场景光线入射角,为全景原图最小有效半径Rmin对应的场景光线入射角。
9.一种基于全景立体视觉的采摘对象的识别、分类和空间定位方法,其特征在于在对采摘对象的识别、分类前,首先需要建立一个各种不同的采摘对象的分类标准指标库以及采摘对象的特征库,同时也需要完成全景立体 ODVS的柱状展开参数设定、标定和极线校正的预备工作,设定、标定和极线校正的参数均保存在存储单元中,以便下一次使用采摘机器人时调用;接着,进入采摘对象的识别、分类和空间定位处理流程; 步骤I):通过视频图像读取单元读取两个相同成像参数的ODVS的两幅全景视频图像;步骤2):根据保存在存储单元中的设定、标定和极线校正的参数对两幅全景视频图像进行柱状展开处理; 步骤3):根据保存在各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中的采摘对象的特征参数对上ODVS所获取的全景图像展开图进行检索和识别,得到在上ODVS所获取的全景图像展开图中的采摘对象中心点; 步骤4):根据保存在各种不同的采摘对象的分类标准指标库以及采摘对象的特征库中的采摘对象的分类标准指标以及在步骤3)中检索和识别的结果进行分类分级处理,得到采摘对象的分级结果; 步骤5):根据在步骤3)中得到的在上ODVS所获取的全景图像展开图中的采摘对象中心点对下ODVS所获取的全景图像展开图进行匹配计算,得到在下ODVS所获取的全景图像展开图中的相应匹配点; 步骤6):根据在步骤3)中得到的在上ODVS所获取的全景图像展开图中的采摘对象中心点以及在步骤5)得到的在下ODVS所获取的全景图像展开图中的相应匹配点进行采摘对象空间信息的计算,得到采摘对象的中心点到全景立体ODVS中心点的距离、方位角以及入射角;然后根据高斯坐标系和笛卡尔坐标系之间的转换关系,将采摘对象的中心点用笛卡尔坐标系进行表达; 步骤7):根据在步骤6)计算得到的采摘对象的中心点到全景立体ODVS中心点的坐标值映射到采摘机器手的坐标系中,然后根据在采摘机器手的坐标系中的坐标 值控制采摘机器手的动作; 步骤8):根据在步骤4)计算得到采摘对象的分级结果,控制采摘机械手将采摘对象收集或分拣到相对应的分类分级容器中;跳转到步骤2)。
全文摘要
一种基于全景立体视觉的采摘对象的识别、分类和空间定位装置,包括双目立体全景视觉传感器,用于对采摘对象的识别、分类和空间定位进行分析处理的微处理器,所述的双目立体全景视觉传感器与所述的微处理器进行连接;所述的双目立体全景视觉传感器,包括两台具有相同参数的固定单视点的全方位视觉装置,全方位视觉装置简称ODVS,两台ODVS按照全方位的极线平面要求以垂直连接固定,并保证两个ODVS的主轴在同一直线上。本发明具有采摘识别率高、边采摘边分级分类、空间定位计算量少、空间定位高等优点。
文档编号A01D46/00GK102986372SQ20121036755
公开日2013年3月27日 申请日期2012年9月28日 优先权日2012年9月28日
发明者汤一平, 俞立 申请人:浙江工业大学