基于气囊阵列触觉感知的模式识别方法及系统与流程

文档序号:21783316发布日期:2020-08-07 20:17阅读:296来源:国知局
基于气囊阵列触觉感知的模式识别方法及系统与流程

本发明涉及机器人皮肤感知领域技术领域,特别涉及一种基于气囊阵列触觉感知的模式识别方法及系统。



背景技术:

伴随着机器人技术在工业和生物医学工程领域的广泛应用,智能机器人需要在各种复杂多变的多信息环境执行人机协同工作。当机器人视觉受限时,触觉是接收外部信息的重要来源,而机器人皮肤作为与环境交互的媒介,其触觉感知能够提供有效的机器人执行多任务的环境信息反馈。传统的机器人皮肤模式识别方法的触觉信息采集通常依赖于限定位姿、限定位置下的物体接触,触觉感知模式识别方法仅参考单一机器学习算法训练网络,识别精度较低,且容易存在过拟合等问题。



技术实现要素:

有鉴于此,本发明的目的在于提供一种保证精确度、可靠性和适用性的气囊阵列式触觉感知的模式识别方法及系统。

为达到上述目的,本发明提供如下技术方案:

本发明提供的基于气囊阵列触觉感知的模式识别方法,其特征在于:包括以下步骤:

采集气囊阵列机器人皮肤传感器在不同接触模式下的触觉数据;

对气囊皮肤采集的触觉数据信息进行特征提取并存储特征信息;

建立用于物体识别的融合算法模型;

输入特征信息和环境信息进行利用融合算法模型识别物体形状及对象;

输出物体形状及对象。

进一步,所述皮肤传感器按照阵列方式设置于机器人上,所述皮肤传感器标定时通过将皮肤传感器固定在水平测试平台上进行静态特性标定。

进一步,所述皮肤传感器通过不同方式接触气囊。

进一步,所述特征信息是通过气囊单元提取的数据特征向量,所述数据特征向量包括气囊阵列单元气压数值和单位时间气压变化量。

进一步,所述融合算法模型采用stacking融合策略建立,具体步骤如下:

s1:初始化获取的触觉数据集,划分训练集和测试集;

s2:进行第一层训练,通过k折交叉验证对训练集进行模型训练,并得到训练集和测试集上的预测结果;

s3:将第一层模型训练结果,即训练集预测结果和测试集预测结果作为第二层模型中训练集和测试集的元特征,采用逻辑回归分类方法,进行stacking第二层训练,进而得到最终的预测结果。

本发明还提供了基于气囊阵列触觉感知的模式识别系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:

采集气囊阵列机器人皮肤传感器在不同接触模式下的触觉数据;

对气囊皮肤采集的触觉数据信息进行特征提取并存储特征信息;

建立用于物体识别的融合算法模型;

输入特征信息和环境信息,利用融合算法模型识别物体形状及对象;

输出物体形状及对象。

进一步,所述皮肤传感器按照阵列方式设置于机器人上,所述皮肤传感器标定时通过将皮肤传感器固定在水平测试平台上进行静态特性标定。

进一步,所述皮肤传感器通过不同方式接触气囊。

进一步,所述特征信息是通过气囊单元提取的数据特征向量,所述数据特征向量包括气囊阵列单元气压数值和单位时间气压变化量。

进一步,所述融合算法模型采用stacking融合策略建立,具体步骤如下:

s1:初始化获取的触觉数据集,划分训练集和测试集;

s2:进行第一层训练,通过k折交叉验证对训练集进行模型训练,并得到训练集和测试集上的预测结果;

s3:将第一层模型训练结果,即训练集预测结果和测试集预测结果作为第二层模型中训练集和测试集的元特征,采用逻辑回归分类方法,进行stacking第二层训练,进而得到最终的预测结果。

本发明的有益效果在于:

本发明提供的基于气囊阵列触觉感知的模式识别方法,根据气囊阵列机器人皮肤感知系统采集到不同对象的触觉数据,利用该触觉感知数据训练得到模式识别的算法模型,最后,针对未知触觉感知数据的接触类型,利用该机器学习算法模型进行识别。

本方法采用xg-boost、lightgbm主流分布式框架,及随机森林等多种机器学习算法融合算法,集成xg-boost模型复杂度自控制、噪声数据鲁棒性优势,构造了基于stacking集成策略的融合模式识别算法,提升模型预测效果,针对大型数据集也有着良好的鲁棒性,lightgbm内存和并行计算优化,随机森林简单稳定的优点,训练得到的新型融合算法具有更高的准确性、可靠性和适用范围,弥补了传统模式识别方法的不足。

该方法从物体接触角度、气囊阵列接触位置改变的动态环境下提取的触觉数据做训练,使得训练得到的模型具有更好的鲁棒性。利用不同形状的物体几何特性、不同物理对象(包括人机交互、物体接触)完成模式识别,一方面有助于触觉探索行为分析及避障的信息补充,另一方面弥补了传统机器人皮肤触觉感知不含人机交互类型的接触场景的空缺。

本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。

附图说明

为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:

图1是气囊皮肤传感器物体模型识别的流程框图。

图2是stacking模型集成策略流程示意图。

具体实施方式

下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好的理解本发明并能予以实施,但所举实施例不作为对本发明的限定。

实施例1

如图1所示,本实施例提供的气囊阵列式触觉感知的模式识别方法,该方法针对气囊阵列机器人皮肤传感器的触觉感知过程,对所采集到的触觉数据训练,得到模式识别模型,利用训练得到的方法实现对新的数据的识别。

本实施例提供的方法利用基于气囊阵列的柔性机器人皮肤传感器,在接触物体时气囊阵列采集到气压信息,训练机器学习融合算法模型识别接触机器人皮肤的形状类型及对象类型;从物体接触角度、气囊阵列接触位置改变的动态环境下提取的触觉数据做训练,使得训练得到的模型具有更好的鲁棒性。利用不同形状的物体几何特性、不同物理对象(包括人机交互、物体接触)完成模式识别,一方面有助于触觉探索行为分析及避障的信息补充,另一方面弥补了传统机器人皮肤触觉感知不含人机交互类型的接触场景的空缺。

本实施例提供的基于气囊阵列触觉感知的模式识别方法,包括以下步骤:

1、采集气囊阵列机器人皮肤传感器在不同接触模式下的触觉数据;

本实施例的皮肤传感器从物体接触角度、气囊阵列接触位置的改变分别获取不同接触模式下的触觉数据;

2、对气囊皮肤采集的气压触觉数据信息进行特征提取并存储特征信息;

3、根据提取的数据训练融合算法模型;

4、利用得到的融合模型完成对物体形状及对象的识别;

本实施例提供的融合算法模型是通过建立机器学习模型对物体进行识别的;预测接触类别通过基于机器学习模型和其他环境信息。

实施例2

本实施例提供的基于气囊阵列触觉感知皮肤传感器建立的新型机器学习算法融合模式识别方法,需要对气囊阵列触觉感知机构进行数据采集及响应动态动态特性测定,以保证实验数据的可靠性和准确性,包括以下步骤:

步骤1,针对附着在智能机器人上的气囊阵列皮肤传感器横纵向各有n个气囊单元,组成n*n线性阵列,在特定测试环境对其进行标定,检验皮肤传感器触觉感知的可靠性;

本实施例提供的气囊阵列皮肤传感器固定在水平测试平台上,对该皮肤传感器进行静态特性标定,得到该气囊阵列皮肤的刚度、力位移等静态特性。本实施例主要应用mts压力试验机来标定气囊阵列皮肤传感器的相关静态特性,包括标定拉伸特性,可变刚度等特性。

将封装好的密闭气囊单元模型固定在水平托盘上,通过压力机上方的压砝施加竖直方向位移,检测不同位移作用下皮肤传感器单元的静态(形变回弹)特性,改变初始内部气压获得可变刚度特性,解调仪上位机实时采集压砝重力信息并储存数据;通过读取多组测试数据,并进行异值处理,最终得到稳态数据。

步骤2,控制不同类型的物体及对象通过不同方式接触气囊阵列皮肤传感器,获取触觉传感数据;

本实施例的气囊按照阵列拼接,搭建气囊阵列皮肤感知系统,控制不同类型的物体及对象通过不同方式接触气囊阵列皮肤传感器,获取触觉传感数据;

本实施例可以将气囊阵列安装固定在一个支撑平面上,通过控制变量法获得各物体对象在不同工况模式下的触觉感知数据。

步骤3,通过气囊单元提取的数据特征向量,所述数据特征向量由n*n气囊阵列单元气压数值和其单位时间变化量组成m维特征向量w=[p0...p(n*n),q0…q(n*n)],建立特征数据库;

步骤4,建立融合算法模型,以决策树为baseline,融合xg-boost、lightgbm、随机森林采用图2所示的融合策略训练得到最终融合算法模型;

步骤5,利用上述训练的融合算法模型,对外部接触物体对象进行识别。

本实施例的模式识别模型融合多种机器学习算法,可以使得发挥出各个模型的优势,让这些相对较弱的模型通过某种策略结合起来,达到比较强的预测结果。数据采集基于接触物体对象在气囊皮肤传感器位置、角度方向变化,使得训练得到的学习网络具备较好的鲁棒性。

实施例3

如图2所示,图2是stacking模型集成策略流程示意图,本实施例提供的融合算法模型通过stacking分层模型集成方法融合机器学习算法来建立的,stacking分层模型集成方法,是解决异质模型间融合的一种有效方法,可以有效提升模型的泛化能力,减小过拟合现象,提升模型整体效果,具体步骤如下:

s1:初始化数据集,m=1,代表第m个单一模型,所述单一模型包括决策树、随机森林、xg-boost或lightgbm四种中的一种;

s2:设i=1,i代表交叉验证的次数;

s3:单一模型进行交叉训练,再令i=i+1;

s4:得到单一模型下对训练集和测试集的预测结果;

s5:判断i<=5是否成立,如果是,则返回步骤s3;

s6:如果否,则令m=m+1;

s7:判断m<=4是否成立,如果是,则返回步骤s2;

s8:获得训练集预测结果pm(m∈1,2,3,4),测试集的预测结果tn(n∈1,2,3,4);

s9:使用逻辑回归模型做第二层模型训练,即将第一层模型训练得到的元特征作为逻辑回归算法的特征,使用sigmoid函数作为激活函数,在训练过程中,赋予不同的特征不同的权重,并得到每个样本属于不同类别的概率值,取概率值最高的类别作为最终的预测类别;

s10:对测试集进行预测。

本实施例提供的stacking集成模型融合过程,首先提取经过预处理的原始数据集i,将原始数据集中80%划分为训练集p,20%划分为测试集t,将训练集p其均分为5份pi(i∈1,2,3,4,5),将其中四份数据做训练集训练模型,另外一份做验证集,得到p验证集和测试集的预测结果后,轮换位置,即进行完五次交叉验证,得到训练集的完整预测结果pm,因为采用了五折交叉验证,对测试集进行了五次预测,因此对五次预测结果取平均,得到测试集预测结果tn;对四个单一模型分别重复进行以上步骤,分别获得训练集预测结果pm(m∈1,2,3,4),测试集的预测结果tn(n∈1,2,3,4)。

将pm和tn作为第二层模型中训练集和测试集的元特征,采用逻辑回归分类方法,进行stacking第二层训练,进而得到最终的预测结果。本实施例提供的逻辑回归分类方法,使用sigmoid函数作为激活函数,在训练过程中,赋予不同的特征不同的权重,并得到每个样本属于不同类别的概率值,取概率值最高的类别作为最终的预测类别。

采用xg-boost、lightgbm主流分布式框架及随机森林等多种机器学习算法融合算法,该融合过程通过starking过程来实现,集成xg-boost模型复杂度自控制、噪声数据鲁棒性优势,lightgbm内存和并行计算优化,随机森林简单稳定的优点,训练得到的新型融合算法具有更高的准确性、可靠性和适用范围,弥补了传统模式识别方法的不足。

实施例4

本实施例提供基于气囊阵列触觉感知的模式识别系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述程序时实现以下步骤:

采集气囊阵列机器人皮肤传感器在不同接触模式下的触觉数据;

对气囊皮肤采集的触觉数据信息进行特征提取并存储特征信息;

建立用于物体识别的融合算法模型;

输入特征信息和环境信息进行利用融合算法模型识别物体形状及对象;

输出物体形状及对象。

处理器中存储上述方法中的融合算法模型,该模型采用stacking融合策略建立,具体步骤如下:

初始化获取的触觉数据集,划分训练集和测试集;进行第一层训练,通过k折交叉验证对训练集进行模型训练,并得到训练集和测试集上的预测结果;将第一层模型训练结果,即训练集预测结果和测试集预测结果作为第二层模型中训练集和测试集的元特征,采用逻辑回归分类方法,进行stacking第二层训练,进而得到最终的预测结果。

以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1