一种基于深度学习的唇语识别方法及装置与流程

文档序号:17447341发布日期:2019-04-17 05:52阅读:329来源:国知局
本发明涉及唇语识别
技术领域
:,尤其涉及一种基于深度学习的唇语识别方法及装置。
背景技术
::目前市面上常用的人机交互方式为键盘或者语音输入,在一些吵杂的环境中,获取的用户语音中掺杂环境噪声,对用户语音进行识别的过程中会受到环境噪声的影响,导致语音识别准确度低。因此,如何在吵杂环境中提高语音识别的准确度成为目前亟待解决的问题之一。技术实现要素:有鉴于此,本发明实施例提供了一种基于深度学习的唇语识别方法及装置,用以解决现有技术中吵杂环境中语音识别准确度低的问题。为了实现上述目的,根据本发明的一个方面,提供了一种基于深度学习的唇语识别方法,所述方法包括:获取用户的语音信号及视频,其中,所述视频为在所述用户发出所述语音信号的过程中对所述用户的面部进行拍摄得到的;通过语音识别技术识别所述语音信号,得到第一文本;从所述视频中获取待识别唇部图像序列;从所述待识别唇部图像序列中提取唇部特征向量,并根据所述唇部特征向量得到第二文本;根据所述第二文本修正所述第一文本,得到所述用户的语音信号对应的文本。进一步地,所述通过语音识别技术识别所述语音信号,得到第一文本的方法,包括:对所述语音信号进行特征提取,得到特征信息;根据所述特征信息以及预先建立的判别模型,识别语音特点;采用与所述语音特点相匹配的语音识别模型识别所述语音信号,得到所述第一文本。进一步地,所述从所述视频中获取待识别唇部图像序列,所述视频包括深度图像信息及红外图像信息,所述方法包括:从所述深度图像信息中提取深度图像序列,及从所述红外图像信息中提取红外图像序列;从所述深度图像序列中提取所述用户的第一唇部区域图像序列;从所述红外图像序列中提取所述用户的第二唇部区域图像序列;将所述第一唇部区域图像序列及所述第二唇部区域图像序列作为所述待识别唇部图像序列。进一步地,所述从所述待识别唇部图像序列中提取唇部特征向量,并根据所述唇部特征向量得到第二文本的方法,包括:采用基于深度学习的唇语识别算法对所述待识别唇部图像序列中的唇形轮廓进行定位,得到第一唇部轮廓曲线及第二唇部轮廓曲线;对所述第一唇部轮廓曲线与所述第二唇部轮廓曲线进行融合处理,得到目标唇部曲线;从所述目标唇部曲线中提取唇部特征向量;将提取的唇部特征向量与唇语特征库中存储的标准特征向量进行匹配,所述唇语特征库包括普通话特征库及多个方言特征库;计算所述唇部特征向量与所述标准特征向量的相似度值;选择所述相似度值大于预设阈值的唇部特征向量作为目标特征向量;输出与所述目标特征向量相对应的唇语文本;根据所述视频对多个所述唇语文本进行排序,得到所述第二文本。进一步地,所述根据所述第二文本修正所述第一文本,得到所述用户的语音信号对应的文本的方法,包括:将所述第二文本与所述第一文本进行匹配;将匹配成功的文字及空格预输出,所述空格用于表示未匹配成功的文字,得到基础文本;根据上下文语义分析获取所述第二文本中与所述空格相对应的文字的关联词;用所述关联词填补所述基础文本中的所述空格,得到所述用户的语音信号对应的文本。为了实现上述目的,根据本发明的一个方面,提供了一种基于深度学习的唇语识别装置,其特征在于,所述装置包括:第一获取单元,用于获取用户的语音信号及视频,其中,所述视频为在所述用户发出所述语音信号的过程中对所述用户的面部进行拍摄得到的;识别单元,用于通过语音识别技术识别所述语音信号,得到第一文本;第二获取单元,用于从所述视频中获取待识别唇部图像序列;生成单元,用于从所述待识别唇部图像序列中提取唇部特征向量,并根据所述唇部特征向量得到第二文本;修正单元,用于根据所述第二文本修正所述第一文本,得到所述用户的语音信号对应的文本。进一步地,所述生成单元包括:定位子单元,用于采用基于深度学习的唇语识别算法对所述待识别唇部图像序列中的唇形轮廓进行定位,得到第一唇部轮廓曲线及第二唇部轮廓曲线;融合子单元,用于对所述第一唇部轮廓曲线与所述第二唇部轮廓曲线进行融合处理,得到目标唇部曲线;第一获取子单元,用于从所述目标唇部曲线中提取唇部特征向量;第一匹配子单元,用于将提取的唇部特征向量与唇语特征库中存储的标准特征向量进行匹配,所述唇语特征库包括普通话特征库及多个方言特征库;计算子单元,用于计算所述唇部特征向量与所述标准特征向量的相似度值;确认子单元,用于选择所述相似度值大于预设阈值的唇部特征向量作为目标特征向量;第一输出子单元,用于输出与所述目标特征向量相对应的唇语文本;组成子单元,用于根据所述视频对多个所述唇语文本进行排序,得到所述第二文本。进一步地,所述修正单元包括:第二匹配子单元,用于将所述第二文本与所述第一文本进行匹配;第二输出子单元,用于将匹配成功的文字及空格预输出,所述空格用于表示未匹配成功的文字,得到基础文本;第二获取子单元,用于根据上下文语义分析获取所述第二文本中与所述空格相对应的文字的关联词;填补子单元,用于用所述关联词填补所述基础文本中的所述空格,得到所述用户的语音信号对应的文本。为了实现上述目的,根据本发明的一个方面,提供了一种存储介质,所述存储介质包括存储的程序,在所述程序运行时控制所述存储介质所在设备执行上述的基于深度学习的唇语识别方法。为了实现上述目的,根据本发明的一个方面,提供了一种服务器,包括存储器和处理器,所述存储器用于存储包括程序指令的信息,所述处理器用于控制程序指令的执行,所述程序指令被处理器加载并执行时实现上述的基于深度学习的唇语识别方法的步骤。在本方案中,通过获取用户的语音信号及视频,利用深度学习的唇语识别算法识别视频中用户的唇部特征向量,根据唇部特征向量得到第二文本,用第二文本来修正通过语音信号识别得到的第一文本,使得在嘈杂环境中,能够利用唇型来更准确地得到用户说的内容,提高嘈杂环境中语音的识别准确度,因此,本发明实施例能够解决现有技术中吵杂环境中语音识别准确度低的问题。【附图说明】为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。图1是根据本发明实施例的一种基于深度学习的唇语识别方法的流程图;图2是根据本发明实施例的一种基于深度学习的唇语识别装置的示意图。【具体实施方式】为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述终端,但这些终端不应限于这些术语。这些术语仅用来将终端彼此区分开。例如,在不脱离本发明实施例范围的情况下,第一获取单元也可以被称为第二获取单元,类似地,第二获取单元也可以被称为第一获取单元。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。图1是根据本发明实施例的一种基于深度学习的唇语识别方法的流程图,如图1所示,该方法包括:步骤s101,获取用户的语音信号及视频,其中,视频为在用户发出语音信号的过程中对用户的面部进行拍摄得到的;步骤s102,通过语音识别技术识别语音信号,得到第一文本;步骤s103,从视频中获取待识别唇部图像序列;步骤s104,从待识别唇部图像序列中提取唇部特征向量,并根据唇部特征向量得到第二文本;步骤s105,根据第二文本修正第一文本,得到用户的语音信号对应的文本。在本方案中,通过获取用户的语音信号及视频,利用深度学习的唇语识别算法识别视频中用户的唇部特征向量,根据唇部特征向量得到第二文本,用第二文本来修正通过语音信号识别得到的第一文本,使得在嘈杂环境中,能够利用唇型来得到用户说的内容,增加嘈杂环境中语音的识别准确度,因此,本实施例能够解决现有技术中吵杂环境中语音识别准确度低的问题。可选地,可以通过终端设备获取用户的语音信号,语音信号可以是wav、mp3或其他格式的语音数据。可选地,视频包括深度图像信息及红外图像信息,在一种实施方式中,深度图像信息可通过3d结构光摄像头来获取,红外图像信息可通过红外相机来获取,从而使得视频不容易受到环境如光线强弱的影响,能够有效提高视频可识别度,为识别到正确的唇语文本提供基础。可选地,通过语音识别技术识别语音信号,得到第一文本的方法,包括:对语音信号进行特征提取,得到特征信息;根据特征信息以及预先建立的判别模型,识别语音特点;采用与语音特点相匹配的语音识别模型识别语音信号,得到第一文本。具体地,特征提取例如可以是谱特征提取,基频特征提取,能量特征提取或者过零率提取等。并且,可以采用支持向量机(supportvectormachine,svm)或者隐马尔可夫模型(hiddenmarkovmodel,hmm)等建模技术建立判别模型,判别模型可以包括普通话模型、重庆口音模型、吴语口音模型、河南口音模型或者广东口音模型等;从而识别语音特点为普通话、重庆口音、吴语口音、河南口音或者广东口音等。采用与语音特点相匹配的语音识别模型识别语音信号,可以有效提高语音识别的准确度。可选地,从视频中获取待识别唇部图像序列,视频包括深度图像信息及红外图像信息,方法包括:从深度图像信息中提取深度图像序列,及从红外图像信息中提取红外图像序列;从深度图像序列中提取用户的第一唇部区域图像序列;从红外图像序列中提取用户的第二唇部区域图像序列;将第一唇部区域图像序列及第二唇部区域图像序列作为待识别唇部图像序列。可选地,从待识别唇部图像序列中提取唇部特征向量,并根据唇部特征向量得到第二文本的方法,包括:采用基于深度学习的唇语识别算法对待识别唇部图像序列中的唇形轮廓进行定位,得到第一唇部轮廓曲线及第二唇部轮廓曲线;对第一唇部轮廓曲线与第二唇部轮廓曲线进行融合处理,得到目标唇部曲线;从目标唇部曲线中提取唇部特征向量;将提取的唇部特征向量与唇语特征库中存储的标准特征向量进行匹配,唇语特征库包括普通话特征库及多个方言特征库;计算唇部特征向量与标准特征向量的相似度值;选择相似度值大于预设阈值的唇部特征向量作为目标特征向量;输出与目标特征向量相对应的唇语文本;根据视频对多个唇语文本进行排序,得到第二文本。其中,深度学习的唇语识别算法通过大量的训练样本进行训练,能够有效提高唇语识别效率。融合处理可以是将第一唇部轮廓曲线与第二唇部轮廓曲线从形状、大小、纹理、对比度这几个方面进行融合,将融合处理后的唇部轮廓曲线用于特征提取。通过从深度图像序列和红外图像序列中提取唇部轮廓曲线,能够有效避免用户在光线弱的地方,拍摄的视频识别度低的问题,使得唇语识别结果更加精确。可选地,根据第二文本修正第一文本,得到用户的语音信号对应的文本的方法,包括:将第二文本与第一文本进行匹配;将匹配成功的文字及空格预输出,空格用于表示未匹配成功的文字,得到基础文本;根据上下文语义分析获取第二文本中与空格相对应的文字的关联词;用关联词填补基础文本中的空格,得到用户的语音信号对应的文本。例如:我们下学再见;第二文本中与空格相对应的文字为“气”,他的关联词包括“七”、“其”、“期”、“奇”等,通过语义分析得到“期”,从而得到“我们下学期再见”。本发明实施例提供了一种基于深度学习的唇语识别装置,该装置用于执行上述基于深度学习的唇语识别方法,如图2所示,该装置包括:第一获取单元10、识别单元20、第二获取单元30、生成单元40、修正单元50。第一获取单元10,用于获取用户的语音信号及视频,其中,视频为在用户发出语音信号的过程中对用户的面部进行拍摄得到的。识别单元20,用于通过语音识别技术识别语音信号,得到第一文本。第二获取单元30,用于从视频中获取待识别唇部图像序列。生成单元40,用于从待识别唇部图像序列中提取唇部特征向量,并根据唇部特征向量得到第二文本。修正单元50,用于根据第二文本修正第一文本,得到用户的语音信号对应的文本。在本方案中,通过获取用户的语音信号及视频,利用深度学习的唇语识别算法识别视频中用户的唇部特征向量,根据唇部特征向量得到第二文本,用第二文本来修正通过语音信号识别得到的第一文本,使得在嘈杂环境中,能够利用唇型来得到用户说的内容,增加嘈杂环境中语音的识别准确度,因此,本实施例能够解决现有技术中吵杂环境中语音识别准确度低的问题。可选地,可以通过终端设备获取用户的语音信号,语音信号可以是wav、mp3或其他格式的语音数据。可选地,视频包括深度图像信息及红外图像信息,在一种实施方式中,深度图像信息可通过3d结构光摄像头来获取,红外图像信息可通过红外相机来获取,从而使得视频不容易受到环境如光线强弱的影响,能够有效提高视频可识别度,为识别到正确的唇语文本提供基础。可选地,识别单元20包括:第一提取子单元、识别子单元、生成子单元。第一提取子单元,用于对语音信号进行特征提取,得到特征信息;识别子单元,用于根据特征信息以及预先建立的判别模型,识别语音特点;生成子单元,用于采用与语音特点相匹配的语音识别模型识别语音信号,得到第一文本。具体地,特征提取例如可以是谱特征提取,基频特征提取,能量特征提取或者过零率提取等。并且,可以采用支持向量机(supportvectormachine,svm)或者隐马尔可夫模型(hiddenmarkovmodel,hmm)等建模技术建立判别模型,判别模型可以包括普通话模型、重庆口音模型、吴语口音模型、河南口音模型或者广东口音模型等;从而识别语音特点为普通话、重庆口音、吴语口音、河南口音或者广东口音等。采用与语音特点相匹配的语音识别模型识别语音信号,可以有效提高语音识别的准确度。可选地,第二获取单元30包括:第二提取子单元、第三提取子单元、第四提取子单元、第一处理子单元。第二提取子单元,用于从深度图像信息中提取深度图像序列,及从红外图像信息中提取红外图像序列;第三提取子单元,用于从深度图像序列中提取用户的第一唇部区域图像序列;第四提取子单元,用于从红外图像序列中提取用户的第二唇部区域图像序列;第一处理子单元,用于将第一唇部区域图像序列及第二唇部区域图像序列作为待识别唇部图像序列。可选地,生成单元40包括:定位子单元、融合子单元、第一获取子单元、第一匹配子单元、计算子单元、确认子单元、第一输出子单元、组成子单元。定位子单元,用于采用基于深度学习的唇语识别算法对待识别唇部图像序列中的唇形轮廓进行定位,得到第一唇部轮廓曲线及第二唇部轮廓曲线;融合子单元,用于对第一唇部轮廓曲线与第二唇部轮廓曲线进行融合处理,得到目标唇部曲线;第一获取子单元,用于从目标唇部曲线中提取唇部特征向量;第一匹配子单元,用于将提取的唇部特征向量与唇语特征库中存储的标准特征向量进行匹配,唇语特征库包括普通话特征库及多个方言特征库;计算子单元,用于计算唇部特征向量与标准特征向量的相似度值;确认子单元,用于选择相似度值大于预设阈值的唇部特征向量作为目标特征向量;第一输出子单元,用于输出与目标特征向量相对应的唇语文本;组成子单元,用于根据视频对多个唇语文本进行排序,得到第二文本。其中,深度学习的唇语识别算法通过大量的训练样本进行训练,能够有效提高唇语识别效率。融合处理可以是将第一唇部轮廓曲线与第二唇部轮廓曲线从形状、大小、纹理、对比度这几个方面进行融合,将融合处理后的唇部轮廓曲线用于特征提取。通过从深度图像序列和红外图像序列中提取唇部轮廓曲线,能够有效避免用户在光线弱的地方,拍摄的视频识别度低的问题,使得唇语识别结果更加精确。可选地,修正单元50包括:第二匹配子单元、第二输出子单元、第二获取子单元、填补子单元。第二匹配子单元,用于将第二文本与第一文本进行匹配;第二输出子单元,用于将匹配成功的文字及空格预输出,空格用于表示未匹配成功的文字,得到基础文本;第二获取子单元,用于根据上下文语义分析获取第二文本中与空格相对应的文字的关联词;填补子单元,用于用关联词填补基础文本中的空格,得到用户的语音信号对应的文本。例如:我们下学再见;第二文本中与空格相对应的文字为“气”,他的关联词包括“七”、“其”、“期”、“奇”等,通过语义分析得到“期”,从而得到“我们下学期再见”。本发明实施例提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行以下步骤:获取用户的语音信号及视频,其中,视频为在用户发出语音信号的过程中对用户的面部进行拍摄得到的;通过语音识别技术识别语音信号,得到第一文本;从视频中获取待识别唇部图像序列;从待识别唇部图像序列中提取唇部特征向量,并根据唇部特征向量得到第二文本;根据第二文本修正第一文本,得到用户的语音信号对应的文本。可选地,在程序运行时控制存储介质所在设备还执行以下步骤:对语音信号进行特征提取,得到特征信息;根据特征信息以及预先建立的判别模型,识别语音特点;采用与语音特点相匹配的语音识别模型识别语音信号,得到第一文本。可选地,在程序运行时控制存储介质所在设备还执行以下步骤:视频包括深度图像信息及红外图像信息,从深度图像信息中提取深度图像序列,及从红外图像信息中提取红外图像序列;从深度图像序列中提取用户的第一唇部区域图像序列;从红外图像序列中提取用户的第二唇部区域图像序列;将第一唇部区域图像序列及第二唇部区域图像序列作为待识别唇部图像序列。可选地,在程序运行时控制存储介质所在设备还执行以下步骤:采用基于深度学习的唇语识别算法对待识别唇部图像序列中的唇形轮廓进行定位,得到第一唇部轮廓曲线及第二唇部轮廓曲线;对第一唇部轮廓曲线与第二唇部轮廓曲线进行融合处理,得到目标唇部曲线;从目标唇部曲线中提取唇部特征向量;将提取的唇部特征向量与唇语特征库中存储的标准特征向量进行匹配,唇语特征库包括普通话特征库及多个方言特征库;计算唇部特征向量与标准特征向量的相似度值;选择相似度值大于预设阈值的唇部特征向量作为目标特征向量;输出与目标特征向量相对应的唇语文本;根据视频对多个唇语文本进行排序,得到第二文本。可选地,在程序运行时控制存储介质所在设备还执行以下步骤:将第二文本与第一文本进行匹配;将匹配成功的文字及空格预输出,空格用于表示未匹配成功的文字,得到基础文本;根据上下文语义分析获取第二文本中与空格相对应的文字的关联词;用关联词填补基础文本中的空格,得到用户的语音信号对应的文本。本发明实施例提供了一种服务器,包括存储器和处理器,存储器用于存储包括程序指令的信息,处理器用于控制程序指令的执行,程序指令被处理器加载并执行时实现以下步骤:获取用户的语音信号及视频,其中,视频为在用户发出语音信号的过程中对用户的面部进行拍摄得到的;通过语音识别技术识别语音信号,得到第一文本;从视频中获取待识别唇部图像序列;从待识别唇部图像序列中提取唇部特征向量,并根据唇部特征向量得到第二文本;根据第二文本修正第一文本,得到用户的语音信号对应的文本。可选地,程序指令被处理器加载并执行时还实现以下步骤:对语音信号进行特征提取,得到特征信息;根据特征信息以及预先建立的判别模型,识别语音特点;采用与语音特点相匹配的语音识别模型识别语音信号,得到第一文本。可选地,程序指令被处理器加载并执行时还实现以下步骤:视频包括深度图像信息及红外图像信息,从深度图像信息中提取深度图像序列,及从红外图像信息中提取红外图像序列;从深度图像序列中提取用户的第一唇部区域图像序列;从红外图像序列中提取用户的第二唇部区域图像序列;将第一唇部区域图像序列及第二唇部区域图像序列作为待识别唇部图像序列。可选地,程序指令被处理器加载并执行时还实现以下步骤:采用基于深度学习的唇语识别算法对待识别唇部图像序列中的唇形轮廓进行定位,得到第一唇部轮廓曲线及第二唇部轮廓曲线;对第一唇部轮廓曲线与第二唇部轮廓曲线进行融合处理,得到目标唇部曲线;从目标唇部曲线中提取唇部特征向量;将提取的唇部特征向量与唇语特征库中存储的标准特征向量进行匹配,唇语特征库包括普通话特征库及多个方言特征库;计算唇部特征向量与标准特征向量的相似度值;选择相似度值大于预设阈值的唇部特征向量作为目标特征向量;输出与目标特征向量相对应的唇语文本;根据视频对多个唇语文本进行排序,得到第二文本。可选地,程序指令被处理器加载并执行时还实现以下步骤:将第二文本与第一文本进行匹配;将匹配成功的文字及空格预输出,空格用于表示未匹配成功的文字,得到基础文本;根据上下文语义分析获取第二文本中与空格相对应的文字的关联词;用关联词填补基础文本中的空格,得到用户的语音信号对应的文本。需要说明的是,本发明实施例中所涉及的终端可以包括但不限于个人计算机(personalcomputer,pc)、个人数字助理(personaldigitalassistant,pda)、无线手持设备、平板电脑(tabletcomputer)、手机、mp3播放器、mp4播放器等。可以理解的是,所述应用可以是安装在终端上的应用程序(nativeapp),或者还可以是终端上的浏览器的一个网页程序(webapp),本发明实施例对此不进行限定。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-onlymemory,rom)、随机存取存储器(randomaccessmemory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1