语种识别方法、计算机设备、存储介质和计算机程序产品与流程

文档序号:33372358发布日期:2023-03-08 02:46阅读:34来源:国知局
语种识别方法、计算机设备、存储介质和计算机程序产品与流程

1.本技术涉及计算机技术领域,特别是涉及一种语种识别方法、计算机设备、存储介质和计算机程序产品。


背景技术:

2.随着计算机技术的快速发展和国际化交流的日益紧密,多门语言的音频数据在多个领域中进行使用,对音频数据进行语种识别也成为了各领域的一项重要技术。
3.目前,现有的语种识别技术训练得到的模型通常只能识别固定类型的语种,这与模型在训练过程中使用的语种数据集的类型有关,在面对新语种时,需要对模型重新进行训练,使得训练得到的模型对新语种的识别准确率较低。


技术实现要素:

4.基于此,有必要针对上述技术问题,提供一种能够提高语种识别准确率的语种识别方法、计算机设备、计算机可读存储介质和计算机程序产品。
5.第一方面,本技术提供了一种语种识别方法。所述方法包括:
6.将待识别音频输入至预先训练的音频特征提取模型,得到所述待识别音频的音频特征;所述预先训练的音频特征提取模型通过不同语种的样本音频训练得到;
7.从所述预先训练的音频特征提取模型所包含的音频码本中,得到与所述待识别音频的音频特征对应的目标码本特征;所述音频码本包括不同语种的码本特征向量;
8.根据所述目标码本特征中各码本特征向量的分布,得到所述待识别音频的分布特征向量;
9.将所述样本音频的分布特征向量中,与所述待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为所述待识别音频的语种类别。
10.在其中一个实施例中,预先训练的音频特征提取模型通过如下方式训练得到:
11.将不同语种的样本音频分别输入至待训练的音频特征提取模型中的音频编码模型和说话人编码模型,得到所述样本音频对应的样本音频特征和说话人特征;
12.从所述待训练的音频特征提取模型所包含的音频码本中,得到与所述样本音频特征对应的样本码本特征;
13.将所述样本码本特征与所述说话人特征进行拼接,将拼接得到的拼接特征输入至所述待训练的音频特征提取模型中的音频解码模型,得到所述样本音频的预测音频特征;
14.根据所述样本音频的预测音频特征和所述样本音频的实际音频特征之间的差异,对所述待训练的音频特征提取模型进行迭代训练,得到所述预先训练的音频特征提取模型。
15.在其中一个实施例中,样本音频特征通过如下方式处理得到:
16.通过所述待训练的音频特征提取模型中的音频编码模型,对所述样本音频的初始
样本依次进行卷积处理、批标准化处理和激活处理,得到所述样本音频的处理后样本特征;
17.对所述样本音频的处理后样本特征与所述样本音频的初始样本特征进行融合后得到的融合特征,依次进行卷积处理、批标准化处理和激活处理,得到所述样本音频的编码特征;
18.对所述样本音频的编码特征进行降维处理,得到所述样本音频的降维特征;
19.将所述样本音频的降维特征输入至门控循环网络,得到所述样本音频的样本音频特征。
20.在其中一个实施例中,说话人特征通过如下方式处理得到:
21.通过所述待训练的音频特征提取模型中的说话人编码模型,对所述样本音频的初始样本特征依次进行卷积处理、批标准化处理和激活处理,得到所述样本音频的处理后样本特征;
22.对所述样本音频的处理后样本特征与所述每帧样本的初始样本特征进行融合后得到的融合特征,依次进行卷积处理、批标准化处理和激活处理,得到所述样本音频的编码特征;
23.对所述样本音频的编码特征进行降维处理,得到所述样本音频的降维特征;
24.对所述样本音频的降维特征进行均值处理,得到所述样本音频对应的说话人特征。
25.在其中一个实施例中,在将不同语种的样本音频分别输入至待训练的音频特征提取模型中的音频编码模型和说话人编码模型,得到所述样本音频对应的样本音频特征和说话人特征之前,还包括:
26.获取不同语种的初始音频;
27.对每个语种的初始音频进行语音激活处理,得到所述每个语种的初始音频中的有效音频;
28.根据每个语种的有效音频的时长,分别对所述每个语种的有效音频进行变速处理和/或变调处理后得到所述样本音频。
29.在其中一个实施例中,根据所述目标码本特征中各码本特征向量的分布,得到所述待识别音频的分布特征向量,包括:
30.根据所述目标码本特征中码本特征向量的数量分布,得到所述目标码本特征的直方图;
31.对所述目标码本特征的直方图进行归一化处理,得到所述待识别音频的分布特征向量。
32.在其中一个实施例中,将所述样本音频的分布特征向量中,与所述待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为所述待识别音频的语种类别,包括:
33.从各个样本音频的分布特征向量中,筛选得到预设数量的与所述待识别音频的分布特征向量之间的距离满足预设第一距离条件的目标分布特征向量;
34.从所述目标分布特征向量对应的语种类别中,筛选出语种类别的数量最多的语种类别,作为所述待识别音频的语种类别。
35.在其中一个实施例中,从所述预先训练的音频特征提取模型中的音频码本中,得
到与所述待识别音频的音频特征对应的目标码本特征,包括:
36.从所述音频码本中的码本特征向量中,筛选得到所述待识别音频的音频特征中各个音频特征向量对应的目标码本特征向量;
37.将各个目标码本特征向量组合为所述待识别音频的音频特征对应的目标码本特征。
38.第二方面,本技术还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
39.将待识别音频输入至预先训练的音频特征提取模型,得到所述待识别音频的音频特征;所述预先训练的音频特征提取模型通过不同语种的样本音频训练得到;
40.从所述预先训练的音频特征提取模型所包含的音频码本中,得到与所述待识别音频的音频特征对应的目标码本特征;所述音频码本包括不同语种的码本特征向量;
41.根据所述目标码本特征中各码本特征向量的分布,得到所述待识别音频的分布特征向量;
42.将所述样本音频的分布特征向量中,与所述待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为所述待识别音频的语种类别。
43.第三方面,本技术还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
44.将待识别音频输入至预先训练的音频特征提取模型,得到所述待识别音频的音频特征;所述预先训练的音频特征提取模型通过不同语种的样本音频训练得到;
45.从所述预先训练的音频特征提取模型所包含的音频码本中,得到与所述待识别音频的音频特征对应的目标码本特征;所述音频码本包括不同语种的码本特征向量;
46.根据所述目标码本特征中各码本特征向量的分布,得到所述待识别音频的分布特征向量;
47.将所述样本音频的分布特征向量中,与所述待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为所述待识别音频的语种类别。
48.第四方面,本技术还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
49.将待识别音频输入至预先训练的音频特征提取模型,得到所述待识别音频的音频特征;所述预先训练的音频特征提取模型通过不同语种的样本音频训练得到;
50.从所述预先训练的音频特征提取模型所包含的音频码本中,得到与所述待识别音频的音频特征对应的目标码本特征;所述音频码本包括不同语种的码本特征向量;
51.根据所述目标码本特征中各码本特征向量的分布,得到所述待识别音频的分布特征向量;
52.将所述样本音频的分布特征向量中,与所述待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为所述待识别音频的语种类别。
53.上述语种识别方法、计算机设备、存储介质和计算机程序产品,将待识别音频输入
至预先训练的音频特征提取模型,得到待识别音频的音频特征;预先训练的音频特征提取模型通过不同语种的样本音频训练得到;从预先训练的音频特征提取模型所包含的音频码本中,得到与待识别音频的音频特征对应的目标码本特征;音频码本包括不同语种的码本特征向量;根据目标码本特征中各码本特征向量的分布,得到待识别音频的分布特征向量;将样本音频的分布特征向量中,与待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为待识别音频的语种类别。采用本方法,能够基于无标签的不同语种的样本音频进行无监督学习,得到预先训练的音频特征提取模型,然后通过预先训练的音频特征提取模型来得到待识别音频的目标码本特征,而无需通过预先训练的音频特征提取模型来预测待识别音频的语种类别;根据与特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,来确定待识别音频的语种类别,具有语种识别准确率较高的优点,在预先训练的音频特征提取模型不重新训练的情况下,也可以提高对新语种类别的待识别音频的识别能力。
附图说明
54.图1为一个实施例中语种识别方法的应用环境图;
55.图2为一个实施例中语种识别方法的流程示意图;
56.图3为一个实施例中预先训练的音频特征提取模型的训练步骤的流程示意图;
57.图4为一个实施例中音频特征提取模型中音频编码模型和音频解码模型的结构示意图;
58.图5为一个实施例中音频特征提取模型中说话人编码模型的结构示意图;
59.图6为另一个实施例中语种识别方法的流程示意图;
60.图7为一个实施例中音频特征提取模型的训练的示意图;
61.图8为一个实施例中计算机设备的内部结构图。
具体实施方式
62.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
63.本技术实施例提供的语种识别方法,可以应用于如图1所示的应用环境中。其中,终端101通过网络与服务器102进行通信。终端101可以采集初始音频或待识别音频等音频数据,也可以提供语种识别的相关服务;服务器102可以泛指提供语种识别相关服务的后台系统。数据存储系统可以存储服务器102需要处理的数据。数据存储系统可以集成在服务器102上,也可以放在云上或其他网络服务器上。其中,终端101可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器102可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
64.在一种实施方式中,终端101将获取的待识别音频输入至预先训练的音频特征提取模型,得到待识别音频的音频特征;预先训练的音频特征提取模型通过不同语种的样本
音频训练得到;从预先训练的音频特征提取模型所包含的音频码本中,得到与待识别音频的音频特征对应的目标码本特征;音频码本包括不同语种的码本特征向量;根据目标码本特征中各码本特征向量的分布,得到待识别音频的分布特征向量;将样本音频的分布特征向量中,与待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为待识别音频的语种类别。因此,上述语种识别方法的执行主体可以是终端101。
65.在一种实施方式中,上述语种识别方法也可以基于服务器102单独实现。例如,服务器102可以从后台数据库中获取待识别音频,并通过执行上述语种识别方法,得到待识别音频的语种类别。
66.在一种实施方式中,上述语种识别方法也可以基于终端101与服务器之间的交互进行实现。例如,终端101在获取待识别音频后,将待识别音频发送至服务器102,服务器102通过执行上述语种识别方法,得到待识别音频的语种类别,然后服务器102还可以将待识别音频的语种类别发送到终端101进行展示。再例如,服务器可以从后台的数据库中获取到干声,将待识别音频发送至终端101,终端101通过执行上述语种识别方法,得到待识别音频的语种类别,终端101也可以将待识别音频的语种类别上传到服务器中进行存储。
67.由上可知,本示例性实施方式中,上述语种识别方法的执行主体可以是上述终端101或服务器102,还可以应用于包括终端101和服务器102的系统,并通过端101和服务器102的交互实现,本公开对此不做限定。
68.在一个实施例中,如图2所示,提供了一种语种识别方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
69.步骤s201,将待识别音频输入至预先训练的音频特征提取模型,得到待识别音频的音频特征;预先训练的音频特征提取模型通过不同语种的样本音频训练得到。
70.其中,待识别音频是指需要识别语种类别的音频数据。待识别音频可以是语音数据和歌声数据。
71.其中,音频特征提取模型是指用于提取音频数据(例如待识别音频)的特征的模型;音频特征提取模型可以是深度学习中标准的变分自编码器,也可以是基于矢量量化的变分自编码器,音频特征提取模型还可以是由音频编码模型、音频解码模型和说话人编码模型组成的模型,音频特征提取模型当然还可以根据待识别音频的特征提取需求进行相应改变。
72.其中,待识别音频的音频特征是指能够表征待识别音频的音高、语调、节奏变化等声音突出性质的信息。
73.其中,样本音频是指用于训练待训练的音频特征提取模型的音频数据;样本音频可以是有标签的音频数据,也可以是无标签的音频数据。
74.具体地,终端通过多个不同语种的样本音频对待训练的音频特征提取模型进行训练,得到预先训练的音频特征提取模型;在实际应用中,多个不同语种的样本音频可以包含有大量的无标签的样本音频和少量的有标签样本音频。
75.终端上可以部署有音频采集设备,进而终端采集用户的初始音频,还可以通过单独的音频采集设备来采集用户的初始音频,并将初始音频发送到终端。进一步地,终端对初始音频进行预处理,得到待识别音频;然后将待识别音频输入至预先训练的音频特征提取
模型中的音频编码模型,通过音频编码模型对待识别音频进行特征提取处理,得到待识别音频的音频特征。同时,终端将待识别音频输入至预先训练的音频特征提取模型中的说话人编码模型,得到待识别音频的说话人特征。
76.在实际应用中,终端可以将待识别音频转换为梅尔谱特征;其中,梅尔谱特征的维度为[t,m],t表示待识别音频的帧数,m表示梅尔谱的维度,m可以设置为80。将梅尔谱特征,输入至预先训练的音频特征提取模型中的音频编码模型,得到梅尔谱特征的音频特征,作为待识别音频的音频特征。
[0077]
步骤s202,从预先训练的音频特征提取模型所包含的音频码本中,得到与待识别音频的音频特征对应的目标码本特征;音频码本包括不同语种的码本特征向量。
[0078]
需要说明的是,音频码本为预先训练的音频特征提取模型中的编码器和解码器共享使用的码本。音频码本是指查找表的形式的、具有不同语种的码本特征向量的集合。目标码本特征是指由音频码本中,与待识别音频的音频特征之间的相似度满足预设相似度条件的多个码本特征向量组成的特征信息。码本特征向量是指不同语种的音频的潜在变量。
[0079]
具体地,待识别音频的音频特征中包含有待识别音频的各帧音频的音频特征向量,终端对待识别音频的音频特征中各个音频特征向量与音频码本中各个码本特征向量进行相似度处理,得到音频特征中各个音频特征向量与音频码本中各个码本特征向量之间的相似度;从音频码本的各个码本特征向量中,筛选得到与各个音频特征向量之间的相似度满足预设相似度条件的码本特征向量,作为各个音频特征向量对应的目标码本特征向量,由所有的目标码本特征向量共同作为与待识别音频的音频特征对应的目标码本特征。在实际应用中,终端可以通过最近邻查找实现相似度处理。
[0080]
步骤s203,根据目标码本特征中各码本特征向量的分布,得到待识别音频的分布特征向量。
[0081]
具体地,待识别音频对应的目标码本特征由多个码本特征向量组成,终端根据目标码本特征中各码本特征向量的数量,确定待识别音频对应的各码本特征向量的分布;进而对各码本特征向量的分布进行归一化,得到待识别音频的分布特征向量。
[0082]
步骤s204,将样本音频的分布特征向量中,与待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为待识别音频的语种类别。
[0083]
其中,预设距离条件是指针对样本音频的分布特征向量与待识别音频的分布特征向量之间的距离设置的判定条件。语种类别是指音频数据所属的语种;例如,中文、英文和日文等。分布特征向量是指对目标码本特征中码本特征向量的频次分布进行处理后得到的数据。
[0084]
具体地,终端在使用样本音频进行训练的过程中,可以存储每个样本音频的语种类别,进而在判断待识别音频的语种类别时,可以从样本音频的分布特征向量(为便于与其他音频的分布特征向量区分,可以将其称为样本分布特征向量)中,查询得到与待识别音频的分布特征向量之间的距离满足预设距离条件的样本分布特征向量,作为目标分布特征向量,然后将目标分布特征向量的语种类别中,满足预设语种类别数量条件的语种类别,作为待识别音频的语种类别。
[0085]
在实际应用中,终端可以使用无参数的分类方法来判断待识别音频的语种类别,
例如,k近邻分类(k nearest neighbor,knn)方法。
[0086]
上述语种识别方法中,将待识别音频输入至预先训练的音频特征提取模型,得到待识别音频的音频特征;预先训练的音频特征提取模型通过不同语种的样本音频训练得到;从预先训练的音频特征提取模型所包含的音频码本中,得到与待识别音频的音频特征对应的目标码本特征;音频码本包括不同语种的码本特征向量;根据目标码本特征中各码本特征向量的分布,得到待识别音频的分布特征向量;将样本音频的分布特征向量中,与待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为待识别音频的语种类别。采用本方法,能够基于无标签的不同语种的样本音频进行无监督学习,得到预先训练的音频特征提取模型,然后通过预先训练的音频特征提取模型来得到待识别音频的目标码本特征,而无需通过预先训练的音频特征提取模型来预测待识别音频的语种类别;根据与特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,来确定待识别音频的语种类别,具有语种识别准确率较高的优点,在预先训练的音频特征提取模型不重新训练的情况下,也可以提高对新语种类别的待识别音频的识别能力。
[0087]
在一个实施例中,如图3所示,上述步骤s201中的预先训练的音频特征提取模型通过如下方式训练得到:
[0088]
步骤s301,将不同语种的样本音频分别输入至待训练的音频特征提取模型中的音频编码模型和说话人编码模型,得到样本音频对应的样本音频特征和说话人特征。
[0089]
其中,音频编码模型是指用于对音频数据(例如样本音频)进行编码处理的模型,该模型可以识别音频数据的特征并进行编码转换。说话人编码模型是指用于对音频数据(例如样本音频)对应的说话人的数据进行编码的模型,该模型可以识别音频数据对应的说话人的声音特征并进行编码转换。
[0090]
其中,样本音频特征是指能够表征样本音频的音高、语调、节奏变化等声音突出性质的信息。说话人特征是指表征说话人的音色、音调、发声频率等说话人的突出性质的信息。具体地,待训练的音频特征提取模型中包含有音频编码模型、说话人编码模型和音频解码模型;通过音频编码模型中的编码器对样本音频进行处理,得到样本音频对应的样本音频特征。通过说话人编码模型对样本音频进行处理,得到样本音频对应的说话人特征。
[0091]
需要说明的是,说话人编码模型的执行时间,可以在音频编码模型之前,也可以与音频编码模型同时执行,还可以在音频编码模型之后,在此对音频编码模型和说话人编码模型的执行先后顺序不进行具体限定。
[0092]
步骤s302,从待训练的音频特征提取模型所包含的音频码本中,得到与样本音频特征对应的样本码本特征。
[0093]
其中,待训练的音频特征提取模型中的音频码本与预先训练的音频特征提取模型中的音频码本相同。
[0094]
具体地,样本音频的样本音频特征中包含有样本音频的各帧音频的样本音频特征向量,终端处理得到样本音频特征中各个样本音频特征向量,与音频码本中各个码本特征向量之间的相似度;从音频码本的各个码本特征向量中,筛选得到与各个样本音频特征向量之间的相似度满足预设相似度条件的码本特征向量,作为各个样本音频特征向量对应的样本码本特征向量,由所有的样本码本特征向量共同作为与样本音频特征对应的样本码本
特征。
[0095]
在实际应用中,终端可以将预设相似度条件设置为相似度最高的码本特征向量;例如,假设样本音频特征中包含有样本音频特征向量a和样本音频特征向量b,音频码本中包含有码本特征向量1、码本特征向量2、码本特征向量3和码本特征向量4;若样本音频特征向量a与码本特征向量1、2、3和4之间的相似度分别是70、82、85和92,则将码本特征向量4作为样本音频特征向量a对应的样本码本特征向量;若样本音频特征向量b与码本特征向量1、2、3和4之间的相似度分别是65、77、95和80,则将码本特征向量3作为样本音频特征向量b对应的样本码本特征向量。
[0096]
步骤s303,将样本码本特征与说话人特征进行拼接,将拼接得到的拼接特征输入至待训练的音频特征提取模型中的音频解码模型,得到样本音频的预测音频特征。
[0097]
其中,音频解码模型是指用于对音频数据(例如上述步骤s303中的拼接特征)进行解码处理的模型。样本音频的预测音频特征是指由待训练的音频特征提取模型输出的,与输入的样本音频对应的预测结果。样本音频的实际音频特征是指对样本音频的声音信号处理后得到的语音特征。例如,根据样本音频的语谱图,将样本音频处理为梅尔谱特征,则处理后得到的梅尔谱特征可以看作样本音频的实际音频特征;将样本音频输入到音频特征提取模型中,得到音频特征提取模型输出的梅尔谱特征,则音频特征提取模型输出的梅尔谱特征可以看作样本音频的预测音频特征。
[0098]
具体地,终端对样本码本特征和说话人特征进行拼接处理,得到拼接特征;然后终端通过待训练的音频特征提取模型中的音频解码模型对拼接特征进行处理,得到样本音频的预测音频特征。
[0099]
步骤s304,根据样本音频的预测音频特征和样本音频的实际音频特征之间的差异,对待训练的音频特征提取模型进行迭代训练,得到预先训练的音频特征提取模型。
[0100]
具体地,终端获取样本音频的实际音频特征,然后计算得到预测音频特征和样本音频的实际音频特征之间的均方误差,根据均方误差构建得到损失函数;通过损失函数对待训练的音频特征提取模型进行迭代训练,得到预先训练的音频特征提取模型。
[0101]
本实施例中,通过待训练的音频特征提取模型中的音频编码模型和说话人编码模型对不同语种的样本音频进行处理,得到样本音频对应的样本音频特征和说话人特征;通过待训练的音频特征提取模型中的音频解码模型对样本音频特征与说话人特征进行拼接得到的拼接特征进行处理,得到样本音频的预测音频特征;进而根据样本音频的预测音频特征和样本音频的实际音频特征之间的差异,对待训练的音频特征提取模型进行迭代训练,得到预先训练的音频特征提取模型,能够挖掘出不同语种的样本音频中在音频方面和说话人方面的更多特征信息,有利于提高后续步骤的语种类别的识别准确率。
[0102]
在一个实施例中,上述步骤s301中的样本音频特征通过如下方式处理得到:通过待训练的音频特征提取模型中的音频编码模型,对样本音频的初始样本特征依次进行卷积处理、批标准化处理和激活处理,得到样本音频的处理后样本特征;对样本音频的处理后样本特征与样本音频的初始样本特征进行融合后得到的融合特征,依次进行卷积处理、批标准化处理和激活处理,得到样本音频的编码特征;对样本音频的编码特征进行降维处理,得到样本音频的降维特征;将样本音频的降维特征输入至门控循环网络,得到样本音频的样本音频特征。
[0103]
其中,激活处理可以基于线性整流函数(rectified linear unit,relu)来实现。融合特征是指由输入的特征,以及输入的特征依次经过卷积处理、批标准化处理和激活处理后输出的特征融合得到的特征。
[0104]
具体地,终端获取不同语种的样本音频;对该样本音频进行特征转换处理,得到样本音频对应的初始样本特征;在实际应用中,终端可以将不同语种的样本音频转换为相应的梅尔谱特征,然后通过待训练的音频特征提取模型中的音频编码模型和说话人编码模型,分别对不同语种的样本音频中每帧音频的梅尔谱特征进行处理,得到对应的样本音频特征和说话人特征。
[0105]
进一步地,终端通过音频编码模型对初始样本特征依次进行卷积处理、批标准化(batchnorm)处理和激活处理,得到初始样本特征对应的处理后样本特征;将处理后样本特征与初始样本特征进行融合处理,得到处理后样本特征与初始样本特征之间的融合特征;对融合特征再次依次进行卷积处理、批标准化处理和激活处理,得到编码特征。后续步骤中,终端会重复将输入进行卷积处理、批标准化处理和激活处理的特征,与依次进行卷积处理、批标准化处理和激活处理后输出的特征,进行融合处理,再将融合处理得到特征作为输入再次进行卷积处理、批标准化处理和激活处理的步骤,直到满足预设循环终止条件。终端获取满足预设循环终止条件时的编码特征,将该编码特征输入线性层(linear)中进行降维处理,得到对应的降维特征;将降维特征输入至门控循环网络,得到样本音频的样本音频特征。其中,门控循环网络可以是标准的gru网络(gate recurrent unit),也可以是双向门控循环单元(bidirectional gated recurrent unit,bi-gru),当然也可以是其他的由gru变形得到的网络。
[0106]
在实际应用中,音频特征提取模型中的音频编码模型与音频解码模型可以具有相同的模型结构。图4为音频特征提取模型中音频编码模型和音频解码模型的结构示意图,如图4所示,构建卷积核的大小为3、通道数为128的卷积单元,标记为conv(3,128),并构建批处理单元和基于relu的激活单元,将卷积单元、批处理单元和激活单元作为残差连接结构,其中,音频编码模型或音频解码模型中的残差连接结构可以是5个;以样本音频特征为例,先将样本音频特征的初始样本特征输入5个残差连接结构中,输出编码特征,再将编码特征输入至线性层(linear)中进行降维处理,得到对应的降维特征;将降维特征输入至bi-gru,得到样本音频的样本音频特征,进一步地,针对待识别音频的处理方式同理。
[0107]
本实施例中,通过待训练的音频特征提取模型中的音频编码模型,对样本音频的初始样本特征依次进行卷积处理、批标准化处理和激活处理,得到样本音频的处理后样本特征;对样本音频的处理后样本特征与样本音频的初始样本特征进行融合后得到的融合特征,依次进行卷积处理、批标准化处理和激活处理,得到样本音频的编码特征;对样本音频的编码特征进行降维处理,得到样本音频的降维特征;进而将样本音频的降维特征输入至门控循环网络,得到样本音频的样本音频特征,通过对样本音频的处理后样本特征与样本音频的初始样本特征进行融合,能够避免音频编码模型的梯度消失,通过使音频特征提取模型中的音频编码模型学习到样本音频中的样本音频特征,从而提高了训练得到的音频特征提取模型的准确率。
[0108]
在一个实施例中,上述步骤s301中的说话人特征可以通过如下方式处理得到:通过待训练的音频特征提取模型中的说话人编码模型,对样本音频的初始样本特征依次进行
卷积处理、批标准化处理和激活处理,得到样本音频的处理后特征;对样本音频的处理后样本特征与样本音频的初始样本特征进行融合后得到的融合特征,依次进行卷积处理、批标准化处理和激活处理,得到样本音频的编码特征;对样本音频的编码特征进行降维处理,得到样本音频的降维特征;对样本音频的降维特征进行均值处理,得到样本音频对应的说话人特征。
[0109]
具体地,终端获取不同语种的样本音频后,可以对该样本音频进行特征转换处理,得到样本音频对应的初始样本特征;终端通过说话人编码模型对初始样本特征依次进行卷积处理、批标准化(batchnorm)处理和激活处理,得到初始样本特征对应的处理后样本特征;将处理后样本特征与初始样本特征进行融合处理,得到处理后样本特征与初始样本特征之间的融合特征;对融合特征依次进行卷积处理、批标准化处理和激活处理,得到编码特征。后续步骤中,终端会重复将输入进行卷积处理、批标准化处理和激活处理的特征,与进行卷积处理、批标准化处理和激活处理后输出的特征,进行融合处理,再将融合处理得到特征作为输入再次进行卷积处理、批标准化处理和激活处理的步骤,直到满足预设循环终止条件。终端获取满足预设循环终止条件时的编码特征,将该编码特征输入线性层(linear)中进行降维处理,得到对应的降维特征;对该降维特征进行均值处理,得到样本音频对应的说话人特征。
[0110]
在实际应用中,图5为音频特征提取模型中说话人编码模型的结构示意图,如图5所示,构建卷积核的大小为3、通道数为128的卷积单元,标记为conv(3,128),并构建批处理单元和基于relu的激活单元,将卷积单元、批处理单元和激活单元作为残差连接结构,其中,说话人编码模型中的残差连接结构可以是5个;以样本音频特征为例,先将样本音频特征的初始样本特征输入5个残差连接结构中,输出编码特征,再将编码特征输入至线性层(linear)中进行降维处理,得到对应的降维特征;对该降维特征进行均值处理,得到样本音频对应的说话人特征,进一步地,针对待识别音频的处理方式同理。
[0111]
本实施例中,通过待训练的音频特征提取模型中的说话人编码模型,对样本音频的初始样本特征进行卷积处理、批标准化处理和激活处理,得到样本音频的处理后特征;对样本音频的处理后样本特征与样本音频的初始样本特征之间的融合特征,再次进行卷积处理、批标准化处理和激活处理,得到样本音频的编码特征;进而对样本音频的编码特征进行降维处理,得到样本音频的降维特征;对样本音频的降维特征进行均值处理,得到样本音频对应的说话人特征;通过对样本音频的处理后样本特征与样本音频的初始样本特征进行融合,能够避免说话人编码模型的梯度消失,通过使音频特征提取模型中的说话人编码模型学习到样本音频中的说话人特征,从而提高了预选训练的音频特征提取模型的准确率。
[0112]
在一个实施例中,在步骤s201,将不同语种的样本音频分别输入至待训练的音频特征提取模型中的音频编码模型和说话人编码模型,得到样本音频对应的样本音频特征和说话人特征之前,还包括:获取不同语种的初始音频;对每个语种的初始音频进行语音激活处理,得到每个语种的初始音频中的有效音频;根据每个语种的有效音频的时长,分别对每个语种的有效音频进行变速处理和/或变调处理后得到样本音频。
[0113]
其中,有效音频是指初始音频中存在有效发声的音频片段。
[0114]
具体地,终端可以从互联网、唱歌软件、数据库等多个途径中获取不同语种的初始音频;通过语音激活检测(voice activity detection,vad)技术,分别对每个语种的初始
音频进行语音激活处理,得到每个语种的初始音频中的静音音频,通过对初始音频中的静音音频进行删除处理,得到初始音频中的有效音频;根据每个语种的有效音频的时长,分别对每个语种的有效音频进行变速处理和/或变调处理,得到每个语种的处理后音频;终端将处理后音频作为样本音频。
[0115]
需要说明的是,获取到的不同语种的初始音频中有效音频的时长可能不同,但是不会因为某个初始音频中有效音频的时长比较短,就对该初始音频进行变慢处理,而是统计每个语种的有效音频的总时长,对于有效音频的总时长较短的语种,终端可以进行更多次数的变速处理和变调处理,以增强该有效音频的总时长较短的语种的样本音频。假如对中文的有效音频进行了5次变速处理和变调,那么中文的有效音频就扩充了五倍。
[0116]
本实施例中,通过获取不同语种的初始音频;对每个语种的初始音频进行语音激活处理,得到每个语种的初始音频中的有效音频;根据每个语种的有效音频的时长,分别对每个语种的有效音频进行变速处理和/或变调处理后得到样本音频,使不同语种的样本音频具有均衡的时长,从而有效的提升了预先训练的音频特征提取模型的训练效果,从而提高了预先训练的音频特征提取模型对待识别音频的特征提取能力。
[0117]
在一个实施例中,上述步骤s203,根据目标码本特征中各码本特征向量的分布,得到待识别音频的分布特征向量,具体包括如下内容:根据目标码本特征中码本特征向量的数量分布,得到目标码本特征的直方图;对目标码本特征的直方图进行归一化处理,得到待识别音频的分布特征向量。
[0118]
其中,直方图用于表示目标码本特征中各码本特征向量的分布。
[0119]
具体地,终端检测得到目标码本特征中各码本特征向量的数量,进而终端根据各码本特征向量的数量,生成目标码本特征的直方图;对目标码本特征的直方图进行归一化处理,得到待识别音频的分布特征向量。需要说明的是,由于目标码本特征中各码本特征向量是从音频码本携带的不同语种的码本特征向量中筛选得到的,因此,目标码本特征中各码本特征向量的数量也可以看作音频码本中的码本特征向量被选中的次数;通过将目标码本特征中码本特征向量的数量分布转换为特征向量,能够分析待识别音频与不同语种的样本音频的分布特征向量之间的相似程度,进而合理的确定待识别音频的语种类别。
[0120]
本实施例中,根据目标码本特征中码本特征向量的数量分布,得到目标码本特征的直方图;对目标码本特征的直方图进行归一化处理,得到待识别音频的分布特征向量,实现了将目标码本特征中码本特征向量转换为待识别音频的分布特征向量,有利于后续基于待识别音频的分布特征向量执行语种识别步骤。
[0121]
在一个实施例中,上述步骤s204,将样本音频的分布特征向量中,与待识别音频的分布特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,确定为待识别音频的语种类别,具体包括如下内容:从各个样本音频的分布特征向量中,筛选得到预设数量的与待识别音频的分布特征向量之间的距离满足预设第一距离条件的目标分布特征向量;从目标分布特征向量对应的语种类别中,筛选出语种类别的数量最多的语种类别,作为待识别音频的语种类别。
[0122]
其中,第一距离条件是指针对与待识别音频的分布特征向量之间的距离设置的条件。第一距离条件用于从各个样本音频的分布特征向量中筛选得到目标分布特征向量,第一距离条件可以根据实际应用场景进行适应性设置。
[0123]
具体地,终端将样本音频输入至预先训练的音频特征提取模型,得到样本音频对应的样本音频特征,从预先训练的音频特征提取模型所包含的音频码本中,得到与样本音频特征对应的样本码本特征,根据样本码本特征中各样本码本特征向量的分布,得到样本音频的分布特征向量,并获取各个样本音频的语种类别;终端检测得到待识别音频的分布特征向量与各个样本音频的分布特征向量之间的距离。终端可以通过k近邻分类(k nearest neighbor,knn)的方式,通过遍历各个样本音频的分布特征向量,得到预设数量(标记为k)的与待识别音频的分布特征向量之间的距离满足第一距离条件的目标分布特征向量,例如,k可以设置为16,则第一距离条件也可以设置为与待识别音频的分布特征向量之间的距离最接近的16个样本音频的分布特征向量;获取各个目标分布特征向量对应的语种类别,将语种类别数量最多的语种类别作为待识别音频的语种类别。
[0124]
本实施例中,通过从各个样本音频的分布特征向量中,筛选得到预设数量的与待识别音频的分布特征向量之间的距离满足预设第一距离条件的目标分布特征向量;从目标分布特征向量对应的语种类别中,筛选出语种类别的数量最多的语种类别,作为待识别音频的语种类别,实现了待识别音频的语种类别的合理判断。
[0125]
在一个实施例中,上述步骤s202,从预先训练的音频特征提取模型中的音频码本中,得到与待识别音频的音频特征对应的目标码本特征,具体包括如下内容:从音频码本中的码本特征向量中,筛选得到待识别音频的音频特征中各个音频特征向量对应的目标码本特征向量;将各个目标码本特征向量组合为待识别音频的音频特征对应的目标码本特征。
[0126]
具体地,终端在上述步骤s202之前,预先构建维度为[n,d]的音频码本(codebook),其中,音频码本可以看做一个离散的潜在空间,n表示离散的潜在空间的大小,即音频码本的大小,d表示潜在空间中每个潜在嵌入向量的维度,即音频码本中每个码本特征向量的维度。然后终端对待识别音频的音频特征中各个音频特征向量与音频码本中各个码本特征向量进行相似度处理,得到音频特征中各个音频特征向量与音频码本中各个码本特征向量之间的相似度;进而终端可以通过最近邻查找的方式,从音频码本中的码本特征向量中,选得到与各个音频特征向量之间的相似度满足预设相似度条件的码本特征向量,作为各个音频特征向量对应的目标码本特征向量,由所有的目标码本特征向量组合为与待识别音频的音频特征对应的目标码本特征。将目标码本特征向量标记为enc

(x),enc

(x)可以通过如下方式计算得到:
[0127]
enc

(x)=ek,where k=argminj||enc(x)-ej||2[0128]
其中,enc

(x)表示待识别音频里的第x帧音频对应的目标码本特征向量;enc(x)表示待识别音频里的第x帧音频对应的的音频特征向量;ej表示音频码本中第j个码本特征向量;enc(x)-ej可以表示为音频特征向量enc(x)与音频码本中第j个码本特征向量ej之间的相似度;ek表示音频码本中与音频特征向量enc(x)之间的相似度满足预设相似度条件第k个码本特征向量。
[0129]
将目标码本特征标记为z,由所有的目标码本特征向量组合为与待识别音频的音频特征对应的目标码本特征,则目标码本特征可以通过如下方式进行表示:z={enc

(1),enc

(2),

,enc

(x)}。
[0130]
需要说明的是,待训练的音频特征提取模型针对样本音频特征的样本音频特征向量的处理得到样本码本特征向量的方式,与目标码本特征向量enc

(x)的计算方式相同。
[0131]
本实施例中,通过从音频码本中的码本特征向量中,筛选得到待识别音频的音频特征中各个音频特征向量对应的目标码本特征向量;将各个目标码本特征向量组合为待识别音频的音频特征对应的目标码本特征,相较于传统技术中直接通过模型输出待识别模型的分布特征向量,本技术中的待训练的音频特征提取模型能够基于大量的无标签的不同语种的样本音频进行无监督学习,使得预先训练的音频特征提取模型能够在未学习新语种的样本音频的情况下,对新语种的待识别音频仍具有较好的特征提取能力,从而提高了对新语种类别的待识别音频的识别能力。
[0132]
在一个实施例中,如图6所示,提供了另一种语种识别方法,以该方法应用于终端为例进行说明,包括以下步骤:
[0133]
步骤s601,获取不同语种的初始音频;对每个语种的初始音频进行语音激活处理,得到每个语种的初始音频中的有效音频。
[0134]
步骤s602,根据每个语种的有效音频的时长,分别对每个语种的有效音频进行变速处理和/或变调处理后得到样本音频。
[0135]
步骤s603,将待识别音频输入至预先训练的音频特征提取模型,得到待识别音频的音频特征;其中,预先训练的音频特征提取模型通过不同语种的样本音频训练得到。
[0136]
步骤s604,从音频码本中的码本特征向量中,筛选得到待识别音频的音频特征中各个音频特征向量对应的目标码本特征向量;将各个目标码本特征向量组合为待识别音频的音频特征对应的目标码本特征。
[0137]
步骤s605,根据目标码本特征中码本特征向量的数量分布,得到目标码本特征的直方图;对目标码本特征的直方图进行归一化处理,得到待识别音频的分布特征向量。
[0138]
步骤s606,从各个样本音频的分布特征向量中,筛选得到预设数量的与待识别音频的分布特征向量之间的距离满足预设第一距离条件的目标分布特征向量。
[0139]
步骤s607,从目标分布特征向量对应的语种类别中,筛选出语种类别的数量最多的语种类别,作为待识别音频的语种类别。
[0140]
上述语种识别方法,能够实现以下有益效果:能够基于无标签的不同语种的样本音频进行无监督学习,得到预先训练的音频特征提取模型,然后通过预先训练的音频特征提取模型来得到待识别音频的目标码本特征,而无需通过预先训练的音频特征提取模型来预测待识别音频的语种类别;根据与特征向量之间的距离满足预设距离条件的目标分布特征向量对应的语种类别,来确定待识别音频的语种类别,具有语种识别准确率较高的优点,在预先训练的音频特征提取模型不重新训练的情况下,也可以提高对新语种类别的待识别音频的识别能力。
[0141]
为了更清晰阐明本公开实施例提供的语种识别方法,以下以一个具体的实施例对上述语种识别方法进行具体说明。提供了又一种语种识别方法,可以应用于图1中的终端,具体包括如下内容:
[0142]
(1)数据准备:终端从互联网、唱歌软件、数据库等多个途径中获取不同语种的初始音频;分别对每个语种的初始音频进行语音激活检测(voice activity detection,vad)处理,得到每个语种的初始音频中的静音音频,通过对初始音频中的静音音频进行删除处理,得到初始音频中的有效音频;根据每个语种的有效音频的时长,分别对每个语种的有效音频进行变速处理和变调处理,得到每个语种的处理后音频;终端将处理后音频作为样本
音频,使得样本音频中各语种的音频的时长较为均衡。
[0143]
(2)模型训练:图7为音频特征提取模型的训练的示意图,如图7所示,终端基于矢量量化变分自编码器构建待训练的音频特征提取模型,在待训练的音频特征提取模型中构建一个维度为[n,d]的音频码本供待训练的音频特征提取模型中的音频编码模型和音频解码模型共享使用,其中,音频码本可以看做一个离散的潜在空间,n表示离散的潜在空间的大小,即音频码本的大小,d表示潜在空间中每个潜在嵌入向量的维度,即音频码本中每个码本特征向量的维度。
[0144]
终端将样本音频转换为梅尔谱特征;其中,梅尔谱特征的维度为[t,m],t表示待识别音频的帧数,m表示梅尔谱的维度,m可以设置为80。终端将梅尔谱特征输入至待训练的音频特征提取模型中的音频编码模型中,音频编码模型中具有5个残差连接结构,第一个残差连接结构对梅尔谱特征进行卷积处理、批标准化(batchnorm)处理和激活处理,得到梅尔谱特征对应的处理后样本特征,将处理后样本特征与梅尔谱特征进行融合处理,得到融合特征;将融合特征作为下一个残差连接结构的输入,并继续进行卷积处理、批标准化处理和激活处理,将残差连接结构的输出和该残差连接结构的输入进行融合,将融合得到的融合特征作为下一个残差连接结构的输入,最终得到梅尔谱特征的样本音频特征。根据音频码本中的码本特征向量,对样本音频特征中的样本音频特征向量进行最近邻查找处理,得到各个样本音频特征向量对应的样本码本特征向量,由所有的样本码本特征向量共同作为与样本音频特征对应的样本码本特征;将样本码本特征与说话人特征进行拼接处理,将处理得到的拼接特征输入至待训练的音频特征提取模型中的音频解码模型,得到预测梅尔谱,作为预测音频特征。
[0145]
对样本音频的预测梅尔谱和样本音频的实际的梅尔谱特征进行均方误差计算,得到最小均方误差(mse loss)损失函数;根据最小均方误差损失函数,对待训练的音频特征提取模型进行梯度反向传播更新模型参数,学习率为0.001,优化器为adam优化器;当损失值收敛时,得到预先训练的音频特征提取模型。
[0146]
(3)语种识别:终端获取待识别音频,将待识别音频输入预先训练的音频特征提取模型,到待识别音频的音频特征;从音频码本中,得到与待识别音频的音频特征对应的目标码本特征;将目标码本特征向量标记为enc

(x),可以通过如下方式计算得到:
[0147]
enc

(x)=ek,where k=argminj||enc(x)-ej||2[0148]
其中,enc

(x)表示待识别音频里的第x帧音频对应的目标码本特征向量;enc(x)表示待识别音频里的第x帧音频对应的的音频特征向量;ej表示音频码本中第j个码本特征向量;enc(x)-ej可以表示为音频特征向量enc(x)与音频码本中第j个码本特征向量ej之间的相似度;ek表示音频码本中与音频特征向量enc(x)之间的相似度满足预设相似度条件第k个码本特征向量。终端根据目标码本特征中各码本特征向量的数量,生成目标码本特征的直方图;对目标码本特征的直方图进行归一化处理,得到待识别音频的分布特征向量。通过遍历各个样本音频的分布特征向量,查询得到16个与待识别音频的分布特征向量之距离最近的样本音频的分布特征向量,作为目标分布特征向量;将这16个目标分布特征向量的语种类别中语种类别数量最多的语种类别作为待识别音频的语种类别。
[0149]
在本实施例中,(1)能够基于大量无标签的语音数据和歌声数据进行无监督学习,得到和语种无关的预先训练的音频特征提取模型;(2)针对新加入的语种,也能够在不重新
训练预先训练的音频特征提取模型的情况下,动态增加预先训练的音频特征提取模型对新语种的待识别音频的识别能力。应用在语音识别、歌声识别、作品分类的场景,有利于提高对音频数据的语种识别的准确性。
[0150]
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
[0151]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过wifi、移动蜂窝网络、nfc(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种语种识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
[0152]
本领域技术人员可以理解,图8中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0153]
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
[0154]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
[0155]
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
[0156]
需要说明的是,本技术所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
[0157]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(read-only memory,rom)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(reram)、磁变存储器(magnetoresistive random access memory,mram)、铁电存储器
(ferroelectric random access memory,fram)、相变存储器(phase change memory,pcm)、石墨烯存储器等。易失性存储器可包括随机存取存储器(random access memory,ram)或外部高速缓冲存储器等。作为说明而非局限,ram可以是多种形式,比如静态随机存取存储器(static random access memory,sram)或动态随机存取存储器(dynamic random access memory,dram)等。本技术所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本技术所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
[0158]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0159]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本技术专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术的保护范围应以所附权利要求为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1