语音识别处理方法、装置及电子设备与流程

文档序号:30489046发布日期:2022-06-22 01:08阅读:226来源:国知局

1.本技术涉及一种语音识别处理方法、装置及电子设备,属于计算机技术领域。


背景技术:

2.在工作和生活中,经常会遇到需要远场语音识别的场景。所谓的远场语音识别场景是指声源位置距离麦克风具有一定的距离,并且还会伴随着一定的环境噪音。常见的场景有比如会议室、车载场景、智能家居等。远场语音识别一般采用麦克风阵列的方式对语音进行采集,形成多个通道的原始声音信号。
3.目前大多数的远场语音识别系统由两个子系统构成,分别是基于信号处理的语音增强系统和进行语音识别的语音识别系统。这两个子系统通常是独立优化的且优化目标不同,其中语音增强系统采用的是基于先验知识的公式化的语音增强机制,其优化目标为语音的信噪比,而语音识别系统的优化目标则为识别的文本的准确率。由于语音增强系统的优化目标与语音识别系统的最终目标并不完全一致,在原始声音信号增强的处理过程中,为了提升信噪比,在判断出声源方向后,会舍弃一些通道的原始声音信号,仅保留被判定为声源方向的语音信息。这样的做法虽然提升了信噪比,但是由于语音增强系统的误判,导致语音信息的丢失,很可能造成语音识别的准确率下降,甚至会出现由于严重丢失语音信息而导致无法进行有效的语音识别的情形。


技术实现要素:

4.本发明实施例提供一种语音识别处理方法、装置及电子设备,以提升语音识别的准确率。
5.为了实现上述目的,本发明实施例提供了一种语音识别处理方法,包括:
6.基于滤波模型,对多个通道的原始声音信号进行语音特征提取,生成多个方向的语音特征数据;
7.基于池化网络模型,对多个方向的语音特征数据进行以语音增强为目的池化处理,生成多方向融合的语音特征数据;
8.基于语音识别模型,对多方向融合的语音特征数据进行语音识别,生成识别文本,其中,所述滤波模型、池化网络模型以及语音识别模型整体上采用端到端的模型架构。
9.本发明实施例还提供了一种语音识别处理装置,包括:
10.语音特征提取模块,用于基于滤波模型对多个通道的原始声音信号进行语音特征提取,生成多个方向的语音特征数据;
11.池化处理模块,用于基于池化网络模型对多个方向的语音特征数据进行以语音增强为目的池化处理,生成多方向融合的语音特征数据;
12.语音识别模块,用于基于语音识别模型对多方向融合的语音特征数据进行语音识别,生成识别文本,其中,所述滤波模型、池化网络模型以及语音识别模型整体上采用端到端的模型架构。
13.本发明实施例还提供了一种电子设备,包括:
14.存储器,用于存储程序;
15.处理器,用于运行所述存储器中存储的所述程序,以执行前述的语音识别处理方法。
16.本发明实施例语音识别处理方法、装置及电子设备,采用基于深度学习机制的滤波模型以及池化网络模型进行语音增强处理,并且在模型整体架构上采用端到端的架构,将语音增强和语音识别的优化目标进行了统一,从而能够有效提高语音识别的准确率,并且能够通过有效的数据训练,来适应多种的复杂的语音识别环境。
17.上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
18.图1为本发明实施例的语音识别处理系统的应用场景示意图;
19.图2为本发明实施例的语音识别处理系统的模型架构的示例性示意图;
20.图3为本发明实施例的语音识别处理方法的流程示意图;
21.图4为本发明实施例的语音识别处理装置的结构意图;
22.图5为本发明实施例的电子设备的结构示意图。
具体实施方式
23.下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
24.本发明实施例提供了一种语音识别处理方法,可以应用于远场语音识别的场景下,进行语音增强识别并形成文本输出。如图1所示,其为本发明实施例的语音识别处理系统的应用场景示意图,其整体上包括语音特征提取及增强模块和语音识别模块。
25.在远场语音识别的场景下,语音声源距离麦克风等声音采集设备具有一定的距离,并且方向不确定,很可能在发出语音的过程中进行移动,因此,声音采集设备一般可以麦克风阵列的形式,麦克风阵列包含多个麦克风单元,如图中的圆圈所示,各个麦克风单元可以具有不同的朝向,单独进行原始声音信号的采集,形成多个通道的原始声音信号,输入到语音识别处理系统。
26.语音特征提取及增强模块中主要包括滤波模型和池化网络模型,该部分的模型可以基于深度神经网络来构建。具体地,基于滤波模型,对多个通道的原始声音信号进行基于语音特征提取,生成多个方向的语音特征数据。基于池化网络模型,对多个方向的语音特征数据进行以语音增强为目的池化处理,生成多方向融合的语音特征数据。原始声音信号为麦克风采集到的声音信号,其中既包含了有用的语音信号也包含了一些环境噪声等声音信号。通过语音增强处理,希望尽可能去除噪音信号的特征并更多地保留并突出语音信号的特征。本发明实施例中,舍弃了现有技术中基于信号处理的语音增强处理模式,而是将语音
增强处理融合到了语音特征提取中,由数据驱动的方式同时学习语音增强和语音识别的能力。需要说明的是,上述的麦克风阵列中各个麦克风单元的朝向和上述的多个方向的语音特征数据中的方向并不是对应关系,麦克风单元的朝向是实际的物理朝向,而语音特征数据对应的方向是对空间进行的划分,是预设在模型中的。通过对多个麦克风单元采集的原始声音信号的特征提取以及叠加处理,将多路的原始声音信号映射到了预先设定的多个方向上,从而形成了与各个方向对应的语音特征数据。
27.语音识别模型用于对多方向融合的语音特征数据进行语音识别,生成识别文本。语音识别模型主要包括编码器和解码器,其中,编码器用于对语音特征数据进行声学特征编码,解码器用于对声学特征编码进行识别生成识别文本。上述的语音识别模型可以采用例如transformer(转换器)的模型架构,也可以采用如卷积神经网络、lstm(长短期记忆)网络等模型架构。此外,在解码器部分可以再嵌入一个语言模型,用于在解码时调整候选文本的输出的排名,即对解码器生成的候选识别文本进行辅助筛选,确定最终的识别文本。
28.在本发明实施例中,语音特征提取及增强模块和语音识别模型整体上采用端到端(end to end)的模型架构,即上述的滤波模型、池化网络模型以及编码器和解码器形成一个整体的模型,整个模型对输入的多通道的原始声音信号进行处理后,输出识别文本。在模型训练上,可以使用指定环境中的原始声音信号和对应识别文本作为训练数据,对所述滤波模型、池化网络模型以及语音识别模型进行整体训练,训练后的模型能够较好地适应该指定环境中的语音识别。上述的语言模型可以在更大规模的文本语料上通过自监督学习的方式预训练得到,可以采用已有的语言模型即可,不需要通过语音识别模型的训练而获得。下面再结合图2进一步说明一下本发明实施例的模型结构。如图2所示,其为本发明实施例的语音识别处理系统的模型架构的示例性示意图,图2对图1中各个部分的模型架构进行了进一步的示例说明。其中,语音特征提取及增强模块部分整体上采用了fclp(factored complex linear projection,分解复线性映射)的模型架构,如图中所示,作为示例具体可以包括:空间滤波模型、频域特征提取模型以及池化网络模型。在语音识别模型架构中,作为示例,本发明实施例采用了transformer(转换器)模型架构的端到端语音识别模型架构。此外,在语音识别模型架构上还可以采用基于ctc(connectionist temporal classification,连结时序分类)的模型架构,ctc是一种能够避开输入与输出手动对齐的处理模型,在ctc架构中可以嵌入beam search(集束搜索)的解码模型,从而提高语音识别效果。
29.在空间滤波模型主要包括与预设的各个方向对应的空间滤波器组成,每个空间滤波器具有各自的波束权重,每个波束权重具体可以为向量形式,如图中所示n个波束权重对应于n个空间滤波器。上述的各个空间滤波器的波束权重通过上述的模型整体的训练确定的。在进入各个空间滤波器之前,原始声音信号会经过stft(short-time fourier transform,短时傅里叶变换)模块的处理,stft模块用于对麦克风单元采集的原始声音信号进行stft运算,生成多个通道的stft数据,之后再输入到各个空间滤波器中进行处理,对于每个空间滤波器来说,分别对各个通道的stft数据进行滤波处理后进行了叠加,从而形成该空间滤波器的输出,生成了该空间滤波器对应方向上的音频数据。
30.接着,频域特征提取模型对空间滤波器输出的各个方向的音频数据分别进行语音特征提取,生成语音特征数据。这里所说的语音特征提取主要是对符合人听觉范围的一些
频域信息特征信息进行提取,作为后续语音识别的特征信息基础。频域特征提取模型主要采用频域滤波器来实现,各个频域滤波器的滤波参数通过上述的模型整体的训练确定的。
31.多个方向的语音特征数据通过池化网络模型(pooling network)的池化处理,生成多方向融合的语音特征数据,用户后续语音识别模型的语音识别处理。在池化网络模型中,可以采用最大池化(max pooling)的处理策略,对多个方向的语音特征数据进行语音特征的增强处理,在最大池化策略中,选取各个方向的语音特征数据中对应维度上的最大值作为融合后的语音特征数据的在该维度上的值,因此,最大池化处理策略可以不需要额外训练用于池化处理的参数。此外,也可以采用加权平均的池化处理策略,基于注意力机制计算方向权重,来对语音特征进行增强,加权平均池化处理使用的池化权重系数,可以与所述滤波模型的模型参数和所述语音识别模型的模型参数通过模型整体训练而确定。
32.上述的原始声音信号在进行频域采样的(例如前面提到的stft运算)的过程中会被分成多个语音切片,每个声音切片实际上为一小段时间的声音信号,上述的原始声音信号为多个声音切片的形成的序列,相应地,语音特征数据包括多个声音切片对应的语音特征数据,为了在语音识别的过程中,更好地利用上下文的信息,每个语音切片会被分配位置编码,位置编码表示了各个语音切片的时序位置,即时间维度上的位置信息。在池化处理后,会将各个语音切片的位置编码附加到各个语音切片对应的语音特征数据上,具体可以将位置编码设定为与语音特征数据维度相同的向量,与池化处理后的语音切片对应的语音特征数据的向量表示进行向量加法预算处理,从而将位置编码附加到语音特征数据上,并输入到语音识别模型的编码器中,作为语音特征数据的一部分进行编码处理。
33.作为示例,图2采用了transformer编码器和transformer解码器的模型架构。transformer编码器负责进行声学特征编码,其输入的语音特征数据包含经过语音增强处理的频域特征,并在特征上加入了表示了声音切片的顺序信息的位置编码。transformer编码器基于transformer层的结构,通过自注意力机制,对每一个声音切片位置上的声学特征引入了上下文的相关信息。最终,将每一个位置的声学特征、位置信息和上下文信息融合为一个隐式的记忆向量表示(memory)。
34.transformer解码器,通过多头注意力引入了transformer编码器输出的memory的信息,以及通过自注意力机制引入了对已解码部分文本信息的融合。如图2中所示,transformer解码器的输入一路transformer编码器输出的包含了声学特征编码的记忆向量表示,另一路输入为经过词嵌入处理的输入词向量序列,该输入词向量序列中的各个词向量经过transformer解码器的循环神经网络处理后,转变为对文本预测的词向量序列,然后经过线性层和softmax(归一化指数函数)层的处理,确定得分最高的出最终的词向量,然后转换为识别文本进行输出。对于transformer解码器,在模型训练阶段,可以通过teacher-forcing(教师强制)的方式并行对每一步的解码进行训练,而在模型预测阶段,可以通过前瞻遮挡的方式以自回归预测的方式逐步解码文本。此外,在transformer解码器可以引入一个额外的在大规模数据上预训练的语言模型,帮助transformer解码器在解码的过程中,识别生成更自然的识别文本。
35.本发明实施例采用了基于深度学习机制的滤波模型以及池化网络模型进行语音增强处理,并且在模型整体架构上采用端到端的架构,将语音增强和语音识别的优化目标进行了统一,从而能够有效提高语音识别的准确率,并且能够通过有效的数据训练,来适应
多种的复杂的语音识别环境。具体地,结合图2看,上述的空间滤波器的波束权重、用于语音特征提取的频域滤波器的滤波参数、池化网络模型的池化权重参数等与transformer解码器和解码器的模型参数,都是经过随机初始化后在大规模的与具体环境相关的训练数据上统一训练得到的,具有对真实的远场语音识别环境更好的适应性和语音识别的准确性。此外,在本发明实施例中,在空间滤波以及池化处理的过程中,能够基于多个通道的语音特征数据来综合估计声源位置,从而能够动态地调整拾音方向,在说话人位置变化时表现出更好鲁棒性,并且,基于多个通道的语音特征数据来综合估计声源位置,能够在多个空间方向上划分得更加细致,在经过大量的数据训练后,可以更加准确地估计声源位置,选择拾音方向,最终提升语音识别效果。
36.下面通过一些具体实施例来进一步说明本发明的技术方案。
37.实施例一
38.如图3所示,其为本发明实施例的语音识别处理方法的流程示意图,该方法可以应用在例如手机、电脑、车载语音设备等终端设备上,也可以应用在云端服务器,通过获取终端设备上报的原始声音信号进行后续的识别处理。具体地,该方法可以包括:
39.s101:基于滤波模型,对多个通道的原始声音信号进行语音特征提取,生成多个方向的语音特征数据。这里所说的多个通道的原始声音信号是指麦克风阵列的多个麦克风单元所采集的原始声音信号,每个麦克风单元可以有不同的朝向,独立进行原始声音信号的采集,从而形多通道原始声音信号。原始声音信号为时域信号,将其转换为频域信号后,进行基于频域特征的提取,可以生成上述的语音特征数据。这里所说的频域特征提取,主要是提取出符合人耳的听觉特征频域特征信息,包括语音中包含的各个频率分量的大小以及分布等频谱特征。
40.其中,上述的滤波模型可以包括与多个方向对应的空间滤波模型和用于语音特征提取的频域滤波模型,相应地,对多个通道的原始声音信号进行语音特征提取,生成多个方向的语音特征数据包括:
41.s1011:使用空间滤波模型,对多个通道的原始声音信号进行空间滤波处理,生成多个方向的音频数据。每个空间滤波器具有各自的波束权重,每个波束权重具体可以为向量形式。上述的各个空间滤波器的波束权重可以通过上述的模型整体的训练确定的。在进入各个空间滤波器之前,还可以对麦克风单元采集的原始声音信号进行stft处理,通过stft处理把一个较长的时间段的原始声音信号分成相同长度的更短的段(即语音切片),在每个更短的段上计算傅里叶变换,生成傅里叶频谱,该处理的主要作用在于将原始的原始声音信号转换为多个语音切片的频域数据。多个通道的stft数据,被输入到各个空间滤波器中进行处理,对于每个空间滤波器来说,分别对各个通道的stft数据进行滤波处理后进行了叠加,从而形成该空间滤波器的输出,生成了该空间滤波器对应方向上的音频数据。
42.s1012:使用频域滤波模型,对多个方向的音频数据进行语音特征提取,生成多个方向的语音特征数据。这里所说的语音特征提取主要是对符合人听觉范围的一些频域信息特征信息进行提取,作为后续语音识别的特征信息基础。频域特征提取模型主要采用频域滤波器来实现,各个频域滤波器的滤波参数通过上述的模型整体的训练确定的。
43.s102:基于池化网络模型,对多个方向的语音特征数据进行以语音增强为目的池化处理,生成多方向融合的语音特征数据。在池化处理中,可以对多个方向的语音特征数据
进行最大池化(max pooling)处理,生成多方向融合的语音特征数据。此外,也可以采用加权平均的池化处理策略,对多个方向的语音特征数据进行基于注意力机制的加权平均池化处理,生成多方向融合的语音特征数据,其中,加权平均池化处理使用的池化权重系数,与滤波模型的模型参数和语音识别模型的模型参数通过模型整体训练而确定。
44.此外,为了更好地利用上下文信息,在进行池化处理后,还可以包括对多方向融合的语音特征数据,附加各个语音切片的在时间维度上的位置编码。位置编码表示了各个语音切片的时序位置,即时间维度上的位置信息。具体可以将位置编码设定为与语音特征数据维度相同的向量,与池化处理后的语音切片对应的语音特征数据的向量表示进行向量加法预算处理,从而将位置编码附加到语音特征数据上,并输入到语音识别模型的编码器中,作为语音特征数据的一部分进行编码处理,相应地,在语音识别模型的解码器的解码过程中,也同样会引入位置编码信息,进行基于上下文的文本解码处理。
45.s103:基于语音识别模型,对多方向融合的语音特征数据进行语音识别,生成识别文本。具体地,语音识别模型可以包括transformer编码器和transformer解码器。transformer是端到端的语音识别架构,其中,transformer编码器负责进行声学特征编码,其输入的语音特征数据包含经过语音增强处理的频域特征,并在特征上加入了表示了声音切片的顺序信息的位置编码。transformer编码器可以输出为将每个位置的声学特征、位置信息和上下文信息进行融合的隐式的记忆向量表示(memory)。transformer解码器用于基于声学特征编码完成最终的识别文本的生成。transformer解码器基于transformer编码器输出的记忆向量表示和经过词嵌入处理的输入词向量序列,经过transformer解码器的循环神经网络处理后,转变为对文本预测的词向量序列,然后经过线性层和softmax(归一化指数函数)层的处理,确定得分最高的出最终的词向量,然后转换为识别文本进行输出。
46.此外,在语音识别模型中还可以嵌入语言模型,具体地,可以在transformer解码器中引入已经训练好的语言模型。相应地,步骤s103可以包括:基于语音识别模型,对多方向融合的语音特征数据进行语音识别,生成多个候选识别文本;使用语言模型对候选识别文本进行辅助筛选,确定最终的识别文本。语言模型的主要作用在于对候选识别文本进行判断,根据与自然语言表达习惯的符合程度进行打分,从而帮助解码器进行最终识别文本的确定。
47.本发明实施例的语音识别处理方法,在模型架构上采用了端到端的模型架构,上述的滤波模型、池化网络模型以及语音识别模型作为一个模型整体而进行训练。具体地,可以使用指定环境中的原始声音信号和对应识别文本作为训练数据,对滤波模型、池化网络模型以及语音识别模型进行整体训练。这里所说的指定环境就是模型需要应用的具体环境,例如希望在商场环境中进行远场语音识别,那么可以使用在商场环境中的产生的训练数据进行训练,从而能够达到在商场环境下的较高的远场语音识别准确率。
48.本发明实施例的语音识别处理方法,采用了基于深度学习机制的滤波模型以及池化网络模型进行语音增强处理,并且在模型整体架构上采用端到端的架构,将语音增强和语音识别的优化目标进行了统一,从而能够有效提高语音识别的准确率,并且能够通过有效的数据训练,来适应多种的复杂的语音识别环境。
49.实施例二
50.如图4所示,其为本发明实施例的语音识别处理装置的结构意图,该装置可以应用
在例如手机、电脑、车载语音设备等终端设备上,也可以应用在云端服务器,通过获取终端设备上报的原始声音信号进行后续的识别处理。具体地,该装置可以包括:
51.语音特征提取模块11,用于基于滤波模型对多个通道的原始声音信号进行语音特征提取,生成多个方向的语音特征数据。多个通道的原始声音信号是指麦克风阵列的多个麦克风单元所采集的原始声音信号,每个麦克风单元可以有不同的朝向,独立进行原始声音信号的采集,从而形多通道原始声音信号。原始声音信号为时域信号,将其转换为频域信号后,进行基于频域特征的提取,可以生成上述的语音特征数据。这里所说的频域特征提取,主要是提取出符合人耳的听觉特征频域特征信息,包括语音中包含的各个频率分量的大小以及分布等频谱特征。
52.其中,上述的滤波模型可以包括与多个方向对应的空间滤波模型和用于语音特征提取的频域滤波模型,相应地,对多个通道的原始声音信号进行语音特征提取,生成多个方向的语音特征数据包括:使用空间滤波模型,对多个通道的原始声音信号进行空间滤波处理,生成多个方向的音频数据;使用频域滤波模型,对多个方向的音频数据进行语音特征提取,生成多个方向的语音特征数据。其中,每个空间滤波器具有各自的波束权重,各个空间滤波器的波束权重可以通过上述的模型整体的训练确定的。这里所说的语音特征提取主要是对符合人听觉范围的一些频域信息特征信息进行提取,作为后续语音识别的特征信息基础。频域特征提取模型主要采用频域滤波器来实现,各个频域滤波器的滤波参数通过上述的模型整体的训练确定的。
53.池化处理模块12,用于基于池化网络模型对多个方向的语音特征数据进行以语音增强为目的池化处理,生成多方向融合的语音特征数据。在池化处理中,可以对多个方向的语音特征数据进行最大池化(max pooling)处理,生成多方向融合的语音特征数据。此外,也可以采用加权平均的池化处理策略,对多个方向的语音特征数据进行基于注意力机制的加权平均池化处理,生成多方向融合的语音特征数据,其中,加权平均池化处理使用的池化权重系数,与滤波模型的模型参数和语音识别模型的模型参数通过模型整体训练而确定。为了更好地利用上下文信息,在进行池化处理后,还可以包括对多方向融合的语音特征数据,附加各个语音切片的在时间维度上的位置编码。
54.语音识别模块13,用于基于语音识别模型对多方向融合的语音特征数据进行语音识别,生成识别文本,其中,所述滤波模型、池化网络模型以及语音识别模型整体上采用端到端的模型架构。具体地,语音识别模型可以采用transformer编码器和transformer解码器的模型架构。此外,在语音识别模型中还可以嵌入语言模型,相应地,基于语音识别模型对多方向融合的语音特征数据进行语音识别,生成识别文本可以包括:基于语音识别模型,对多方向融合的语音特征数据进行语音识别,生成多个候选识别文本;使用语言模型对候选识别文本进行辅助筛选,确定最终的识别文本。语言模型的主要作用在于对候选识别文本进行判断,根据与自然语言表达习惯的符合程度进行打分,从而帮助解码器进行最终识别文本的确定。
55.本发明实施例的语音识别处理装置,采用了基于深度学习机制的滤波模型以及池化网络模型进行语音增强处理,并且在模型整体架构上采用端到端的架构,将语音增强和语音识别的优化目标进行了统一,从而能够有效提高语音识别的准确率,并且能够通过有效的数据训练,来适应多种的复杂的语音识别环境。
56.实施例三
57.前面实施例描述了语音识别处理方法的流程处理及装置结构,上述的方法和装置的功能可借助一种电子设备实现完成,如图5所示,其为本发明实施例的电子设备的结构示意图,具体包括:存储器110和处理器120。
58.存储器110,用于存储程序。
59.除上述程序之外,存储器110还可被配置为存储其它各种数据以支持在电子设备上的操作。这些数据的示例包括用于在电子设备上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。
60.存储器110可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。
61.处理器120,耦合至存储器110,用于执行存储器110中的程序,以执行前述实施例中所描述的语音识别处理方法的操作步骤。
62.此外,处理器120也可以包括前述实施例所描述的各种模块以执行语音识别处理,并且存储器110可以例如用于存储这些模块执行操作所需要的数据和/或所输出的数据。
63.对于上述处理过程具体说明、技术原理详细说明以及技术效果详细分析在前面实施例中进行了详细描述,在此不再赘述。
64.进一步,如图所示,电子设备还可以包括:通信组件130、电源组件140、音频组件150、显示器160等其它组件。图中仅示意性给出部分组件,并不意味着电子设备只包括图中所示组件。
65.通信组件130被配置为便于电子设备和其他设备之间有线或无线方式的通信。电子设备可以接入基于通信标准的无线网络,如wifi,2g、3g、4g/lte、5g等移动通信网络,或它们的组合。在一个示例性实施例中,通信组件130经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件130还包括近场通信(nfc)模块,以促进短程通信。例如,在nfc模块可基于射频识别(rfid)技术,红外数据协会(irda)技术,超宽带(uwb)技术,蓝牙(bt)技术和其他技术来实现。
66.电源组件140,为电子设备的各种组件提供电力。电源组件140可以包括电源管理系统,一个或多个电源,及其他与为电子设备生成、管理和分配电力相关联的组件。
67.音频组件150被配置为输出和/或输入音频信号。例如,音频组件150包括一个麦克风(mic),当电子设备处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器110或经由通信组件130发送。在一些实施例中,音频组件150还包括一个扬声器,用于输出音频信号。
68.显示器160包括屏幕,其屏幕可以包括液晶显示器(lcd)和触摸面板(tp)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。
69.本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于计算机可读取存储介质中。该程序
在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
70.最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
当前第1页1 2 
网友询问留言 留言:0条
  • 还没有人留言评论。精彩留言会获得点赞!