添加分隔符的方法及终端设备与流程

文档序号:18258365发布日期:2019-07-24 10:28阅读:214来源:国知局
添加分隔符的方法及终端设备与流程

本发明属于人工智能领域,尤其涉及一种添加分隔符的方法及终端设备。



背景技术:

近年来,越来越多的语音识别软件可以将语音转换为文字,但是当语音转换为文字之后,往往由于语音识别无法为生成的文字添加诸如标点符号等分割符,导致用户难以很顺畅的阅读这些文字。尤其是当停顿时间极短的大段语音一次性转换为文字时,会给用户造成更大的阅读困难。



技术实现要素:

有鉴于此,本发明实施例提供了一种添加分隔符的方法及终端设备,以解决现有技术存在的由于难以为文字自动添加分隔符导致的用户阅读困难的问题。

本发明实施例的第一方面提供了一种添加分隔符的方法,包括:

获取待添加分隔符的目标语句,并对所述目标语句进行分词处理,生成多个目标词;根据预设的词语集合,生成所述目标词对应的用于表征所述目标词在所述词语集合中的位置的位置矩阵,并通过预设的Word2Vec模型将所述目标词的位置矩阵转换为该目标词的词向量;分别按照各个所述目标词在所述目标语句中由前到后的顺序以及由后到前的顺序,将各个所述目标词的词向量输入到预设的神经网络模型,生成所述目标语句对应的前向矩阵以及后向矩阵,并将所述前向矩阵以及所述后向矩阵进行拼接,生成所述目标语句对应的混合矩阵;将所述混合矩阵输入预设的分类器模型,输出各个所述目标词对应各个分隔符的概率,并将所述目标词对应的概率最高的分隔符添加在该目标词之后,以为所述目标语句添加分隔符。

本发明实施例的第二方面提供了一种添加分隔符的装置,包括:获取模块,用于获取待添加分隔符的目标语句,并对所述目标语句进行分词处理,生成多个目标词;转换模块,用于根据预设的词语集合,生成所述目标词对应的用于表征所述目标词在所述词语集合中的位置的位置矩阵,并通过预设的Word2Vec模型将所述目标词的位置矩阵转换为该目标词的词向量;计算模块,用于分别按照各个所述目标词在所述目标语句中由前到后的顺序以及由后到前的顺序,将各个所述目标词的词向量输入到预设的神经网络模型,生成所述目标语句对应的前向矩阵以及后向矩阵,并将所述前向矩阵以及所述后向矩阵进行拼接,生成所述目标语句对应的混合矩阵;添加模块,用于将所述混合矩阵输入预设的分类器模型,输出各个所述目标词对应各个分隔符的概率,并将所述目标词对应的概率最高的分隔符添加在所述目标词之后,以为所述目标语句添加分隔符。

本发明实施例的第三方面提供了一种终端设备,包括存储器以及处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述计算机程序被处理器执行时,实现本发明实施例的第一方面提供的方法的步骤。

本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本发明实施例的第一方面提供的方法的步骤。

在本发明实施例中,通过对目标语句进行分词处理得到多个目标词,根据目标词在预设的词语集合中的位置生成目标词对应的位置矩阵,并通过Word2Vec模型将目标词的位置矩阵转换为词向量;通过预设的神经网络模型将目标语句包含的多个目标词的词向量转换为目标语句对应的混合矩阵;将混合矩阵输入预设的分类器模型,输出各个目标词对应各个分隔符的概率,并将目标词对应的概率最高的分隔符添加在该目标词之后,从而为目标语句添加分隔符,使得目标语句被不同类型的分割符隔断,方便用户阅读和理解目标语句。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例提供的添加分隔符的方法的实现流程图;

图2是本发明实施例提供的添加分隔符的方法S104的具体实现流程图;

图3是本发明实施例提供的添加分隔符的装置的结构框图;

图4是本发明实施例提供的终端设备的示意图。

具体实施方式

以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。

为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。

图1示出了本发明实施例提供的添加分隔符的方法的实现流程,该方法流程包括步骤S101至S106。各步骤的具体实现原理如下。

S101:获取待添加分隔符的目标语句,并对所述目标语句进行分词处理,生成多个目标词。

在本发明实施例中,目标语句为缺少分割符的语句。例如,当一长段语音通过语音识别模块转换为一长段语句后,该语句往往是缺少标点符号的,为了使用户更易阅读该语句,本发明实施例可以为该语句添加标点符号,此时,该语句为本发明实施例中待添加分割符的目标语句,各类标点符号为待添加的分割符。可以理解地,本发明实施例中的分隔符不仅仅局限于标点符号,任何用于将语句进行分割的符合均可以作为本发明实施例的分割符,在不同的应用场景中,分隔符的类型可以不同。

在本发明实施例中,需要通过现有的例如jieba中文分词工具在内的分词工具包对目标语句进行分词,得到构成目标语句的多个目标词。

S102,根据预设的词语集合,生成所述目标词对应的用于表征所述目标词在所述词语集合中的位置的位置矩阵,并通过预设的Word2Vec模型将所述目标词的位置矩阵转换为该目标词的词向量。

可以理解地,文本形式的目标词无法带入到后续的数据计算中,因此需要将各个目标词转换为词向量。在本发明实施例中,由于在后续步骤中需要使用神经网络模型,为了使神经网络模型在训练过程中以及在实际对目标语句的计算过程中保持一致性,所以在此需要将目标词与训练过程中需要用到的训练语句的词汇通过一个相同的词语集合进行定位,在定位后,根据定位的情况转换为词向量。

可选地,在本发明实施例中,可以预先制作一个含有海量词汇的词典作为预设的词语集合,显然,在这个词语集合中各个词语依次排列,具有各自对应的在词语集合中的位置。本发明实施例预先收集大量的文章,并对这些文章中包含的词语进行统计,计算出各个词语对应的出现频次,最后将这些文章中包含的词语按照出现频次由大到小的排列顺序存入该词典中,生成本发明实施例中的词语集合。示例性地,假设词语集合中包含5个词语(当然,真正使用的词语集合中的词语远远不止5个,在此只是为了便于说明),则词语集合中排在第一位的词语用:[1,0,0,0,0]表示,排在第二位的词语用:[0,1,0,0,0]表示,以此类推。

可以理解地,通过上述的方法可以将一个个的目标词转换为用于表征所述目标词在所述词语集合中的位置的位置矩阵,这有利于使目标语句中的目标词与训练过程中需要用到的训练语句的词语通过统一的方式转换为矩阵形式,提高后续计算的可靠性。

在本发明实施例中,需要通过现有的Word2Vec模型将各个位置矩阵转换为词向量,以使目标词可以带入进行后续的神经网络模型中进行进一步计算,由于通过Word2Vec模型生成词向量的过程为现有技术,因此不在此进行赘述。

S103,分别按照各个所述目标词在所述目标语句中由前到后的顺序以及由后到前的顺序,将各个所述目标词的词向量输入到预设的神经网络模型,生成所述目标语句对应的前向矩阵以及后向矩阵,并将所述前向矩阵以及所述后向矩阵进行拼接,生成所述目标语句对应的混合矩阵。

在本发明实施例中,考虑到一个相同的词在目标语句中不同位置对应的分割符可能不同,因此不能简单地对一个个目标词的词向量单独地进行分析,而必须将一个目标词与其上下文进行结合进行分析。可选地,本发明实施例采用包含注意力机制的长短期记忆网络。其中,该长短期记忆网络包括:输入层、隐藏层、注意力机制层以及输出门处理。

可以理解地,当按照各个目标词在所述目标语句中由前到后的顺序,将各个目标词的词向量输入到预设的神经网络模型后,由于不同的词向量的输入时刻不同,在本发明实施例中使用ht表示时刻t进入输入层的词向量。

可选地,在隐藏层中,通过公式:yt=relu((tanh(ht-1·Wp+Bp)+tanh(ht·Wq+Bq)·Wy+By))计算出时刻t输入的词向量对应的隐藏层的输出结果;其中,yt为时刻t输入的词向量对应的隐藏层的输出结果,Wp、Wq以及Wy分别为3个预设的权重矩阵,Bp、Bq以及By分别为3个预设的偏置矩阵。Relu为预设的线性整流函数,tanh为双曲正切函数,ht表示时刻t输入进输入层的词向量,t为大于2的整数。

可选地,在注意力机制层处理中,引入注意力机制。具体地,通过公式计算时刻t对应的注意力参考矩阵,其中,αt为时刻t对应的注意力参考矩阵,yt为时刻t输入的词向量对应的隐藏层的输出结果。随后,再通过公式:Rt=tanh(ht*αt)·Wa+Ba计算时刻t对应的注意力矩阵,其中,Rt为时刻t对应的注意力矩阵,Wa为一个预设的权重矩阵,Ba为一个预设的偏置矩阵,ht表示时刻t输入进输入层的词向量。*表示卷积运算。

可选地,在输出层中,将ht表示时刻t输入进输入层的词向量与时刻t对应的注意力矩阵进行点乘,生成时刻t输入进输入层的词向量对应的输出层结果,并将各个时刻输入至输入层的词向量对应的输出层结果进行拼接,生成所述目标语句对应的前向矩阵。

可以理解地,在上述介绍中是通过按照各个目标词在所述目标语句中由前到后的顺序,将各个目标词的词向量输入到预设的神经网络模型,因此最终生成了前向矩阵,同样地,当按照各个目标词在所述目标语句中由后到前的顺序,将各个目标词的词向量输入到预设的神经网络模型,最终会生成一个后向矩阵。

在本发明实施例中,为了更加准确全面地描述目标语句的特征,将前向矩阵以及后向矩阵进行拼接,生成目标语句对应的混合矩阵。可以理解地,在后续计算过程中,使用该混合矩阵表征目标语句。

可以理解地,在获取待添加分隔符的目标语句之前,需要通过对训练数据的训练过程,得到上文中提到的各个权重矩阵以及偏置矩阵,从而生成上文中提到的预设的神经网络模型,所述神经网络的训练流程包括:

步骤一:获取多个训练语句矩阵以及所述训练语句矩阵对应的训练混合矩阵。

优选地,训练语句矩阵的个数应大于5000个,以提高神经网络的识别准确率。

值得注意地,各个训练语句矩阵的格式是相同的,这样可以保证在对神经网络进行训练时,各个权重矩阵和偏置矩阵中的元素对应的神经元是固定的,以保证神经网络的准确性。

步骤二,反复执行以下步骤直至调整后的长短期记忆网络满足预设的收敛条件:将所述训练语句矩阵作为长短期记忆网络的输入,将所述训练混合矩阵作为所述长短期记忆网络的输出,通过反向传播法对所述长短期记忆网络中的各神经单元对应的权重进行更新。

步骤三:输出调整后的长短期记忆网络作为所述预设的神经网络模型。

S104,将所述混合矩阵输入预设的分类器模型,输出各个所述目标词对应各个分隔符的概率,并将所述目标词对应的概率最高的分隔符添加在该目标词之后,以为所述目标语句添加分隔符。

可选地,所述预设的分类器模型通过公式:计算所述混合矩阵对应的概率矩阵;所述σ(j)为所述概率矩阵中第j个元素对应的概率值;zj为预设的参数矩阵中第j个元素对应的参数;所述M为所述参数矩阵中元素的个数,所述xi为所述混合矩阵中第i个元素,所述e为自然常数。

进一步地,根据所述目标词在所述目标语句中的位置,从所述概率矩阵中读取各个目标词对应各个分隔符的概率。

在本发明实施例中,概率矩阵中的每一行元素对应同一个目标词,每一列元素对应同一个分隔符,因此概率矩阵中的一个元素表示:某个目标词对应某个分隔符的概率。

进一步地,将所述目标词对应的概率最高的分隔符添加在该目标词之后,以为所述目标语句添加分隔符。

示例性地,假设目标语句为:“您好我在平安银行工作请问您在哪里上班”,假设根据概率矩阵中的各个元素得知,“您好”对应的概率最高的分隔符为“无标点符号”,“我”对应的概率最高的分隔符“无标点符号”,“在”对应的概率最高的分隔符“无标点符号”,“平安银行”对应的概率最高的分隔符“无标点符号”,“工作”对应的概率最高的分隔符为“,”,“请问”对应的概率最高的分隔符为“,”,“您”对应的概率最高的分隔符为“无标点符号”,“在”对应的概率最高的分隔符为“无标点符号”,“哪里”对应的概率最高的分隔符为“无标点符号”,“上班”对应的概率最高的分割符为“?”。所以最终,输出添加分割符之后的目标语句为:“您好,我在平安银行工作,请问,您在哪里上班?”。

在本发明实施例中,通过对目标语句进行分词处理得到多个目标词,根据目标词在预设的词语集合中的位置生成目标词对应的位置矩阵,并通过Word2Vec模型将目标词的位置矩阵转换为词向量;通过预设的神经网络模型将目标语句包含的多个目标词的词向量转换为目标语句对应的混合矩阵;将混合矩阵输入预设的分类器模型,输出各个目标词对应各个分隔符的概率,并将目标词对应的概率最高的分隔符添加在该目标词之后,从而为目标语句添加分隔符,使得目标语句被不同类型的分割符隔断,方便用户阅读和理解目标语句。

在上文实施例中,对S104中计算各个所述目标词对应各个分隔符的概率的其中一种方法做了介绍,此外还存在其他计算各个所述目标词对应各个分隔符的概率的方法,作为本发明的另一个实施例,如图2所示,上述S104还包括:

S1041,将所述混合矩阵输入预设的条件随机场模型,输出各个所述目标词对应各个分隔符的分数值。

可选地,通过公式计算各个所述目标词对应各个分隔符的分数值,其中,所述score(i,j)为目标词i对应分割符j的分数值,m为所述分隔符的的总量,n为所述目标词的总量,所述τ为预设的系数,所述fi(i,j)为目标词i对应的特征函数,该特征函数用于表征基于训练数据目标词对应各个分隔符的分布情况,xi为混合矩阵中第i个元素。

S1042,根据预设的指数函数计算各个分数值对应的指数值,并对所述指数值进行归一化处理,作为各个目标词对应各个分隔符的概率。

可选地,通过公式计算各个目标词对应各个分隔符的概率,其中p(i,j)为目标词i对应分隔符j的概率,score(i,j)为目标词i对应分割符j的分数值。

可以理解地,本发明实施例在获取待添加分隔符的目标语句之前需要对条件随机场模型进行训练,训练过程包括:获取多个随机场训练语句,所述随机场训练语句包含多个训练词,且每个训练词均对应一个以上分隔符的分数值;通过现有的最大似然估计法,根据所述多个随机场训练语句显然可以拟合出目标词i对应的特征函数,从而生成所述预设的条件随机场模型。

对应于上文实施例所述的添加分隔符的方法,图3示出了本发明实施例提供的添加分隔符的装置的结构框图,为了便于说明,仅示出了与本发明实施例相关的部分。

参照图3,该装置包括:

获取模块301,用于获取待添加分隔符的目标语句,并对所述目标语句进行分词处理,生成多个目标词;

转换模块302,用于根据预设的词语集合,生成所述目标词对应的用于表征所述目标词在所述词语集合中的位置的位置矩阵,并通过预设的Word2Vec模型将所述目标词的位置矩阵转换为该目标词的词向量;

计算模块303,用于分别按照各个所述目标词在所述目标语句中由前到后的顺序以及由后到前的顺序,将各个所述目标词的词向量输入到预设的神经网络模型,生成所述目标语句对应的前向矩阵以及后向矩阵,并将所述前向矩阵以及所述后向矩阵进行拼接,生成所述目标语句对应的混合矩阵;

添加模块304,用于将所述混合矩阵输入预设的分类器模型,输出各个所述目标词对应各个分隔符的概率,并将所述目标词对应的概率最高的分隔符添加在所述目标词之后,以为所述目标语句添加分隔符。

可选地,所述神经网络模型为包含注意力机制的长短期记忆网络;

所述装置还包括:

训练获取模块,用于获取多个训练语句矩阵以及所述训练语句矩阵对应的训练混合矩阵;

循环模块,用于反复执行以下步骤直至调整后的长短期记忆网络满足预设的收敛条件:将所述训练语句矩阵作为长短期记忆网络的输入,将所述训练混合矩阵作为所述长短期记忆网络的输出,通过反向传播法对所述长短期记忆网络中的各神经单元对应的权重进行更新;

输出模块,用于输出调整后的长短期记忆网络作为所述预设的神经网络模型。

可选地,所述计算模块,具体用于:

通过公式:计算所述混合矩阵对应的概率矩阵;所述σ(j)为所述概率矩阵中第j个元素对应的概率值;zj为预设的参数矩阵中第j个元素对应的参数;所述M为所述参数矩阵中元素的个数,所述xi为所述混合矩阵中第i个元素,所述e为自然常数;

根据所述目标词在所述目标语句中的位置,从所述概率矩阵中读取各个目标词对应各个分隔符的概率。

可选地,所述将所述混合矩阵输入预设的分类器模型,输出各个所述目标词对应各个分隔符的概率,包括:

将所述混合矩阵输入预设的条件随机场模型,输出各个所述目标词对应各个分隔符的分数值;根据预设的指数函数计算各个分数值对应的指数值,并对所述指数值进行归一化处理,作为各个目标词对应各个分隔符的概率。可选地,在所述获取待添加分隔符的目标语句之前,还包括:获取多个随机场训练语句,所述随机场训练语句包含多个训练词,且每个训练词均对应一个以上分隔符的分数值;通过最大似然估计法,根据所述多个随机场训练语句拟合出所述预设的条件随机场模型。

在本发明实施例中,通过对目标语句进行分词处理得到多个目标词,根据目标词在预设的词语集合中的位置生成目标词对应的位置矩阵,并通过Word2Vec模型将目标词的位置矩阵转换为词向量;通过预设的神经网络模型将目标语句包含的多个目标词的词向量转换为目标语句对应的混合矩阵;将混合矩阵输入预设的分类器模型,输出各个目标词对应各个分隔符的概率,并将目标词对应的概率最高的分隔符添加在该目标词之后,从而为目标语句添加分隔符,使得目标语句被不同类型的分割符隔断,方便用户阅读和理解目标语句。

图4是本发明一实施例提供的终端设备的示意图。如图4所示,该实施例的终端设备4包括:处理器40、存储器41以及存储在所述存储器41中并可在所述处理器40上运行的计算机程序42,例如添加分隔符的程序。所述处理器40执行所述计算机程序42时实现上述各个添加分隔符的方法实施例中的步骤,例如图1所示的步骤101至104。或者,所述处理器40执行所述计算机程序42时实现上述各装置实施例中各模块/单元的功能,例如图3所示单元301至304的功能。

示例性的,所述计算机程序42可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器41中,并由所述处理器40执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序42在所述终端设备4中的执行过程。

所述终端设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器40、存储器41。本领域技术人员可以理解,图4仅仅是终端设备4的示例,并不构成对终端设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。

所称处理器40可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

所述存储器41可以是所述终端设备4的内部存储单元,例如终端设备4的硬盘或内存。所述存储器41也可以是所述终端设备4的外部存储设备,例如所述终端设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器41还可以既包括所述终端设备4的内部存储单元也包括外部存储设备。所述存储器41用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器41还可以用于暂时地存储已经输出或者将要输出的数据。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中。

以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1