一种基于深度神经网络的汉盲自动转换方法和系统与流程

文档序号:16670164发布日期:2019-01-18 23:31阅读:591来源:国知局
一种基于深度神经网络的汉盲自动转换方法和系统与流程

本发明涉及汉语到盲文的自动转换技术领域,特别是使用了深度神经网络进行汉盲转换的领域。



背景技术:

盲文是盲人阅读和获取信息的重要方式。它是一种触觉符号系统,印刷在纸张或显示在点显器上,通过触摸进行阅读。盲文的基本单位称作“方”,一方包含6个点位,通过设置每个点位是否有点共可形成64种组合,这些组合构成了最基本的盲文符号。

为了生成盲文内容,需将普通人使用的文字内容转换为盲文。对于字母文字,存在从字母到盲文符号的直接映射,转换相对简单。当前,英语、葡萄牙语、丹麦语、西班牙语、印地语等很多语言到盲文的自动转换,都已有可用的计算机系统。而由于汉语盲文自身的特点,现有的汉语-盲文自动转换系统准确率较低,难以实用。因此,在盲文出版、盲人教育等行业中,目前主要采用人工进行汉盲转换,效率低、成本高,导致盲文读物匮乏、盲人获取信息困难,严重限制了盲人在信息社会的生存和发展。

由于不可能将汉字唯一映射到盲文符号,汉语盲文被定义为一种拼音文字。在当前最常用的现行盲文中,一般用2-3方表示一个汉字,其中一方表示声母,一方表示韵母,有些情况还需要再增加一方表示声调。汉语盲文与汉语最大的区别在于及其“分词连写”规则,即要求词与词之间用空方分隔。盲文分词与汉语分词不同,许多汉语中的短语在盲文中被连写为词。针对分词连写,中国盲文标准中给出了100多条基于词法、语法和语义的细则,如“‘不’与动词、能愿动词、形容词、介词、单音节程度副词均应连写”等。为了进一步减少歧义,盲文还制定了标调规则。在现行盲文中,为节省阅读时间和印刷成本,规定只对易混淆的词语、生疏词语、古汉语实词、非常用的单音节词等标调。一般认为现行盲文的标调率大约在5%左右。

汉盲转换的关键在于分词和标调。当前研究大多集中在分词方面,主要遵循两种思路:一是按照盲文分词连写本身的逻辑,首先对文本进行汉语分词,然后使用预定义的规则对汉语分词结果进行调整,将汉语词串转换为盲文词串。当前大多数研究都基于这一思路,但是盲文分词连写涉及主观性很强的语法和语义规则,计算机定义和处理都很困难,导致这种方法的性能存在瓶颈,难以进一步提升。第二种思路是从盲文语料中提取出现过的连写组合,建立盲文词库,然后基于盲文词库进行文本分词或对汉语分词结果进行后处理。但是,盲文将汉语中的许多短语连写为词,其词汇量无限,无法通过词库穷举。因此这一方法性能有限,目前主要和第一种方法结合,作为一种补充式地后处理操作使用。

最近几年,有研究者提出了基于机器学习的盲文直接分词框架,不再基于汉语分词结果进行后处理,而是利用训练好的盲文分词模型直接对盲文串进行分词。例如,发明专利201510623525.5公开了一种用于盲人读取汉字的方法及系统,实现了基于机器学习的汉盲转换过程。这种方法采用机器学习模型隐含地刻画盲文分词连写规范,避免了计算机直接处理复杂的语法和语义规则,可大大提升汉盲转换的准确率。但是,这一方法也存在不足:一方面,该方法基于感知机模型和统计机器学习等传统机器学习方法,而近年来,深度学习技术在很多领域已逐步替代了这些传统方法;更为重要的是,该方法的模型训练基于盲文语料,而盲文只表示汉字的读音(且大多数不加声调),导致可能因同音产生歧义,例如,“形式”与“形势”在盲文中完全相同,“时间”、“事件”、“实践”在大多数情况下也对应相同的盲文,单字词更是大量存在同音混淆的情况,这将直接影响最终的分词结果。如果采用按照盲文规则分词的汉字语料,则可以避免上述问题。而汉语文本都是不分词的,这就需要将汉语文本与盲文文本在分词级别建立对照关系,使得对盲文文本中的每一个盲文词都可唯一地确定其对应的汉语词(或短语)。这可以通过一个词语级对照的汉盲语料库来得到。

盲文本质上是一种拼音文字,盲文符号只代表汉字的读音(音节),同音字之间容易混淆。如果不考虑音节的声调,则混淆的情况会更多。但是,如果规定所有音节必须标调,则可能增加印刷成本,也会降低阅读效率。因此,虽然有一些要求音节全部标调的盲文规则方面的尝试,如“双拼盲文”和“通用盲文”,但当前在应用中占据主导定位的“现行盲文”标准中规定只对一些容易混淆的词,如生僻字、古汉语实词、同音词、部分单音节词等进行标调。而在实际操作时,生僻字、实词、需标声调的单音节词的认定都相对主观或涉及语法和语义上的理解,计算机处理较为困难。因此,当前的自动汉盲转换方法一般基于规则,只对确定的同音词、有明确规定的单音节词等简单情形进行标调,标调率远低于人工标调,容易给盲人阅读造成困难。



技术实现要素:

本发明目的在于通过提高盲文分词和标调的转换准确率,实现高准确率的汉盲转换。在分词方面,与当前常用的“先分词,再合并”的策略不同,本发明提出的方法直接采用机器学习模型将汉语文本按照盲文规则进行分词,避免了计算机处理复杂的语法和语义规则。

具体地说,本发明公开了一种基于深度神经网络的汉盲自动转换方法,其中包括:

步骤1、获取句子和词语级对照的汉盲双语语料库,利用该汉盲双语语料库训练深度神经网络,得到用于对汉字串进行分词的分词模型,并利用该汉盲双语语料库,得到用于对汉字进行标调的标调模型;

步骤2、获取待转换的汉字文本,使用该分词模型将该汉字文本按照盲文规则进行分词,得到多个字词,使用该标调模型对该字词进行标调,将标调后的该字词转换为盲文。

2、如权利要求1该基于深度神经网络的汉盲自动转换方法,其中该步骤1包括:

语料标注步骤,获取句子和词语级对照的汉盲双语语料,根据汉盲双语语料中的汉字按照盲文分词及盲文与汉语字词的对应关系,为汉字进行类别标注,并根据汉盲双语语料中汉字对应的盲文标调信息,对汉盲双语语料中的汉字进行声调标注,将经过类别标注和声调标注的汉盲双语语料作为该汉盲双语语料库。

该基于深度神经网络的汉盲自动转换方法,其中该步骤2包括:

分词步骤,将该汉字文本中的汉字转换为词向量后输入该分词模型,得到汉字属于各类别的概率,选择概率最大的类别作为汉字的状态,根据汉字的状态,将该汉字文本的汉语字串分隔,得到该多个字词;

标调步骤,标调模型根据该字词前具有的词或短语,得到该字词属于各标调形式的概率,选择概率最大的标调形式作为该字词的标调;

转换步骤,利用发音词典和发音-盲文映射表将标调后的该字词转换为盲文,转换过程中保留并复制其中的标调信息。

该基于深度神经网络的汉盲自动转换方法,其中该步骤1中为汉字进行类别标注,该类别包括:b、e、m、s,其中b代表该汉字位于词的开头,m代表该汉字位于词的中间,e代表该汉字位于词的末尾,s代表该汉字单独成词。

该基于深度神经网络的汉盲自动转换方法,其中该汉盲双语语料库存储有内容相同的汉语和盲文文本,且该汉盲双语语料库中每一个盲文句子,都有明确对应的汉语句子;盲文句子中的每一个盲文词,都在汉语句子中有明确对应的汉语词或短语。

本发明还公开了一种基于深度神经网络的汉盲自动转换系统,其中包括:

模型训练模块,用于获取句子和词语级对照的汉盲双语语料库,利用该汉盲双语语料库训练深度神经网络,得到用于对汉字串进行分词的分词模型,并利用该汉盲双语语料库,得到用于对汉字进行标调的标调模型;

转换模块,用于获取待转换的汉字文本,使用该分词模型将该汉字文本按照盲文规则进行分词,得到多个字词,使用该标调模型对该字词进行标调,将标调后的该字词转换为盲文。

该基于深度神经网络的汉盲自动转换系统,其中该模型训练模块包括:

语料标注模块,获取句子和词语级对照的汉盲双语语料,根据汉盲双语语料中的汉字按照盲文分词及盲文与汉语字词的对应关系,为汉字进行类别标注,并根据汉盲双语语料中汉字对应的盲文标调信息,对汉盲双语语料中的汉字进行声调标注,将经过类别标注和声调标注的汉盲双语语料作为该汉盲双语语料库。

该基于深度神经网络的汉盲自动转换系统,其中该转换模块包括:

分词模块,将该汉字文本中的汉字转换为词向量后输入该分词模型,得到汉字属于各类别的概率,选择概率最大的类别作为汉字的状态,根据汉字的状态,将该汉字文本的汉语字串分隔,得到该多个字词;

标调模块,标调模型根据该字词前具有的词或短语,得到该字词属于各标调形式的概率,选择概率最大的标调形式作为该字词的标调;

转换模块,利用发音词典和发音-盲文映射表将标调后的该字词转换为盲文,转换过程中保留并复制其中的标调信息。

该基于深度神经网络的汉盲自动转换系统,其中该模型训练模块中为汉字进行类别标注,该类别包括:b、e、m、s,其中b代表该汉字位于词的开头,m代表该汉字位于词的中间,e代表该汉字位于词的末尾,s代表该汉字单独成词。

该基于深度神经网络的汉盲自动转换系统,其中该汉盲双语语料库存储有内容相同的汉语和盲文文本,且该汉盲双语语料库中每一个盲文句子,都有明确对应的汉语句子;盲文句子中的每一个盲文词,都在汉语句子中有明确对应的汉语词或短语。

通过采用本发明提出的基于深度学习和双语语料库的汉盲转换方法和系统,可以实现比当前已有方法和系统更为准确的盲文自动分词和自动标调,从而整体提高汉盲转换的准确率。将该技术应用于盲文编辑出版,可提高盲文书籍生产效率,满足广大盲人对盲文出版物的需求。将该技术应用于盲用终端并配合点显器使用,可实时将网页、文档中的汉语文本转换为盲文文本并输出到点显器供盲人摸读,可大大提升盲人通过数字终端和网络获取信息的能力。

与发明专利201510623525.5提出的方法相比,本发明不直接运用盲文规则对盲文串进行分词,而是采用汉盲词语级对照的语料训练分词模型,并采用训练好的模型直接将汉字串按照盲文规则进行分词。由此可充分利用汉字信息,避免对盲文串分词时因丢失汉字信息、同音字词互相混淆而影响分词效果的问题。另外,在机器学习模型的选取上,本发明采用深度神经网络模型,可得到比传统人工神经网络和统计机器学习模型更高的准确率。在标调方面,本发明提出利用汉盲分词对照的语料训练标调模型,与只采用盲文语料的方法相比,利用的信息更为丰富,可得到更高的准确率。

附图说明

图1为本发明基于深度神经网络的汉盲转换方法流程图;

图2为本发明采用的深度神经网络结构示意图。

具体实施方式

为让本发明的上述特征和效果能阐述的更明确易懂,下文特举实施例,并配合说明书附图作详细说明如下。

盲文是一种拼音文字,在中国盲文标准中制定了许多盲文规则,用于规定盲文如何书写,其中最为重要的是盲文的分词连写规则。分词连写规则规定了如何把连续的汉字组成的句子分隔成盲文中的词,事实上相当于盲文的分词规则,例如,有一条分词连写规则规定:“‘不’与动词、能愿动词、形容词、介词、单音节程度副词均应连写”。这就要求像“不能”、“不好”、“不至于”这样的汉语中的短语在盲文中都要连写。本文中“将汉字串按照盲文规则分词”中的“盲文规则”,即指这些中国盲文标准中制定的规则。但需要注意的是,本发明的方法却不是直接制定相应的规则由计算机执行(这其实反而是当前其他研究者采用的方法,但实践证明效果不好,原因在于计算机很难准确分辨诸如形容词、动词、能愿动词、动宾短语、状语等语法成分),而是采用机器学习的方法,用类似于人脑的神经网络模型自动去学习盲文分词规则并自动进行切分,从而客观上实现遵循盲文规则的分词。

本发明包括模型训练阶段和汉盲转换阶段。模型训练阶段,训练用于分词的深度神经网络模型和用于标调的n-gram模型。汉盲转换阶段,利用预先训练的深度神经网络模型和标调模型实现将汉语文本转换为盲文。

模型训练阶段包括:基于句子和词语级对照的汉盲双语语料库准备训练语料、训练深度神经网络模型和标调模型。

准备训练语料。本发明通过训练基于深度学习的模型,以深度神经网络实现将汉语文本按盲文规则分词。在这种方法中,分词是通过对每个汉字进行分类来实现的:汉语中的每个字的位置可以分为四种,即b、e、m、s,其中b代表词的开头,m代表词的中间,e代表词的末尾,s代表该字单独成词,分词的过程就是利用训练的模型判断每一个字属于b、e、m、s中的哪一类,然后依据每个字的类别对文本进行分割。要训练这样的模型,就需要在训练前准备好训练语料。所需的训练语料为按照盲文分词及盲文与汉语字词的对应关系,标注好每一个汉字的类别(b、e、m、s)的汉语文本。这种训练语料可由句子和词语级对照的汉盲双语语料库得到。

所谓汉盲双语语料库,是指同时存储有内容相同的汉语和盲文文本的语料库。所谓句子和词语级对照,是指语料库中的每一个盲文句子,都有明确对应的汉语句子;盲文句子中的每一个盲文词,都在汉语句子中有明确对应的汉语词或短语。句子和词语级对照的汉盲双语语料库可以人工或自动方式构建,采用txt文本、数据库等形式存储。

在基于句子和词语级对照的汉盲双语语料库准备训练语料时,对语料库中每一个盲文句子,获取其对应的汉语句子;对于盲文句子中的每一个盲文词,获取其在汉语句子中对应的汉语词或短语,然后对该汉语词或短语中的汉字进行标记:如果只有一个汉字,则标记为s;如果包含多个汉字,则将第一个汉字标记为b,最后一个汉字标记为e,其余标记为m。

训练深度神经网络模型。在准备好训练语料之后,需要构建并训练深度神经网络模型。深度神经网络是一种比传统人工神经网络层数更深的人工神经网络模型,采用深度神经网络进行机器学习的技术称为深度学习技术,该技术近年来在机器学习领域受到了广泛关注,在图像处理、语音识别、自然语言处理等领域取得了巨大成功。本发明首次将深度学习技术应用于汉盲转换领域。在模型选取方面,可根据情况选取各种深度神经网络模型,如卷积神经网络(cnn)、循环神经网络(rnn)、长短时记忆网络(lstm)等。

在模型训练阶段,训练用于标调的语言模型(n-gram模型)。基于句子和词语级对照的汉盲双语语料库,构建训练n-gram模型所需的词表。将汉盲双语语料库中所有的盲文词对应的中文词或短语的集合作为使用的词表。进一步地将语料中出现的同一词或短语的不同标调形式(如不标调,首字标调,第二字标调……等)作为不同词添加至词表中。

基于句子和词语级对照的汉盲双语语料库,构建n-gram模型所需的文本语料。对于句子和词语级对照的汉盲双语语料库中的每个盲文句子,获取其对应的汉语文本,并将汉语文本按照盲文进行分词,即对于每一个盲文词,将其对应的汉语词或短语与相邻字词之间用空格字符隔开。同时,如果某个盲文词是标调的,则将其对应的汉语词或短语也进行标调处理,替换成标调后的形式。

训练用于标调的n-gram模型。采用所述词表和语料库训练一个n-gram语言模型,用以描述在之前的n-1个词w1,…,wn-1出现时,每个词w出现的概率p(w|w1,…,wn-1)。标调用的n-gram模型是一种统计机器学习模型。本发明中事实上只有分词部分使用了深度神经网络模型,但分词是汉盲转换中最为核心的部分,也是当前面临最大挑战的部分。

在汉盲转换阶段,利用预先训练的深度神经网络模型将汉语文本按盲文规则分词,利用预先训练的n-gram模型确定每个词的标调情况,然后将进行了分词和标调处理的汉语文本转换为盲文。汉盲转换阶段包括:

利用预先训练的深度神经网络模型将汉语文本按盲文规则分词。对一句话进行分词时,将文本中的每个字转换为词向量,输入训练好的深度神经网络模型,通过模型计算得到每个字属于四种类别的概率,选择概率最大的类别作为该字的状态。根据每个字的状态,将输入的汉语字串用空格分隔,得到分词后的汉语文本。

利用预先训练的n-gram模型确定每个汉语词或短语的标调情况。在进行标调时,对于每一个待标调的词或短语(以下通称为词),利用训练好的n-gram语言模型获取在其前n-1个词出现时该词的各种标调形式(不标调、第一个字标调,第二个标调……)出现的条件概率,并选择概率最大的形式。

将进行了分词和标调处理的汉语文本转换为盲文。在进行分词和标调之后,利用发音词典和发音-盲文映射表将已经分词和标调的汉语文本转换为盲文,转换过程中保留并复制其中的标调信息。

为了使本发明的目的、技术方案及优点更加清楚,以下结合附图及实施例,对本发明的一种基于深度神经网络的汉盲自动转换方法及系统进行进一步详细说明。

本发明提出了基于深度神经网络的汉盲自动转换方法及系统,使用句子和词语级对照的汉盲双语语料库进行模型训练,得到用于分词的深度神经网络模型和用于标调的n-gram模型,然后基于训练好的模型将输入的汉语文本按照盲文规则进行分词和标调处理,然后将结果转换为盲文。系统及方法的总体流程和步骤如附图1所示。

本发明通过训练基于深度学习的模型,即深度神经网络实现将汉语文本按盲文规则分词。在这种方法中,分词是通过对每个汉字进行分类来实现的:汉语中的每个字的位置可以分为四种,即b、e、m、s,其中b代表词的开头,m代表词的中间,e代表词的末尾,s代表该字单独成词,分词的过程就是利用训练的模型判断每一个字属于b、e、m、s中的哪一类,然后依据每个字的类别对文本进行分割。要训练这样的模型,就需要在训练前准备好训练语料。所需的训练语料为按照盲文分词及盲文与汉语字词的对应关系,标注好了每一个字的类别(b、e、m、s)的汉语文本。这种训练语料可由句子和词语级对照的汉盲双语语料库得到。

所谓汉盲双语语料库,是指同时存储有内容相同的汉语和盲文文本的语料库。所谓句子和词语级对照,是指语料库中的每一个盲文句子,都有明确对应的汉语句子;盲文句子中的每一个盲文词,都在汉语句子中有明确对应的汉语词或短语。句子和词语级对照的汉盲双语语料库可以人工或自动方式构建,采用txt文本、数据库等形式存储。

在基于句子和词语级对照的汉盲双语语料库准备训练语料时,对语料库中每一个盲文句子,获取其对应的汉语句子;对于盲文句子中的每一个盲文词,获取其在汉语句子中对应的汉语词或短语,然后对该汉语词或短语中的汉字进行标记:如果只有一个汉字,则标记为s;如果包含多个汉字,则将第一个汉字标记为b,最后一个汉字标记为e,其余标记为m。

在一个实施例中,所采用的汉盲双语语料库是采用计算机程序从内容相同的汉语和盲文书籍中自动对齐和抽取文本得到的,存储形式为txt文本,即对于每一本书,采用两个txt文本文件分别存储汉语和盲文文本,汉语文本编码为utf-8,盲文文本编码为ascii码。在两个文本文件中,每行文本表示一个句子,行号相同的汉语和盲文句子对应相同的内容。汉语和盲文句子都去除了标点,并且汉语句子中按照盲文的分词在相应的字词之间添加了空格,从而使得一个句子中相同位置的空格或空方之间的盲文词和汉语词或短语之间建立了明确的对应关系。为得到所需的训练语料,在所述汉语文本的基础上进行改动。根据每个字在所属的词或短语中的位置,为其添加类别标记。最终得到的句子形如:“为/b了/e满/b足/e不/b同/e层/b次/e读/b者/e的/s需/b求/e”,其对应的按照盲文规则分词的汉语句子为:“为了满足不同层次读者的需求”,对应的盲文句子为:“wl5mvzubut4c#c2du/5'dh+k\”。

训练深度神经网络模型。在准备好训练语料之后,需要构建并训练深度神经网络模型。深度神经网络是一种比传统人工神经网络层数更深的人工神经网络模型,采用深度神经网络进行机器学习的技术称为深度学习技术,该技术近年来在机器学习领域受到了广泛关注,在图像处理、语音识别、自然语言处理等领域取得了巨大成功。本发明首次将深度学习技术应用于汉盲转换领域。

在模型选取方面,可根据情况选取各种深度神经网络模型,如卷积神经网络(cnn)、循环神经网络(rnn)、长短时记忆网络(lstm)等。在一个实施例中,采用了2层双向长短时记忆网络(bi-lstm),该模型不仅能够捕捉更长距离的信息,而且包含了输入序列中每一个点的完整的过去和未来的上下文信息的影响。网络结构如附图2所示。该模型共有六层网络,第一层是embedding层,基于词向量模型,将训练语料中的字由one-hot编码映射为低维稠密的字向量。第二至五层是bi-lstm网络层,共有两层bi-lstm层,为了防止过拟合,bi-lstm网络层之后添加dropout层,每次随机丢弃掉一定比例的神经网络节点。第六层输出层是一个全连接层,因为是多分类问题。设置全连接层的激活函数为softmax,它将多个神经元的输出映射到0到1之间的数值,选择概率最大的类别作为该字的类别。

在模型训练时,由于分词模型的输入是向量形式,因此需要训练词向量模型,将语料转为向量表示。在一个实施例中,采用python的keras库进行lstm模型的创建和训练。lstm为两层双向网络,维度为512。词向量维度为200,使用python的gensim库训练。

在模型训练阶段,训练用于标调的n-gram模型。

基于句子和词语级对照的汉盲双语语料库,构建训练n-gram模型所需的词表:将汉盲双语语料库中所有的盲文词对应的中文词或短语的集合作为使用的词表。进一步地将语料中出现的同一词或短语的不同标调形式(如不标调,首字标调,第二字标调……等)作为不同词添加至词表中。例如,语料库中出现了对应汉语词“时间”的盲文词,且“时”字标调,因此,将“时间”和“时2间”都加入词表中。“时2间”表示“时”字标调且标为二声。

基于句子和词语级对照的汉盲双语语料库,构建n-gram模型所需的文本语料:对于句子和词语级对照的汉盲双语语料库中的每个盲文句子,获取其对应的汉语文本,并将汉语文本按照盲文进行分词,即对于每一个盲文词,将其对应的汉语词或短语与相邻字词之间用空格字符隔开。同时,如果某个盲文词是标调的,则将其对应的汉语词或短语也进行标调处理,替换成标调后的形式。例如,盲文词“:1g%”对应汉语词“时间”,且第一个字标出了声调(ascii码“1”表示二声),因此,则相应的汉语文本中的“时间”替换为标调的形式“时2间”。

训练用于标调的n-gram模型:采用所述词表和语料库训练一个n-gram语言模型。在一个实施例中,采用srilm工具包进行训练,模型采用相对简单的bi-gram(即2-gram)模型,训练时采用了kneser-ney平滑策略。

在汉盲转换阶段,利用预先训练的深度神经网络模型将汉语文本按盲文规则分词,利用预先训练的n-gram模型确定每个词的标调情况,然后将进行了分词和标调处理的汉语文本转换为盲文。

利用预先训练的深度神经网络模型将汉语文本按盲文规则分词:对一句话进行分词时,将文本中的每个字转换为词向量,输入训练好的深度神经网络模型,通过模型计算得到每个字属于四种类别的概率,选择概率最大的类别作为该字的状态。根据每个字的状态,将输入的汉语字串用空格分隔,得到分词后的汉语文本。例如,对于汉语文本“当然爱的教育也不例外”,其经过神经网络后得到的结果为“当/b然/e爱/s的/s教/b育/e也/s不/b例/m外/e”,基于该结果,可得到分词后的汉语中文本“当然爱的教育也不例外”。

利用预先训练的n-gram模型确定每个汉语词或短语的标调情况:在进行标调时,对于每一个待标调的词或短语(以下通称为词),利用训练好的n-gram语言模型获取在其前n-1个词出现时该词的各种标调形式(不标调、第一个字标调,第二个标调……)出现的条件概率,并选择概率最大的形式。在一个实施例中,采用bi-gram(即2-gram)模型,此时只需要考虑每个词之前的一个词。例如,若某个两字词存在不标调形式w0及两种标调形式w1(首字标调)和w2(第二字标调),此时,比较p(w0|w),p(w1|w),p(w2|w)的大小(其中,w为该词之前的一个词),取概率最大的标调形式为最终选择。

将进行了分词和标调处理的汉语文本转换为盲文:在句子和词语级对照的汉盲双语语料库的支持下,上文中的分词和标调两个步骤都是针对汉语文本进行的,避免了因盲文只表示读音而导致的信息丢失和歧义增加。

在进行分词和标调之后,利用发音词典和发音-盲文映射表将已经分词和标调的汉语文本转换为盲文,转换过程中保留并复制其中的标调信息。

以下为与上述方法实施例对应的系统实施例,本实施方式可与上述实施方式互相配合实施。上述实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在上述实施方式中。

本发明还公开了一种基于深度神经网络的汉盲自动转系统,其中包括:

模型训练模块,用于获取句子和词语级对照的汉盲双语语料库,利用该汉盲双语语料库训练深度神经网络,得到用于对汉字串进行分词的分词模型,并利用该汉盲双语语料库,得到用于对汉字进行标调的标调模型;

转换模块,用于获取待转换的汉字文本,使用该分词模型将该汉字文本按照盲文规则进行分词,得到多个字词,使用该标调模型对该字词进行标调,将标调后的该字词转换为盲文。

该基于深度神经网络的汉盲自动转换系统,其中该模型训练模块包括:

语料标注模块,获取句子和词语级对照的汉盲双语语料,根据汉盲双语语料中的汉字按照盲文分词及盲文与汉语字词的对应关系,为汉字进行类别标注,并根据汉盲双语语料中汉字对应的盲文标调信息,对汉盲双语语料中的汉字进行声调标注,将经过类别标注和声调标注的汉盲双语语料作为该汉盲双语语料库。

该基于深度神经网络的汉盲自动转换系统,其中该转换模块包括:

分词模块,将该汉字文本中的汉字转换为词向量后输入该分词模型,得到汉字属于各类别的概率,选择概率最大的类别作为汉字的状态,根据汉字的状态,将该汉字文本的汉语字串分隔,得到该多个字词;

标调模块,标调模型根据该字词前具有的词或短语,得到该字词属于各标调形式的概率,选择概率最大的标调形式作为该字词的标调;

转换模块,利用发音词典和发音-盲文映射表将标调后的该字词转换为盲文,转换过程中保留并复制其中的标调信息。

该基于深度神经网络的汉盲自动转换系统,其中该模型训练模块中为汉字进行类别标注,该类别包括:b、e、m、s,其中b代表该汉字位于词的开头,m代表该汉字位于词的中间,e代表该汉字位于词的末尾,s代表该汉字单独成词。

该基于深度神经网络的汉盲自动转换系统,其中该汉盲双语语料库存储有内容相同的汉语和盲文文本,且该汉盲双语语料库中每一个盲文句子,都有明确对应的汉语句子;盲文句子中的每一个盲文词,都在汉语句子中有明确对应的汉语词或短语。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1