意图分类模型构建方法、装置、设备及存储介质与流程

文档序号:25132405发布日期:2021-05-21 08:49阅读:174来源:国知局
意图分类模型构建方法、装置、设备及存储介质与流程

本公开涉及计算机技术领域,尤其涉及一种意图分类模型构建方法、装置、设备及存储介质。



背景技术:

随着大数据和互联网的发展,在电商领域,用户越来越喜欢通过智能助理来导购,更愿意随时随地体验身边的高科技产品,如何从海量数据中挖掘用户意图,对用户需求进行准确定位,是一件有意义的工作。

相关技术中,使用设定好的话术模板来匹配用户句式,从而识别用户的意图类别。这种方法中的话术模板是根据经验人工设定的,导致智能助理对用户的意图类别的预测不全面。

需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。



技术实现要素:

本公开的目的在于提供一种意图分类模型构建方法、装置、设备及存储介质,能够提高意图类别预测的准确性,提升用户体验。

本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。

根据本公开的一个方面,提供一种意图分类模型构建方法,包括:获取用户输入的样本语料,以构建语料库;对样本语料进行分词处理;根据分词结果中各词语在语料库中的出现频率,构建意图分类模型的词典;根据词典中各词语的字词特征,将各条样本语料转换为特征向量;分别对神经网络的中间网络层、激活层及正则化方式进行初始化;以及以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络中进行训练,以获得意图分类模型。

在本公开一个实施例中,预先设置的算法库包括如下轻量算法的至少其中之一:预先设置的掩膜层算子、预先设置的稠密张量前向传播层、预先配置的神经网络层数、特征向量分批处理中批次大小及神经网络权重参数的归一化处理方式。

在本公开一个实施例中,预先设置的算法库还包括:位置向量化轻量算法,用于在进行拼接之前,在输入张量的不同位置,使用不同的算法控制不同位置的权重。

在本公开一个实施例中,预先设置的算法库还包括:预先设置的注意力机制。

在本公开一个实施例中,预先设置的算法库还包括:基于多层感知机和基于卷积的高速路方式轻量算法。

在本公开一个实施例中,还包括:将反馈的坏案例和重新标记的标签加入训练集,优化意图分类模型。

在本公开一个实施例中,对经初始化后的神经网络中进行训练之前,方法还包括:将特征向量的长度调整为预设长度;及将调整长度后的各特征向量分为不同批次,以在对神经网络进行训练时,分批次进行训练。

根据本公开的另一个方面,提供一种意图类别预测方法,包括:获取待预测语句;以及基于根据上述任一意图分类模型构建方法构建的意图分类模型,对待预测语句进行预测,得到意图类别预测结果。

在本公开一个实施例中,对待预测语句进行预测,得到意图类别预测结果包括:对待预测语句进行预测,得到每种预设意图类别的概率;以及将概率最大的意图类别作为意图类别预测结果。

根据本公开的另一个方面,提供一种意图分类模型构建装置,包括:样本获取模块,用于获取用户输入的样本语料,以构建语料库;分词处理模块,用于对样本语料进行分词处理;词典构建模块,用于根据分词结果中各词语在语料库中的出现频率,构建意图分类模型的词典;向量转换模块,用于根据词典中各词语的字词特征,将各条样本语料转换为特征向量;初始化模块,用于分别对神经网络的中间网络层、激活层及正则化方式进行初始化;以及模型获得模块,用于以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络中进行训练,以获得意图分类模型。

根据本公开的另一个方面,提供一种意图类别预测装置,包括:语句获取模块,用于获取待预测语句;以及结果获得模块,用于基于上述任一上述任一意图分类模型构建方法构建的意图分类模型,对待预测语句进行预测,得到意图类别预测结果。

根据本公开的再一个方面,提供一种计算机设备,包括:存储器、处理器及存储在存储器中并可在处理器中运行的可执行指令,其特征在于,处理器执行可执行指令时实现如上述任一方法。

根据本公开的又一个方面,提供一种一种计算机可读存储介质,其上存储有计算机可执行指令,其特征在于,可执行指令被处理器执行时实现如上述任一方法。

本公开的实施例所提供的意图分类模型构建方法,通过获取用户输入的样本语料,对样本语料进行分词处理,构建意图分类模型的词典,将各条样本语料转换为特征向量,分别对神经网络的中间网络层、激活层及正则化方式进行初始化,以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络中进行训练,以获得意图分类模型。通过该方法构建的意图分类模型对意图类别进行预测,可以提高意图类别预测的准确性,提升用户体验。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是根据一示例性实施方式示出的一种意图分类模型构建方法的流程图。

图2是根据一示例性实施方式示出的另一种意图分类模型构建方法的流程图。

图3是根据一示例性实施方式示出的另一种意图分类模型构建方法的流程图。

图4是根据一示例性实施方式示出的一种意图类别预测方法的流程图。

图5是根据一示例性实施方式示出的另一种意图类别预测方法的流程图。

图6是根据一示例性实施方式示出的一种意图分类模型构建装置的框图。

图7是根据一示例性实施方式示出的一种意图类别预测装置的框图。

图8是根据一示例性实施方式示出的一种计算机系统的结构示意图。

具体实施方式

现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。

此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。

为了便于理解,下面首先对本公开涉及到的几个名词进行解释。

自然语言处理(naturelanguageprocessing,nlp)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。

机器学习(machinelearning,ml)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。

图1是根据一示例性实施方式示出的一种意图分类模型构建方法的流程图。本公开实施例提供的方法可以由任意具备计算处理能力的电子设备执行。

如图1所示,方法10包括:

在步骤s102中,获取用户输入的样本语料,以构建语料库。

样本语料例如可以从智能助理平台中获取。

智能助理平台指的是基于人工智能技术,通过理解语音或文本形式的自然语言来满足用户需求的软件应用或平台。

用户在购物时,可以在智能助理平台中输入问题或想要了解的产品信息,智能助理平台可以根据用户输入的语句自动进行回复。

用户输入的样本语料例如可以是“我想买一部手机”、“我的订单到哪了?”等。

在步骤s104中,对样本语料进行分词处理。

分词是通过计算机自动识别出句子中的词语,在词间加入边界标记符,分隔出各个词汇。

分词处理例如可以使用结巴分词工具,包括全模式匹配、精准匹配、搜索模式匹配。结巴分词工具中可以加入用户自定义词典,针对不同的应用场景,可以设置用户自定义词典,加入特色词库,使得分类更加准确。

在一些实施例中,在分词处理之前,还可以基于正则化匹配方式,过滤样本语料中的表情符号、敏感词、无信息含量的词语等。敏感词例如可以是不文明的语言,无信息含量的词语例如可以是“好的”、“呵呵”等。

在步骤s106中,根据分词结果中各词语在语料库中的出现频率,构建意图分类模型的词典。

高频词是指在语料库中出现频率高且有价值的词语,其在一定程度上代表了语料的焦点所在。

在分词处理之后,例如可以先去掉停用词,然后根据分词结果中各词语在语料库中的出现频率,对各词语进行排序,其中,出现频率越高的词语,序号越小;提取出现频率较高的预设个数的词语,构建意图分类模型的词典。预设个数例如可以是5000个。

在步骤s108中,根据词典中各词语的字词特征,将各条样本语料转换为特征向量。

将各条样本语料转换为特征向量的方法例如可以是:独热编码方法、稠密编码方法、基于窗口的特征编码方法、基于距离与位置特征编码方法、基于未登录词特征编码方法、网络嵌入词表编码方法等。

其中,独热编码方法指的是每一维对应一个单独特征,维度就是字典长度,可以把特征向量看做高维指示向量(其中只有一维值为1,其余维值为0)的组合。

稠密编码方法指的是每个特征是一个d维向量,模型训练会导致相似特征对应相似向量,相似特征间的信息是共享的。

基于窗口的特征编码方法指的是以某位置i为中心词,两边各包含k个单词的窗口,设窗口大小k=2,在位置i-2,i-1,i+1和i+2上的词语进行编码,对应的词向量为a,b,c,d,使用拼接的方式[a,b,c,d]表示。

基于距离与位置特征编码方法指的是将一句话中两个词的线性距离作为特征,对距离特征采用与其它特征类似的方式编码,每一组关联到一个d维向量,这些距离嵌入向量作为网络参数进行训练。

基于未登录词特征编码方法指的是当用户输入的句子中包含新词,也就是该词在字典中没有出现过时,保留一个特殊符号unk表示未知记号来对应这种情况,字向量和词向量在不同表中使用不同的未知符号。

网络嵌入词表编码方法指的是为每一个词赋予一个嵌入向量,这些向量是基于word2vector或glove等模型在训练集得到的,维度在50到几百之间尝试,不同的任务在速度和准确度之间取一个平衡,对于具有k个类别的多分类问题,网络的输出是一个k维向量,每一维表示一个输出类别的强度。

在步骤s110中,分别对神经网络的中间网络层、激活层及正则化方式进行初始化。

例如可以基于tensorflow算子,分别对神经网络的中间网络层、激活层及正则化方式进行初始化。

中间网络层的初始化方式例如可以默认设置为0到1均匀分布,在不同的任务中也可以设置为其它分布。

激活层的初始化方式例如可以默认设置为截断的正态分布,在不同场景的任务中,也可以配置不同的分布。

正则化方式可以设置为l2,在不同场景的任务中,也可以配置为l1。在机器学习中,一般损失函数后面会添加一个额外项,一般称作l1正则化、l2正则化或者l1范数、l2范数。l1、l2正则化可以看做是损失函数的惩罚项。

在步骤s112中,以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络进行训练,以获得意图分类模型。

以各特征向量作为模型的训练集,输入到经初始化后的神经网络的输入层中,调用需要的预先设置的算法库中的轻量算法,对经初始化后的神经网络进行训练,获得意图分类模型。

在一些实施例中,预先设置的算法库包括如下轻量算法的至少其中之一:预先设置的掩膜层(mask)算子、预先设置的稠密张量(tensor)前向传播层、预先配置的神经网络层数、特征向量分批处理中批次大小及神经网络权重参数的归一化处理方式。

预先设置的掩膜层算子可以对输入张量做标记位,标记在不同位置需要给予的不同权重,掩膜层也可以把填充(padding)的数值误差降到最低。

神经网络权重参数的归一化处理方式例如可以为网络层的归一化(normalize)、每一个批次(batch)的归一化、权重(weights)的归一化等。

其中,网络层的归一化是基于计算的均值和方差对某一层神经网络输入中的每个样本进行归一化操作;每一个批次的归一化是在每一个批次处理数据的时候,插入归一化操作“batchnormalize”,可以降低特征的相关性,平衡特征分布;深度学习模型训练的本质是对权重进行更新,权重的归一化指的是在初始化参数加入归一化,保持输入和输出的方差一致,避免输出趋向于0。

在一些实施例中,预先设置的算法库还包括:位置向量化轻量算法,用于在进行拼接之前,在输入张量的不同位置,使用不同的算法控制不同位置的权重。

可以自定义w和b等神经网络中的参数,重塑张量维度,设置矩阵相乘相加等算子,实现向量的前向计算。

在一些实施例中,预先设置的算法库还包括:预先设置的注意力(attention)机制。

预先设置的注意力机制例如可以为multi_attention(多头注意力)、self_attention(自注意力)等常用的注意力机制。

在一些实施例中,预先设置的算法库还包括:基于多层感知机和基于卷积的高速路(highway)方式轻量算法。

搭建神经网络例如可以基于glu(gatedlinearunit,门线性算子单元)。glu是把输入张量沿着最后一个维度分成两部分,然后对第一部分张量做sigmoid激活,并且乘以第二部分张量;可以使用自定义leak_relu激活函数,通过设置relu系数,计算输入张量和该张量乘以系数的最大值;在卷积层搭建时,可以选取尺寸为1、3、5的多卷积核,做conv1d和conv2d的卷积操作;在池化层搭建时,可以采用最大池化或评价池化等方式;在设置残差深度块时,可以设置为10层的残差网络,也可以针对具体的分类业务重新配置层数,每一个残差块可以设置多种数学公式和张量拼接张量填充方式;前向传递可以计算节点的输出,由于每个节点的输出只依赖于它本身和传入的边,所以容易通过遍历拓扑顺序的结点来计算所有结点的输出,并在给定前驱时,计算每个结点的输出;反向传播过程开始于设置一个损失结点,然后计算该节点参数的梯度,本质是使用链式法则求导,逐层一次计算损失。

本公开的实施例所提供的意图分类模型构建方法,通过获取用户输入的样本语料,对样本语料进行分词处理,构建意图分类模型的词典,将各条样本语料转换为特征向量,分别对神经网络的中间网络层、激活层及正则化方式进行初始化,以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络中进行训练,以获得意图分类模型。通过该方法构建的意图分类模型对意图类别进行预测,可以提高意图类别预测的准确性,提升用户体验。

应清楚地理解,本发明描述了如何形成和使用特定示例,但本发明的原理不限于这些示例的任何细节。相反,基于本发明公开的内容的教导,这些原理能够应用于许多其它实施方式。

图2是根据一示例性实施方式示出的另一种意图分类模型构建方法的流程图。

如图2所示,在图1所示的意图语句预测模型构建方法10基础上,图2的方法20还包括:

在步骤s202中,将反馈的坏案例和重新标记的标签加入训练集,优化意图分类模型。

根据测试人员反馈的坏案例(badcase),即通过意图分类模型得出的,重新标记标签,将反馈的坏案例和重新标记的标签加入训练集,输入到意图分类模型中进行训练,优化意图分类模型。

方法20和方法10相同的步骤在此不再赘述。

图3是根据一示例性实施方式示出的另一种意图分类模型构建方法的流程图。

如图3所示,在图1所示的方法10的步骤s112之前,图3的方法30还包括:

在步骤s112中,将特征向量的长度调整为预设长度。

特征向量在进入神经网络之前,还可以进一步将其处理成相同的长度,预设长度例如可以是50,用户输入语句长短不一,为了和预设长度保持一致,例如可以将智能助理平台可接受的最大句子长度设置为50,这样长于50的部分会被截断,少于50的部分,会被填充为设定的数值,保证特征向量以相同的长度进入神经网络。

在步骤s114中,将调整长度后的各特征向量分为不同批次,以在对神经网络进行训练时,分批次进行训练。

图4是根据一示例性实施方式示出的一种意图类别预测方法的流程图。

如图4所示,意图类别预测方法40包括:

在步骤s402中,获取待预测语句。

待预测语句例如可以是用户在上述的智能助理平台中的的留言或评论。

在步骤s404中,基于意图分类模型,对待预测语句进行预测,得到意图类别预测结果。

其中,意图分类模型是根据上述任一方法构建的。

将待预测语句输入到训练好的意图分类模型中,可以得到意图类别的预测结果。例如用户的留言为“我的订单到哪了?”,输入到意图分类模型中,可以得到预测结果为“订单查询意图”。

本公开的实施例提供的意图类别预测方法,基于意图分类模型对待预测语句进行预测,得到意图类别预测结果。该方法能够对用户留言的意图类别进行预测,提高意图类别预测的准确性,提升用户体验。

图5是根据一示例性实施方式示出的另一种意图类别预测方法的流程图。

与图4所示的方法40不同之处在于,图5进一步提供了如何对待预测语句进行预测,得到意图类别预测结果,也即图5所示的方法,进一步提供了对图4中步骤s404的实施例。

参考图5,步骤s404包括:

在步骤s4042中,对待预测语句进行预测,得到每种预设意图类别的概率。

预设意图类别例如可以是商品查询意图、订单查询意图、售后服务意图、模糊优惠查询意图、特定商品优惠查询意图、全站直达查询意图和未知意图。对待预测语句进行预测,可以得到上述每种意图类别的概率。

在步骤s4044中,将概率最大的意图类别作为意图类别预测结果。

比较每种意图类别的概率,将概率最大的意图类别作为预测结果。

本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由cpu执行的计算机程序。在该计算机程序被cpu执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。

此外,需要注意的是,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。

下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。

图6是根据一示例性实施方式示出的一种意图分类模型构建装置的框图。

如图6所示,意图分类模型构建装置60包括:样本获取模块602、分词处理模块604、词典构建模块606、向量转换模块608、初始化模块610及模型获得模块612。

其中,样本获取模块602用于获取用户输入的样本语料,以构建语料库。

分词处理模块604用于对样本语料进行分词处理。

词典构建模块606用于根据分词结果中各词语在语料库中的出现频率,构建意图分类模型的词典。

向量转换模块608用于根据词典中各词语的字词特征,将各条样本语料转换为特征向量。

初始化模块610用于分别对神经网络的中间网络层、激活层及正则化方式进行初始化。

模型获得模块612用于以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络中进行训练,以获得意图分类模型。

在一些实施例中,预先设置的算法库包括如下轻量算法的至少其中之一:预先设置的掩膜层算子、预先设置的稠密张量前向传播层、预先配置的神经网络层数、特征向量分批处理中批次大小及神经网络权重参数的归一化处理方式。

在一些实施例中,预先设置的算法库还包括:位置向量化轻量算法,用于在进行拼接之前,在输入张量的不同位置,使用不同的算法控制不同位置的权重。

在一些实施例中,预先设置的算法库还包括:预先设置的注意力机制。

在一些实施例中,预先设置的算法库还包括:基于多层感知机和基于卷积的高速路方式轻量算法。

在一些实施例中,装置60还包括:模型优化模块,用于将反馈的坏案例和重新标记的标签加入训练集,优化意图分类模型。

在一些实施例中,装置60还包括:向量分组模块,用于将特征向量的长度调整为预设长度;及将调整长度后的各特征向量分为不同批次,以在对神经网络进行训练时,分批次进行训练。

本公开的实施例所提供的意图分类模型构建装置,通过获取用户输入的样本语料,对样本语料进行分词处理,构建意图分类模型的词典,将各条样本语料转换为特征向量,分别对神经网络的中间网络层、激活层及正则化方式进行初始化,以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络中进行训练,以获得意图分类模型。通过该装置构建的意图分类模型对意图类别进行预测,可以提高意图类别预测的准确性,提升用户体验。

图7是根据一示例性实施方式示出的一种意图类别预测装置的框图。

如图7所示,意图分类模型构建装置70包括:语句获取模块702及结果获得模块704。

其中,语句获取模块702用于获取待预测语句。

结果获得模块704用于基于意图分类模型,对待预测语句进行预测,得到意图类别预测结果。

其中,意图分类模型是根据上述任一意图分类模型构建方法构建的。

在一些实施例中,结果获得模块704包括:概率获得模块,用于对待预测语句进行预测,得到每种预设意图类别的概率;以及类别确定模块,用于将概率最大的意图类别作为意图类别预测结果。

本公开的实施例提供的意图类别预测装置,基于意图分类模型对待预测语句进行预测,得到意图类别预测结果。该装置能够对用户留言的意图类别进行预测,提高意图类别预测的准确性,提升用户体验。

需要注意的是,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。

图8是根据一示例性实施方式示出的一种计算机系统的结构示意图。需要说明的是,图8示出的计算机系统仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。

如图8所示,计算机系统800包括中央处理单元(cpu)801,其可以根据存储在只读存储器(rom)802中的程序或者从存储部分808加载到随机访问存储器(ram)803中的程序而执行各种适当的动作和处理。在ram803中,还存储有系统800操作所需的各种程序和数据。cpu801、rom802以及ram803通过总线804彼此相连。输入/输出(i/o)接口805也连接至总线804。

以下部件连接至i/o接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(crt)、液晶显示器(lcd)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如lan卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至i/o接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(cpu)801执行时,执行本公开的系统中限定的上述功能。

需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、rf等等,或者上述的任意合适的组合。

附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括发送单元、获取单元、确定单元和第一处理单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,发送单元还可以被描述为“向所连接的服务端发送图片获取请求的单元”。

作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:

获取用户输入的样本语料,以构建语料库;

对样本语料进行分词处理;

根据分词结果中各词语在语料库中的出现频率,构建意图分类模型的词典;

根据词典中各词语的字词特征,将各条样本语料转换为特征向量;

分别对神经网络的中间网络层、激活层及正则化方式进行初始化;以及

以各特征向量作为训练集,基于预先设置的算法库中的各轻量算法,对经初始化后的神经网络进行训练,以获得意图分类模型。

以上具体地示出和描述了本公开的示例性实施方式。应可理解的是,本公开不限于这里描述的详细结构、设置方式或实现方法;相反,本公开意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1