输入法候选项的排序方法及相关模型的训练方法与流程

文档序号:25036917发布日期:2021-05-11 17:09阅读:240来源:国知局
输入法候选项的排序方法及相关模型的训练方法与流程

本申请涉及输入法技术领域,特别是涉及一种输入法候选项的排序方法及相关模型的训练方法、设别和存储介质。



背景技术:

随着电子设备,尤其是智能手机的发展,电子设备在人们生活中扮演着愈发重要的角色。目前,通过打字来输入相关信息到电子设备中,是主要的输入内容方式。

然而,当前的输入法在对候选项进行排序的时候,排序方法单一,无法根据用户的具体情况进行对应调整,导致用户需要花费更多的精力去选择候选项,这极大地限制了用户的输入效率。

因此,如何提高用户的输入效率,具有非常重要的意义。



技术实现要素:

本申请至少提供一种输入法候选项的排序方法及相关模型的训练方法、设别和存储介质,能够提高用户的输入效率。

本申请第一方面提供了一种输入法候选项的排序方法,该方法包括:通过输入法接收用户的当前输入内容;基于当前输入内容得到若干候选项,并获取输入参考信息,其中,输入参考信息包括以下至少一种信息:与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息;将候选项对应的候选项信息和输入参考信息输入至排序确定模型,以得到候选项的排序结果。

本申请第二方面提供了一种排序确定模型的训练方法,该方法包括:获取样本用户的样本输入内容;基于根据样本输入内容得到的样本候选项,以及样本候选项的实际排序结果;获取样本输入参考信息;其中,样本输入参考信息包括以下至少一种信息:与用户相关的第一样本输入参考信息和/或与当前输入内容相关的第二样本输入参考信息;将样本候选项和样本输入参考信息输入至排序确定模型,以得到样本候选项的预测排序结果;根据预测排序结果与实际排序结果之间的差异,调整排序确定模型的网络参数。

本申请第三方面提供了一种电子设备,包括相互耦接的存储器和处理器,处理器用于执行存储器中存储的程序指令,以实现上述第一方面中的输入法候选项的排序方法,或实现上述第二方面中的排序确定模型的训练方法。

本申请第四方面提供了一种计算机可读存储介质,其上存储有程序指令,程序指令被处理器执行时实现上述第一方面中的输入法候选项的排序方法,或实现上述第二方面中的排序确定模型的训练方法。

上述方案,通过获取与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息,并利用这些信息对候选项的进行排序,使得在排序时,能够根据用户的个性信息以及当前的输入信息的相关信息来综合对候选项进行排序,令排序结果能够更加符合用户的要求,进而使得用户能够更加容易找到其所要输入的内容,故提升了用户的输入效率。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本申请。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本申请的实施例,并与说明书一起用于说明本申请的技术方案。

图1是本申请输入法候选项的排序方法一实施例的第一流程示意图;

图2是本申请输入法候选项的排序方法一实施例的第二流程示意图;

图3是本申请输入法候选项的排序方法一实施例的第三流程示意图;

图4是本申请输入法候选项的排序方法另一实施例的流程示意图;

图5是本申请排序确定模型的训练方法一实施例的流程示意图;

图6是本申请电子设备一实施例的框架示意图;

图7是本申请计算机可读存储介质一实施例的框架示意图。

具体实施方式

下面结合说明书附图,对本申请实施例的方案进行详细说明。

以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。

本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括a、b、c中的至少一种,可以表示包括从a、b和c构成的集合中选择的任意一个或多个元素。

用于执行本申请描述的输入法候选项的排序方法的设备例如是手机、平板电脑,笔记本电脑等等。

请参阅图1,图1是本申请输入法候选项的排序方法一实施例的第一流程示意图。具体而言,可以包括如下步骤:

步骤s11:通过输入法接收用户的当前输入内容。

输入法是将各种符号输入电子信息设备(如计算机、手机)而采用的编码方法。输入法包括用于中文信息输入的中文输入法和英文信息的输入法。在中文输入法中,包括拼音输入法和五笔输入法等。

当前输入内容例如是利用输入法输入的拼音,或者笔画等。

因此,可以通过输入法来接收用户的当前输入内容,具体可以是通过获取用户在输入法的输入框中输入的内容来接收用户的当前输入内容。

步骤s12:基于当前输入内容得到若干候选项,并获取输入参考信息,其中,输入参考信息包括以下至少一种信息:与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息。

基于用户的当前输入内容,可以确定与当前输入内容对应的若干候选项。例如,如果用户在输入法中输入了拼音,则输入法可以根据输入的拼音,确定与这些拼音对应的若干个汉字;同理,如果用户输入笔画,则可以根据输入的笔画,确定与这些笔画对应的若干汉字,这些汉字即为候选项,用于供用户选择其想要输入的汉字。例如,用户输入的拼音为“daxue”,输入法可以得到“大学”、“大雪”、“大血”等中文候选项。

在一个实施场景中,可以利用语言模型对当前输入内容进行处理,得到至少一个第一候选项,以及在用户对应的词典中获取与当前输入内容匹配的至少一个第二候选项,其中,第二候选项与第一候选项不相同。

利用语言模型根据输入的当前输入内容来进行编码,解码,可以得到至少一个第一候选项。语言模型例如是n-gram语言模型,神经网络语言模型(nerualnetworklanguagemodel,nnlm)等,在此不做限定。例如,用户输入拼音“tianqi”,语音模型可以根据输入的拼音,得到“天气”、“天启”、“田七”等候选项。

在一个实施场景中,如果语言模型确定的候选项过多,可以从中选择前n个,作为第一候选项,例如选择前10个作为第一候选项,以此可以减少数据的运算量。

另外,还可以根据当前输入内容,在用户对应的词典中获取与当前输入内容匹配的至少一个第二候选项,其中,第二候选项与第一候选项不相同。也即,候选项除了可以通过语音模型得到之外,还可以从用户的词典中获取与当前输入内容匹配的至少一个第二候选项。例如,用户输入了拼音“tianqi”,语音模型没给出“天琪”这个候选项,但是用户之前输入了拼音“tianqi”,然后通过一个字,一个字的选择,选择了“天琪”,因此就建立了拼音“tianqi”与“天琪”的对应关系,用户的词典保存了这种关系。因此也可以从用户对应的词典中获取与当前输入内容匹配的至少一个第二候选项。可以理解的,如果当前输入内容在用户的词典中没有对应的候选项,或者与第一候选项相同,则不会获取与当前输入内容对应的第二候选项。

通过利用语言模型获取候选项以及通过用户的词典获取候选项,可以使获得的候选项能够更加准确的涵盖用户想要输入的文字内容。

在一个实施场景中,用户的词典还存储有用户已输入的没有经过分词处理的词。上述的第二候选项也属于用户已输入的没有经过分词处理的词。没有经过分词处理的词,则是记录用户在输入法输入一次输入当前内容的过程中,根据该输入当前内容选择的文字。例如,用户输入了拼音“jintiantqhenhao”,然后用户选择了“今天天气很好”这些汉字,则用户的词典会存储有“今天天气很好”,并会相应存储其与拼音“jintiantqhenhao”的对应关系。以此,可以记录下用户的个性化输入习惯,使得在确定候选项时,能够体现用户的输入习惯。

在得到若干候选项后,还可以获取输入参考信息。输入参考信息可以作为对候选项进行排序时的参考信息。输入参考信息例如包括以下至少一种信息:与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息。

在一个实施场景中,第一输入参考信息和第二输入参考信息可以存储在用户的用户日志中。此外,用户日志还可以记录与当前输入操作相关的信息,例如当前输入时间、当日使用输入法的时长信息,当前所在地点等等。在另一个实施场景中,第一输入参考信息和第二输入参考信息还可以存储在用户的词典中。

与用户相关的第一输入参考信息里面可以包含有用户的个性化输入信息,用于反映用户的输入习惯。第一输入参考信息例如是用户对候选项的历史输入信息以及与该候选项对应的用户常用的拼音形式等等。通过获取与用户相关的第一输入参考信息,可以利用用户的个性化输入信息来对若干候选项进行排序,使得排序结果更加符合用户的要求。

历史输入信息可以包括候选项的历史输入次数,候选项的间隔输入次数,上一次输入时间,上一次输入的地点等等。

在一个实施场景中,候选项的历史输入信息包括以下至少一种信息:候选项的历史输入次数的表征信息和候选项的间隔输入词数的表征信息。

候选项的历史输入次数的表征信息,是根据候选项的历史输入次数进行处理得到的。历史输入次数为该候选项在用户对应的词典中被记录的输入次数。例如,用户从最初使用该输入法开始统计算起,共通过输入法输入了“大雪”5次,则“大雪”候选项的历史输入次数为5。根据候选项的历史输入次数进行处理,可以包括:对候选项的历史输入次数进行分段处理,以此确定该候选项的输入频率;还可以对候选项的历史输入次数进行加权处理,以突出不同历史输入次数的候选项的重要程度。通过历史输入次数,可以判断该候选项是否为用户经常输入的文字,以此来判断该候选项的总的输入频率。

在一个具体实施场景中,历史输入次数的表征信息为历史输入次数的值。在另一个具体实施场景中,历史输入次数的表征信息为历史输入次数的值所属的区间。历史输入次数的值所属的区间,即是对历史输入次数进行分段,确定候选项的历史输入次数所属的区间。例如,可以将历史输入次数处于0-500次的设置为一个区间,500-1000次的设置为一个区间。区间的设置可以根据需要进行调整,此处不做限制。通过对历史输入次数进行分段处理,可以简化候选项的历史输入次数信息,便于后续在对候选项进行排序时利用历史输入次数的表征信息。

在一个实施场景中,间隔输入词数为在用户对应的词典所记录的输入词数量中当前与最近一次输入候选项相差的词数量。该候选项最近一次输入是指用户上一次通过输入法输入内容后选择了该候选项,候选项当前一次即是当前用户通过输入法输入拼音、笔画后,输入法以此确定了该候选项。候选项当前与最近一次输入候选项相差的词数量,即是从用户上一次选择了该候选项后,还选择了多少个候选项。例如,自用户上一次选择了“大学”这个候选项后,用户还选择了“生活”、“感觉”、“真”、“的”和“很美好”这5个候选项后,用户在再次输入“daxue”拼音,候选项中包括“大学”,则“大学”候选项的间隔输入词数为5。

在一个实施场景中,候选项的间隔输入词数的表征信息,是根据间隔输入词数进行处理得到的。根据间隔输入词数进行处理,可以是对候选项的间隔输入词数进行分段处理,以此确定该候选项的最近输入频率;还可以对候选项的间隔输入词数进行加权处理,以突出不同间隔输入词数的候选项的重要程度。

在一个具体实施场景中,候选项的间隔输入词数的表征信息,可以直接为间隔输入词数。在另一个具体实施场景中,候选项的间隔输入词数的表征信息还可以是间隔输入词数的值所属的区间。确定间隔输入词数的值所属的区间的方法和上述确定历史输入次数的值所属的区间相同,此处不再赘述。通过对间隔输入词数进行分段处理,可以简化候选项的间隔输入词数信息,便于后续在对候选项进行排序时利用间隔输入词数的表征信息。

通过获取候选项的间隔输入词数的表征信息,可以根据该表征信息,来判断用户对于该候选项的最近输入频率。

在一个实施场景中,第二输入参考信息包括以下至少一种信息:当前输入内容的上文信息、当前输入内容的输入形式、当前输入内容的输入环境信息、候选项的每个字在当前句子中的位置信息。

当前输入内容的上文信息,是指在用户的一次输入中,用户已经选择了的候选项。用户的一次输入,可以理解为用户在利用输入法开始输入时刻开始,到当前时刻为止。输入法开始输入时刻,可以是在用户打开输入法的那一刻。例如,用户在微信的聊天界面中点击待发送框,此时会弹出输入法,此刻即为输入法开始输入时刻;或者是在检测到用户通过输入法输入了预设标点符号以后,就重新确定此刻为输入法开始输入时刻,预设标点符号例如是“,”、“。”、“;”等等;或者是检测到通过输入法输入了特定的指令之后,就重新确定此刻为输入法开始输入时刻,特定的指令例如是“删除”、“分行”指令等等。在一个具体实施场景中,输入法开始输入时刻还可以是在输入法中,清空了所有候选项的情况。可以理解的,输入法开始输入时刻可以根据需要进行设定,此处不做限制。通过获取当前输入内容的上文信息,便可以根据上文信息,来对当前的候选项进行排序,使得当前的候选项能够与上文连贯起来。

当前输入内容的输入形式,输入形式例如是拼音形式、五笔形式等。对于输入形式为拼音形式的情况,输入形式还可以包括“全简拼”、“全拼”、“尾简拼”和“部分简拼”等形式。全简拼为输入的拼音中,只输入声母或声母的首字母,例如“srf”,其对应的候选项可以是“输入法”。全拼是输入汉字的全部拼音(包含声母和韵母),如输入“shurufa”,其对应的候选项可以是“输入法”。尾简拼是输入最后一个汉字时是简拼,例如“shuruf”,其对应的候选项可以是“输入法”。部分简拼除了全简拼以及尾简拼之外的其他简拼的输入,例如“shurf”,其对应的候选项可以是“输入法”。

候选项的每个字在当前句子中的位置信息,即是候选项在已经输入的内容中的位置信息。已经输入的内容,可以包括当前输入内容的上文信息,以及前输入内容的上文信息的上文信息等等。可以理解的,当前句子的确定不受限制,在此不做限制。

在一个实施场景中,当前句子即是当前输入内容的上文信息。在上文信息中,每个字符占据一个位置,例如上位信息为“今天天气”,则候选项中的每个字在当前句子中的位置信息,是从5开始,若候选项为“很好”,则“很”字的位置信息为5,“好”字的位置信息为6。

通过获取候选项的每个字在当前句子中的位置信息,可以根据的当前句子的内容,来对当前的候选项进行排序,提高当前的候选项与当前句子的连贯性。

当前输入内容的输入环境信息可以包括使用输入法的终端的各种相关相信。例如,输入环境信息包括以下至少一种信息:所在的应用程序,以及所在终端的型号信息、配置信息、操作系统信息。所在的应用程序为使用输入法的应用程序,如微信,qq等。所在终端的型号信息为使用输入法的终端的型号信息。配置信息为使用输入法的终端的配置信息,如终端的处理器,运行内存容量等等。操作系统信息为使用输入法的终端的移动操作系统,如安卓系统、ios系统,鸿蒙系统,microsoftwindows操作系统等等。在一些具体实施场景中,输入环境信息还可以包括用输入法的终端的系统设置信息,如网络连接状态,当前电池状态等等。

通过获取输入环境信息,可以以此判断用户当前的使用场景,设备状态等等,并可以根据这些信息,作为对候选项进行排序的参考信息。

以上,通过获取各种类型的输入参考信息,可以获得关于用户的个性化在输入方面的个性化信息以及与用户相关的信息,这些信息可以作为对候选项进行排序的参考信息。

请继续参阅图1。

步骤s13:将候选项对应的候选项信息和输入参考信息输入至排序确定模型,以得到候选项的排序结果。

为了提高排序的效率,可以预先训练一个排序确定模型。

在获得输入参考信息以后,可以将候选项对应的候选项信息和输入参考信息输入至排序确定模型,由排序模型针对各个候选项进行处理,以得到各个候选项的排序结果。

在一个实施场景中,候选项信息包括候选项的每个字的编码信息,即可以对每个汉字都分别分配一个唯一的编码信息。每个字的编码信息例如是独热码(one-hotcode)。通过将候选项对应的候选项信息输入至排序确定模型,模型便可以根据编码信息确定输入至模型的汉字具体是哪个字。

在一个实施场景中,排序确定模型会根据每个候选项进行处理,然后根据对每个候选项处理的结果,来对候选项进行排序。

参阅图2,图2是本申请输入法候选项的排序方法一实施例的第二流程示意图。本实施例是对步骤s13的进一步扩展,具体而言,步骤s13可以包括步骤s131和步骤s132。

步骤s131:将候选项对应的候选项信息和输入参考信息输入至排序确定模型,得到候选项的得分。

排序确定模型针对每一个候选项进行处理,并计算候选项的得分,候选项的例如是每个候选项的概率分数,得分越高,说明模型认为该候选项是用户想要选择的可能性更大。

在一个实施场景中,排序确定模型包括信息处理层、编码层和解码层。信息处理层可以将输入参考信息和候选项对应的候选项信息进行初步的整合,将这两个种类的信息融合成一个特征信息,编码层可以针对信息处理层输出的特征信息进行进一步的编码。解码层可以针对编码层输出的特征信息进行解码,最终得到每个候选项的得分。

上述的信息处理层例如是嵌入层(embedding层),编码层和解码层例如是循环神经网络语言模型(recurrentneuralnetworklanguagemodel,rnnlm)、gpt(generativepre-training)语言模型、transformers-xl语言模型等语言模型中的编码层和解码层,此处不做限制。

参阅图3,图3是本申请输入法候选项的排序方法一实施例的第三流程示意图。在本实施例中,步骤s131具体可以包括步骤s1311至步骤s1313。

步骤s1311:将候选项信息和输入参考信息输入信息处理层,利用信息处理层分别对每种输入信息进行处理,得到每种输入信息的初始特征信息。

信息处理层分别对每个候选项的每种输入信息进行处理,即在信息处理层中,会设置有若干个子处理层,子处理层例如是embedding层。每一个子处理层会对输入的每一种信息进行处理。例如,输入到信息处理层的第一输入参考信息包括历史输入次数的值和间隔输入词数的值,则在信息处理层会设置有两个子处理层分别对这两个信息进行embedding操作。在一个具体实施场景中,每一个子处理层编码后的特征信息的维度相同,以此可以便于后续对每个子处理层编码的特征信息进行整合。在一个实施场景中,信息处理层也可以为单层结构,或者数数层结构。

在一个实施场景中,在对每种输入信息进行处理,得到与每种信息对应的特征信息以后,还可以利用一个子处理层对与每种信息对应的特征信息进行整合,以此得到一个整合了每种输入信息的特征信息的初始特征信息。

通过利用信息处理层对候选项信息和输入参考信息进行处理,可以针对每种信息都进行编码,使得最后得到的初始特征信息包含了用户的个性化输入信息以及用户的当前状态信息,使得后续排序确定模型可以依据这些信息进行排序,最终令排序结果更加符合用户的要求。

步骤s1312:利用编码层对每种输入信息的初始特征信息进行特征提取,得到最终特征信息。

在得到初始特征信息以后,可以利用编码层针对初始特征信息进行进一步的特征提取,以获得更加丰富的特征信息,以此来充分利用用户的个性化输入信息以及用户的当前状态信息。

步骤s1313:利用解码层对最终特征信息进行解码处理,得到候选项的得分。

最后,解码层会根据每个候选项的最终特征信息进行解码处理,以此可以得到每个候选项的得分。每个候选项的得分可以代表每个候选项为用户想要选择的概率的大小,分数越高,说明用户越有可能选择该候选项。

步骤s132:基于每个候选项的得分,得到若干候选项的排序结果。

在得到每个候选项的得分以后,可以对每个候选项进行排序,例如是按照得分从高到低排序,使得用户可以更加容易注意到得分高的候选项。

上述方案,通过获取与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息,并利用这些信息对候选项的进行排序,使得在排序时,能够根据用户的个性信息以及当前的输入信息的相关信息来综合对候选项进行排序,令排序结果能够更加符合用户的要求,进而使得用户能够更加容易找到其所要输入的内容,故提升了用户的输入效率。

参阅图4,图4是本申请输入法候选项的排序方法另一实施例的流程示意图。本实施例的训练方法可以用于对上述实施例提及的排序确定模型进行训练,训练方法具体包括:

步骤s21:接收样本用户的样本输入内容。

关于本步骤的具体描述,请参阅上述步骤s11,区别在于步骤s11是接收用户的当前输入内容,本步骤是接收样本用户的样本输入内容。

步骤s22:基于样本输入内容得到样本候选项,以及样本候选项的实际排序结果。

关于得到样本候选项的具体描述,请参阅上述步骤s12,区别在于步骤s12是得到若干候选项,本步骤是得到样本候选项。

在得到样本输入内容以后,可以依据此内容得到样本候选项的实际排序结果,该实际排序结果可以认为是最符合用户要求的排序结果,并以此来作为样本输入内容的标注信息。

在一个实施场景中,实际排序结果可以是根据排序确定模型确定的预测排序结果进行人工调整后得到的。排序确定模型可以是本实施例中需要训练的模型,也可以是其他排序模型,此处不做限制。在另一个实施场景中,实际排序结果也可以是根据得到的样本候选项,人为排序确定的。

步骤s23:获取样本输入参考信息;其中,样本输入参考信息包括以下至少一种信息:与用户相关的第一样本输入参考信息和/或与当前输入内容相关的第二样本输入参考信息。

关于本步骤的具体描述,请参阅上述步骤s12,获取输入参考信息的过程相同,区别在于,在训练的过程中,获取的信息定义为样本输入参考信息。

步骤s24:将样本候选项和样本输入参考信息输入至排序确定模型,以得到样本候选项的预测排序结果。

关于本步骤的描述,请参阅上述步骤s13,区别为本步骤是根据样本候选项和样本输入参考信息得到样本候选项的预测排序结果。

在一个实施场景中,排序确定模型包括信息处理层、编码层和解码层,关于排序确定模型具体描述,请参阅上述步骤s13中的具体描述,此处不再赘述。

在一个实施场景中,步骤s24具体包括以下步骤s241至步骤s244。

步骤s241:将样本候选项信息和样本输入参考信息输入信息处理层,利用信息处理层分别对每种输入信息进行处理,得到每种样本输入信息的初始样本特征信息。

关于本步骤的具体描述,请参阅上述步骤s1311。

步骤s242:利用编码层对每种输入信息的初始特征信息进行特征提取,得到最终样本特征信息。

关于本步骤的具体描述,请参阅上述步骤s1312。

步骤s243:利用解码层对最终样本特征信息进行解码处理,得到样本候选项的得分。

关于本步骤的具体描述,请参阅上述步骤s1313。

步骤s244:基于每个样本候选项的得分,得到样本候选项的预测排序结果。

关于本步骤的具体描述,请参阅上述步骤s132。

步骤s25:根据预测排序结果与实际排序结果之间的差异,调整排序确定模型的网络参数。

在得到样本候选项的预测排序结果,可以据此与实际排序结果进行比较,并判断二者的差异,最后调整排序确定模型的网络参数。

在一个实施场景中,在调整排序确定模型的网络参数时,可以调整信息处理层、编码层和解码层的网络参数,也可以调整其中一部分的网络参数。

通过利用了用户的输入参考信息来进行训练,使得排序确定模型在实际使用时,便能够根据用户的个性化输入信息来调整候选项的排序结果,使得排序结果更加符合用户的要求,以此提高了用户的输入效率。

参阅图5,图5是本申请排序确定模型的训练方法一实施例的流程示意图。本实施例具体包括:

步骤s31:接收样本用户的样本输入内容。

关于本步骤的具体描述,请参阅上述步骤s11,区别在于步骤s11是接收用户的当前输入内容,本步骤是接收样本用户的样本输入内容。

步骤s32:基于样本输入内容得到样本候选项,以及样本候选项的实际排序结果。

关于得到样本候选项的具体描述,请参阅上述步骤s12,区别在于步骤s12是得到若干候选项,本步骤是得到样本候选项。

在得到样本输入内容以后,可以依据此内容得到样本候选项的实际排序结果,该实际排序结果可以认为是最符合用户要求的排序结果,并以此来作为样本输入内容的标注信息。

在一个实施场景中,实际排序结果可以是根据排序确定模型确定的预测排序结果进行人工调整后得到的。在另一个实施场景中,实际排序结果也可以是根据得到的样本候选项,人为排序确定的。

步骤s33:获取样本输入参考信息;其中,样本输入参考信息包括以下至少一种信息:与用户相关的第一样本输入参考信息和/或与当前输入内容相关的第二样本输入参考信息。

关于本步骤的具体描述,请参阅上述步骤s12,获取输入参考信息的过程相同,区别在于,在训练的过程中,获取的信息定义为样本输入参考信息。

步骤s34:将样本候选项和样本输入参考信息输入至排序确定模型,以得到样本候选项的预测排序结果。

关于本步骤的描述,请参阅上述步骤s13,区别为本步骤是根据样本候选项和样本输入参考信息得到样本候选项的预测排序结果。

在一个实施场景中,排序确定模型包括信息处理层、编码层和解码层,关于排序确定模型具体描述,请参阅上述步骤s13中的具体描述,此处不再赘述。

在一个实施场景中,步骤s34具体包括以下步骤s341至步骤s344。

步骤s341:将样本候选项信息和样本输入参考信息输入信息处理层,利用信息处理层分别对每种输入信息进行处理,得到每种样本输入信息的初始样本特征信息。

关于本步骤的具体描述,请参阅上述步骤s1311,此处不再赘述。

步骤s342:利用编码层对每种输入信息的初始特征信息进行特征提取,得到最终样本特征信息。

关于本步骤的具体描述,请参阅上述步骤s1312,此处不再赘述。

步骤s343:利用解码层对最终特征信息进行解码处理,得到样本候选项的得分。

关于本步骤的具体描述,请参阅上述步骤s1313,此处不再赘述。

步骤s344:基于每个样本候选项的得分,得到样本候选项的排序结果。

关于本步骤的具体描述,请参阅上述步骤s132,此处不再赘述。

步骤s35:根据预测排序结果与实际排序结果之间的差异,调整排序确定模型的网络参数。

在得到样本候选项的预测排序结果,可以据此与实际排序结果进行比较,并判断二者的差异,最后调整排序确定模型的网络参数。

在一个实施场景中,在调整排序确定模型的网络参数时,可以调整信息处理层、编码层和解码层的网络参数,也可以调整其中一部分的网路参数。

需要指出的是,在上述的对排序确定模型进行训练方法中,在训练时,可以利用数个用户的信息来进行训练,也即,可以利用较多数量个的样本用户来训练排序确定模型,例如利用至少500个、1000个用户的样本输入参考信息来对排序确定模型进行训练。样本用户的数量可以根据需要设置,此处不做限制,以此可以使得排序确定模型在训练完成以后,即能够利用用户的个性化输入信息和当前的输入信息的相关信息来进行排序。

上述对排序确定模型的训练方法,利用了用户的输入参考信息来进行训练,使得排序确定模型在实际使用时,便能够根据用户的个性化输入信息和当前的输入信息的相关信息来调整候选项的排序结果,使得排序结果更加符合用户的要求,以此提高了用户的输入效率。

本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。

请参阅图6,图6是本申请电子设备一实施例的框架示意图。电子设备60包括相互耦接的存储器61和处理器62,处理器62用于执行存储器61中存储的程序指令,以实现上述任一输入法候选结果的展示方法实施例的步骤,或实现上述任一排序确定模型的训练方法实施例中的步骤。在一个具体的实施场景中,电子设备60可以包括但不限于:微型计算机、服务器,此外,电子设备60还可以包括笔记本电脑、平板电脑、手机等移动设备,在此不做限定。

具体而言,处理器62用于控制其自身以及存储器61以实现上述任一输入法候选结果的展示方法实施例的步骤,或实现上述任一排序确定模型的训练方法实施例中的步骤。处理器62还可以称为cpu(centralprocessingunit,中央处理单元)。处理器62可能是一种集成电路芯片,具有信号的处理能力。处理器62还可以是通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器62可以由集成电路芯片共同实现。

在一个公开实施例中,处理器62用于执行输入法候选项的排序方法,具体的,处理器62用于通过输入法接收用户的当前输入内容;基于当前输入内容得到若干候选项,并获取输入参考信息,其中,输入参考信息包括以下至少一种信息:与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息;将候选项对应的候选项信息和输入参考信息输入至排序确定模型,以得到候选项的排序结果。

区别于上述实施例,通过获取与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息,并利用这些信息对候选项的进行排序,使得在排序时,能够根据用户的个性信息以及当前的输入信息的相关信息来综合对候选项进行排序,令排序结果能够更加符合用户的要求,进而使得用户能够更加容易找到其所要输入的内容,故提升了用户的输入效率。

在一个公开实施例中,上述的第一输入参考信息包括:用户对候选项的历史输入信息。上述的第二输入参考信息包括以下至少一种信息:当前输入内容的上文信息、当前输入内容的输入形式、当前输入内容的输入环境信息、候选项的每个字在当前句子中的位置信息。上述的候选项信息包括:候选项的每个字的编码信息。

区别于上述实施例,通过获取历史输入次数,可以据此判断该候选项是否为用户经常输入的文字,以此来判断该候选项的输入频率。通过获取输入环境信息,可以以此判断用户当前的使用场景,设备状态等等,并可以根据这些信息,作为对候选项进行排序的参考信息。

在一个公开实施例中,上述的候选项的历史输入信息包括以下至少一种信息:候选项的历史输入次数的表征信息、候选项的间隔输入词数的表征信息,其中,历史输入次数为候选项在用户对应的词典中被记录的输入次数,间隔输入词数为在用户对应的词典所记录的输入词数量中当前与最近一次输入候选项相差的词数量,历史输入次数的表征信息为历史输入次数的值或者历史输入次数的值所属的区间,间隔输入词数的表征信息为间隔输入词数的值或者间隔输入词数的值所属的区间;和/或,当前输入内容为拼音;和/或,输入环境信息包括以下至少一种信息:所在的应用程序,以及所在终端的型号信息、配置信息、操作系统信息。

区别于上述实施例,通过获取历史输入次数的表征信息以及候选项的间隔输入词数的表征信息,可以据此判断候选项的总的输入频率以及最近输入频率。通过获取各种类型的输入环境,可以以此判断用户当前的使用场景,设备状态等等。

在一个公开实施例中,上述的处理器62用于基于当前输入内容得到若干候选项,包括:利用语言模型对当前输入内容进行处理,得到至少一个第一候选项,以及在用户对应的词典中获取与当前输入内容匹配的至少一个第二候选项,其中,第二候选项与第一候选项不相同。

区别于上述实施例,通过利用语言模型获取候选项以及通过用户的词典获取候选项,可以使得获得的候选项能够更加准确的涵盖用户想要输入的文字内容。

在一个公开实施例中,上述的用户对应的词典用于存储用户已输入的没有经过分词处理的词。

区别于上述实施例,通过记录用户已输入的没有经过分词处理的词,可以记录下用户的个性化输入习惯,使得在确定候选项时,能够体现用户的输入习惯。

在一个公开实施例中,上述的处理器62用于将候选项对应的候选项信息和输入参考信息输入至排序确定模型,以得到候选项的排序结果,包括:将候选项对应的候选项信息和输入参考信息输入至排序确定模型,得到候选项的得分;基于每个候选项的得分,得到若干候选项的排序结果。

区别于上述实施例,通过利用排序确定模型来对候选项进行处理,最后可以得到候选项的排序结果。

在一个公开实施例中,上述的排序确定模型包括信息处理层、编码层和解码层。上述的处理器62用于将候选项对应的候选项信息和输入参考信息输入至排序确定模型,以得到候选项的得分,包括:将候选项信息和输入参考信息输入信息处理层,利用信息处理层分别对每种输入信息进行处理,得到每种输入信息的初始特征信息;利用编码层对每种输入信息的初始特征信息进行特征提取,得到最终特征信息;利用解码层对最终特征信息进行解码处理,得到候选项的得分。

区别于上述实施例,通过利用信息处理层对候选项信息和输入参考信息进行处理,可以针对每种信息都进行编码,使得最后得到的初始特征信息包含了用户的个性化输入信息以及用户的当前状态信息,使得后续排序确定模型可以依据这些信息进行排序,最终令排序结果更加符合用户的要求。

在一个公开实施例中,处理器62还用于执行排序确定模型的训练方法,具体的,处理器62用于接收样本用户的样本输入内容;基于根据样本输入内容得到的样本候选项,以及样本候选项的实际排序结果;获取样本输入参考信息;其中,样本输入参考信息包括以下至少一种信息:与用户相关的第一样本输入参考信息和/或与当前输入内容相关的第二样本输入参考信息;将样本候选项和样本输入参考信息输入至排序确定模型,以得到样本候选项的预测排序结果;根据预测排序结果与实际排序结果之间的差异,调整排序确定模型的网络参数。

区别于上述实施例,通过利用了用户的输入参考信息来进行训练,使得排序确定模型在实际使用时,便能够根据用户的个性化输入信息来调整候选项的排序结果,使得排序结果更加符合用户的要求,以此提高了用户的输入效率。

在一个公开实施例中,上述的排序确定模型包括信息处理层、编码层和解码层。上述的处理器62用于将样本候选项和样本输入参考信息输入至排序确定模型,以得到样本候选项的预测排序结果,包括:将样本候选项信息和样本输入参考信息输入信息处理层,利用信息处理层分别对每种输入信息进行处理,得到每种样本输入信息的初始样本特征信息;利用编码层对每种输入信息的初始样本特征信息进行特征提取,得到最终样本特征信息;利用解码层对最终样本特征信息进行解码处理,得到样本候选项的得分;基于每个样本候选项的得分,得到样本候选项的预测排序结果;上述的处理器62用于根据预测排序结果与实际排序结果的差异,调整排序模型的网络参数,包括:根据预测排序结果与实际排序结果的差异,调整信息处理层、编码层和解码层的网络参数。

区别于上述实施例,通过利用信息处理层对样本候选项信息和样本输入参考信息进行处理,可以针对每种信息都进行编码,最后得到的初始样本特征信息,以此,通过将各种特征信息整合为初始样本特征信息,便于后续对排序确定模型进行训练。

请参阅图7,图7为本申请计算机可读存储介质一实施例的框架示意图。计算机可读存储介质70存储有能够被处理器运行的程序指令701,程序指令701用于实现上述任一输入法候选结果的展示方法实施例的步骤,或实现上述任一排序确定模型的训练方法实施例中的步骤。

上述方案,通过获取与用户相关的第一输入参考信息和/或与当前输入内容相关的第二输入参考信息,并利用这些信息对候选项的进行排序,使得在排序时,能够根据用户的个性信息以及当前的输入信息的相关信息来综合对候选项进行排序,令排序结果能够更加符合用户的要求,进而使得用户能够更加容易找到其所要输入的内容,故提升了用户的输入效率。

在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。

上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。

在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1