评分模型训练方法及装置、作文评分方法及装置

文档序号:24968695发布日期:2021-05-07 22:38阅读:72来源:国知局
评分模型训练方法及装置、作文评分方法及装置

本发明涉及人工智能领域,尤其涉及一种评分模型训练方法及装置、作文评分方法及装置。



背景技术:

现有的作文自动评分系统,其基本思路是,通过当时可用的自然语言处理技术,从作文提取多个文本特征,将这些特征的值作为预测变量,将作文得分作为结果变量,然后利用机器学习方法训练回归模型,最终根据回归模型对作文进行评分。然而由于现有技术所提取的文本特征多为表层特征,未将这些表层特征与当前自然语言处理提供的深度学习技术便利充分融合起来,导致评分结果表现不佳。



技术实现要素:

本发明提供一种评分模型训练方法及装置、作文评分方法及装置,以解决作文自动评分系统评分结果表现不佳的问题。

根据本发明的第一方面,本发明提供一种评分模型训练方法,所述方法包括:获取训练文本;根据所述训练文本构建衡量评分标准的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征;将所述特征集输入回归模型进行训练,得到目标评分模型。

在一些实施例中,在获取训练文本的步骤中,包括:获取多个待评分文本;对所述待评分文本进行人工评分,得到所述训练文本。

在一些实施例中,在根据所述训练文本构建衡量评分标准的特征集的步骤中,包括:通过预设的词汇复杂度表对所述训练文本进行分析,得到所述词汇复杂度特征。

在一些实施例中,在根据所述训练文本构建衡量评分标准的特征集的步骤中,包括:通过预设的句法复杂度表对所述训练文本进行分析,得到所述句法复杂度特征。

在一些实施例中,在根据所述训练文本构建衡量评分标准的特征集的步骤中,包括:通过预设的bert预训练模型对所述训练文本进行分析,得到所述深度学习特征。

根据本发明的第二方面,本发明提供一种作文评分方法,该方法包括:获取待检测文本;通过目标评分模型获取所述待检测文本的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征;根据所述特征集对应的评分标准,得到所述待检测文本的评分。

根据本发明的第三方面,本发明提供一种评分模型训练装置,包括:获取模块,用于获取获取训练文本;构建模块,用于根据所述训练文本构建衡量评分标准的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征;得到模块,用于将所述特征集输入回归模型进行训练,得到目标评分模型。

根据本发明的第四方面,本发明提供一种作文评分装置,包括:第一获取模块,用于获取待检测文本;第二获取模块,用于通过目标评分模型获取所述待检测文本的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征;评分得到模块,用于根据所述特征集对应的评分标准,得到所述待检测文本的评分。

根据本发明的第五方面,本发明提供一种电子设备,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如上述的评分模型训练方法或作文评分的步骤。

根据本发明的第六方面,本发明提供一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如上述的评分模型训练方法或作文评分方法。

相较现有技术,本发明的有益效果为:将深层次语言复杂度特征集与当下人工智能领域前沿的深度学习特征融合的方式,作为机器学习模型的预测变量,使机器学习模型在进行等级自动判别系统学习时更容易从深层学习不同分数作文的特征,从而提高模型性能,得到较佳评分结果。

附图说明

图1为本发明实施例提供的一种评分模型训练方法的步骤流程示意图。

图2为图1中步骤s11的具体步骤流程示意图。

图3为本发明实施例提供的一种bert预训练模型的基本架构示意图。

图4为本发明实施例提供的一种作文评分方法的步骤流程示意图。

图5为本发明实施例提供的一种评分模型训练装置的结构示意图。

图6为本发明实施例提供的一种作文评分装置的结构示意图。

图7为本发明实施例提供的电子设备的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

如图1所示,本发明实施例提供一种评分模型训练方法,该方法包括步骤s11至步骤s13。

步骤s11,获取训练文本。

如图2所示,步骤s11包括步骤s21至步骤s22。

步骤s21,获取多个待评分文本。

步骤s22,对所述待评分文本进行人工评分,得到所述训练文本。

步骤s12,根据所述训练文本构建衡量评分标准的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征。

示例性的,在根据所述训练文本构建衡量评分标准的特征集的步骤中,通过预设的字汇复杂度表对所述训练文本进行分析,得到所述字汇复杂度特征。

表1字汇复杂性表

示例性的,在根据所述训练文本构建衡量评分标准的特征集的步骤中,通过预设的词汇复杂度表对所述训练文本进行分析,得到所述词汇复杂度特征。

表2词汇复杂性表

示例性的,在根据所述训练文本构建衡量评分标准的特征集的步骤中,通过预设的句法复杂度表对所述训练文本进行分析,得到所述句法复杂度特征。

表3句法复杂性表

示例性的,在根据所述训练文本构建衡量评分标准的特征集的步骤中,通过预设的bert预训练模型对所述训练文本进行分析,得到所述深度学习特征。

具体的,如图3所示,为bert预训练模型的基本架构,其中e1至en为嵌入层,trm为transformer层,t1至tn为预测层。本发明中,bert的全称是“基于transformer的双向编码器表征”,其中「双向」表示模型在处理某一个词时,它能同时利用该词上文与下文的信息,这种「双向」造成bert与传统语言模型的不同,它不是在给定前一时刻对应词的条件下,预测当前时刻最有可能出现的词,bert在训练过程中采用随机遮掩一部分词的方法,利用剩余所有没被遮掩的词进行预测。bert就是一个神经网络模型,可以将一个语言符号序列(如汉语、英语等)通过该网络结构变成一个数值向量,而该数值向量蕴含了该符号序列的一些深度学习特征。

步骤s13,将所述特征集输入回归模型进行训练,得到目标评分模型。

如图4所示,本发明实施例提供一种作文评分方法,包括步骤s41至步骤s43。

步骤s41,获取待检测文本。

步骤s42,通过目标评分模型获取所述待检测文本的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征。

步骤s43,根据所述特征集对应的评分标准,得到所述待检测文本的评分。

如图5所示,本发明实施例提供一种评分模型训练装置,包括获取模块501、构建模块502以及得到模块503。

获取模块501用于获取获取训练文本。

构建模块502用于根据所述训练文本构建衡量评分标准的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征。

得到模块503用于将所述特征集输入回归模型进行训练,得到目标评分模型。

如图6所示,本发明实施例提供一种评分模型训练装置,包括第一获取模块601、第二获取模块602以及评分得到模块603。

第一获取模块601用于获取待检测文本。

第二获取模块602用于通过目标评分模型获取所述待检测文本的特征集,所述特征集包括:字汇复杂度特征、词汇复杂度特征、句法复杂度特征以及深度学习特征。

评分得到模块603用于根据所述特征集对应的评分标准,得到所述待检测文本的评分。

如图7所示,本发明实施例还提供一种电子设备700,该电子设备700可以是手机、平板以及电脑等设备。如图7所示,电子设备700包括处理器701、存储器702。其中,处理器701与存储器702电性连接。

处理器701是电子设备700的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或加载存储在存储器702内的应用程序,以及调用存储在存储器702内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。

在本实施例中,该电子设备700设有多个存储分区,该多个存储分区包括系统分区和目标分区,电子设备700中的处理器701会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器702中,并由处理器701来运行存储在存储器702中的应用程序,从而实现评分模型训练方法或作文评分方法。

本发明将深层次语言复杂度特征集与当下人工智能领域前沿的深度学习特征融合的方式,作为机器学习模型的预测变量,即将字汇复杂度特征、词汇复杂度特征、句法复杂度特征与bert导出的深度学习特征进行融合,作为预测变量,使机器学习模型在进行等级自动判别系统学习时更容易从深层学习不同分数作文的特征,从而提高模型性能,得到较佳评分结果。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。

以上对本发明实施例所提供的一种评分模型训练方法及装置、作文评分方法及装置进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的技术方案及其核心思想;本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例的技术方案的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1