基于指针-生成Seq2Seq模型的庭审询问生成方法、装置、介质与流程

文档序号:24069418发布日期:2021-02-26 14:23阅读:150来源:国知局
基于指针-生成Seq2Seq模型的庭审询问生成方法、装置、介质与流程
基于指针-生成seq2seq模型的庭审询问生成方法、装置、介质
技术领域
[0001]
本发明涉及自然语言处理领域,尤其涉及一种基于“指针-生成”seq2seq模型并结合额外特征的庭审质询性问题生成方法。


背景技术:

[0002]
在司法文档和庭审对话处理任务中,传统的目标往往是以基于神经网络的分类和预测任务为主,例如案件性质分类、领域分类、法律文档分类,以及罪名预测等,同时也不乏一些seq2seq的生成任务,例如争议焦点的挖掘、法律文本摘要生成。其中分类任务已经发展得比较成熟,但是实用价值比较局限,主要集中在文本分类、案件归档工作之中。基于卷积神经网络的多分类任务,在上一个十年中可以说是人工智能领域的主流任务,然而随着模型精度和应用领域都趋于饱和,这种较为平常的技术无法单独开辟新的应用场景,只能在一定程度上减轻人类的重复劳动。而以seq2seq为蓝本的文本生成任务的优化则主要集中在其三个模块:编码器、解码器和注意力机制上,单独就此传统框架进行质的提升较为困难,所以许多新模型,如性能非常强悍的bert、gpt-2等模型均选择采用transformer解码器架构,并使用超大规模的数据集进行预训练;而针对仅能使用seq2seq的细分垂直领域任务而言,若能将已经完全成熟的有监督学习的分类任务作为端到端生成框架的辅助特征,理论上将带来相对稳定可控的性能提升。
[0003]
庭审提问是按照一定的诉讼流程和审判流程进行的,其中涉及到大量逻辑分支和取舍问题。如果单纯依靠端到端的文本生成技术,虽然可以获得语义通顺的问题或者对话,但是未必能够贴合真实的庭审流程和逻辑,且各个问题并没有很明确的指向。在某些细分领域已经拥有了详细的判案逻辑图或知识图,借助依赖预训练词向量的单词级别的文本分类技术,甚至是不需要依赖特定垂直领域的预训练词向量,直接构建词表的字符级别文本分类技术,可以较为准确地把生成任务的输入文本映射到逻辑图或知识图中,利用节点之间的顺序和逻辑关系提取出需要生成的问题的判案逻辑特征。在attention机制和拷贝/生成判断机制的辅助训练下,逻辑特征和原始文本结合将带来更贴合真实逻辑、指向性更明确的问题内容。


技术实现要素:

[0004]
本发明的目的是克服现有技术的不足,提供一种基于“指针-生成”seq2seq模型并结合额外特征的庭审质询性问题生成方法。
[0005]
本发明的发明构思是:从庭审笔录中获取语句和标签,构建庭审质询文本生成框架中辅助特征提取模块的训练样本;使用该样本进行训练,得到从句子映射到标签的字符级卷积神经网络模型即文本分类模型;使用上述模型对训练生成框架的输出文本进行逐句分类和信息精简;基于指针-生成器网络架构,构建并训练结合文本序列和标签特征的端到端seq2seq文本生成模型;通过输入文本,构建逻辑图树状结构并用分类结果激活和排除节点,获取生成辅助特征,最后进行端到端的庭审询问(即庭审质询中法官的询问问题)生成。
[0006]
为实现上述发明目的,本发明具体采用的技术方案如下:
[0007]
第一方面,本发明提供了一种基于指针-生成seq2seq模型的庭审询问生成方法,其包括如下步骤:
[0008]
s1:从庭审笔录中获取语句和标签,构建庭审质询文本生成框架中辅助特征提取模块的训练样本;
[0009]
s2:使用已经构建的训练样本进行训练,得到从句子映射到分类标签的字符级卷积神经网络模型,作为第一模型;
[0010]
s3:为了辅助生成任务,使用s2中训练的第一模型对输入文本进行逐句分类和信息精简;
[0011]
s4:基于指针-生成器网络架构,构建并训练结合文本序列和分类标签特征的端到端seq2seq文本生成模型,作为第二模型;
[0012]
s5:基于训练完成的第一模型和第二模型,由第一模型生成辅助的额外特征,再由第二模型结合输入文本和额外特征进行端到端的庭审质询性问题自动生成。
[0013]
在上述方案基础上,各步骤可以采用如下优选的具体方式实现。
[0014]
作为优选,所述s1的具体步骤包括:
[0015]
s101:从有层级标签的庭审笔录数据中获取用于自动要素标注的句子集合并表示为s={s1,s2,s3,...,s
n

},其中n

为句子集合中的句子样本数目,s
i

表示第i

个句子,i

∈{1,

,n

};
[0016]
s102:针对字符级别的句子分类模型,构建词汇表,且将每个单词解码成使用utf-8编码作为id,句子分类模型的标签共有m类,且使用one-hot编码表示;
[0017]
s103:对训练集句子集合s中的句子,利用填充操作,使句子具有相同的字符数c且字符具有相同的长度l,句子s
i

被表示为
[0018]
s104:获取句子集合s中每个语句对应的可训练标签y={y1,y2,

,y
n

},则句子s
i

的标签y
i

可以用一个m维向量表示为
[0019]
s105:对于文本特征提取而言,每个用来训练的语句训练样本被表示为二元组(s
i

,y
i

)。
[0020]
进一步的,所述s2的具体步骤包括:
[0021]
s201:构建用于文本分类的字符级卷积神经网络模型,其中首先使用一层一维卷积模块提取句子中字符级别的特征,再经过一维的最大池化层,从不同长度的句子文本中获得一个定长的k维向量l
i

表示句子中字符级别的特征;最后使用一层全连接层将特征向量l
i

映射为m维,使用softmax激活函数输出m类标签中每个句子类别的概率;
[0022]
s202:通过最小化交叉熵损失函数,对所述字符级卷积神经网络模型进行训练,作为第一模型。
[0023]
进一步的,所述s3的具体步骤包括:
[0024]
s301:获取用于训练生成任务的输入文本,包括:裁判文书集合r={r1,r2,r3,...,r
n
}和庭审笔录集合t={t1,t2,t3,...,t
n
},其中n为训练集中的案件数目,r
i
表示第i个案件的裁判文书,t
i
表示第i个案件的庭审笔录;庭审笔录t
i
为由n个句子组成的问题集合其中表示第i个案件的庭审笔录中第j个问题,i∈{1,

,n},
j∈{1,

,n};
[0025]
s302:把庭审笔录t
i
中的句子集合s

i
输入所述第一模型进行逐句分类,输出分类结果集合结果集合表示第j个问题句子的分类;对于同一庭审的问题集合s
i
当中类别相同的句子,计算与逻辑要素关联度最高的句子作为对应的训练输出,其余句子不输出,使第i个案件的庭审问题集合s

i
被精简为其中不确定量r为第i个案件庭审涉及到的逻辑要素总数即分类标签总数,对应逻辑要素集合为
[0026]
进一步的,所述s302中,句子与逻辑要素之间的关联度使用bm25文本相似度算法计算。
[0027]
进一步的,所述s4的具体步骤包括:
[0028]
s401:获取端到端生成任务的训练数据集,其中:对于训练过程而言,输入文本“原告诉称”和“被告辩称”是从裁判文书集合r={r1,r2,r3,...,r
n
}使用正则表达式匹配抽取的对应部分;辅助特征来自逻辑要素集合的对应部分;辅助特征来自逻辑要素集合对应于法官质询性问题的输出文本对应来自这些标签的文本集合用于训练生成模型的数据共有条,其中r
i
表示第i个案件对应的不确定量r;
[0029]
s402:把每个案件的输入文本分别与对应的逻辑要素拼接,得到组作为输入的词向量序列;利用单层双向lstm对拼接的文本上下文信息进行记忆,再利用双向lstm作为编码器,输入上下文处理后的信息序列,输出编码后的隐藏状态序列,实现基本的信息融合。
[0030]
s403:使用单层单向lstm作为解码器,对案件的输入文本编码后的隐藏状态序列做解码,使得神经网络在序列到序列框架下能够生成庭审质询性问题;其中:
[0031]
在解码器的每一个时间步t,计算解码器隐藏单元s
t
在输入文本上的注意力a
ij
;并通过加权的编码器隐藏状态计算上下文向量c
t
,其表示了与时间步t相关的源文本信息;
[0032]
结合解码器隐藏单元s
t
和上下文向量ct,计算时间步t的生成词概率分布p
vocab
=softmax(linear([s
t
,c
t
])),其中linear(
·
)表示线性层运算;利用“指针-生成器”机制解决oov问题,预测标量p
gen
代表从词表中生成的概率,对应的复制概率为1-p
gen
,并结合p
vocab
得到最终的生成结果概率:
[0033][0034]
其中:φ表示词w在输入文本中出现的位置的集合;表示时间步t中词i在输入文本上的注意力;p
vocab
(w)表示概率分布p
vocab
中生成词w的概率;
[0035]
s404:以s402中的编码器和s403中的解码器构建端到端seq2seq文本生成模型,通过最小化整体损失函数对其进行训练,得到第二模型;所述整体损失函数为:
[0036]
[0037]
其中:为待生成的目标序列中的第t个词,t是待生成的目标序列长度。
[0038]
进一步的,所述s5的具体步骤包括:
[0039]
s501:将诉讼请求逻辑图t
l
以树形结构存储;
[0040]
s502:获取原始文本记为t
origin
,该文本包括起诉书、答辩状、庭审当前已进行的历史对话;对原始文本t
origin
中的整段文字,利用标点符号匹配规则进行分句操作,得到输入句子集合s
input

[0041]
s503:将输入句子集合s
input
中的句子输入至s2中得到的第一模型中,获得输出结果的逻辑标签集合l
a

[0042]
s504:对逻辑图t
l
进行广度优先搜索,激活逻辑图上l
a
对应的所有节点;标记激活节点的兄弟节点以及激活节点的子节点,将标记的节点集合l
f
作为辅助后续文本生成的额外特征;
[0043]
s505:将原始文本t
origin
分别结合标记的节点集合l
f
输入s4中得到的第二模型中,模型的解码输出即为生成的庭审质询性问题。
[0044]
进一步的,所述诉讼请求逻辑图为以图表形式呈现的诉讼请求的判定逻辑,图中的节点node
i
包含自身的值、节点的激活逻辑以及子节点激活状态,所述节点代表事实要素,所述激活逻辑包括“与”和“或”两种;树形结构中的节点总数为c。
[0045]
第二方面,本发明提供了一种基于指针-生成seq2seq模型的庭审询问生成装置,其包括存储器和处理器;
[0046]
所述存储器,用于存储计算机程序;
[0047]
所述处理器,用于当执行所述计算机程序时,实现如第一方面中任一项方案所述的基于指针-生成seq2seq模型的庭审询问生成方法。
[0048]
第三方面,本发明提供了一种计算机可读存储介质,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现如第一方面中任一项方案所述的基于指针-生成seq2seq模型的庭审询问生成方法。
[0049]
本发明与背景技术相比,具有的有益的效果是:
[0050]
本发明针对具有专家知识的限定领域的案件庭审辅助任务,提出了一种基于“指针-生成”seq2seq模型并结合额外特征的庭审质询性问题生成方法。该方法从实际应用角度出发,主要局限性仅为依赖于限定领域的专家标注的少量庭审数据和判案流程知识图,对专家知识进行了充分的利用,也充分发挥了成熟的简单模型对于复杂任务的稳定辅助作用。基于本发明,在进行仅依赖于输入文本的端到端庭审提问生成任务时,能够兼顾判案逻辑的完善性和生成文本的指向性,更加贴近案件本身,而非单纯依赖模板生成。
附图说明
[0051]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
[0052]
图1是本发明实施例提供的一种基于“指针-生成”seq2seq模型并结合额外特征的庭审质询性问题生成方法流程图。
[0053]
图2是本发明实施例提供的模型架构以及流程图。
[0054]
图3是本发明实施例提供的诉讼逻辑图(该图仅展示了整图的局部,用于展示图的形式,图中文字可忽略)。
[0055]
图4是本发明实施例提供的生成样例展示与分析图表。
具体实施方式
[0056]
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0057]
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0058]
为了解决现有技术中存在的问题,本发明实施例提供了一种基于“指针-生成”seq2seq模型并结合额外特征的庭审质询性问题生成方法,该方法对法律文书以及庭审对话进行切割以获取输入语句集合;使用基于cnn(卷积神经网络)的文本分类模型,利用司法数据集——庭审笔录数据集对该文本集合进行标注,得到激活逻辑序列;将专家提供的诉讼请求判项逻辑图存储于合理的、可复用的数据结构,利用逻辑序列在逻辑图上进行匹配,得到待生成问题的要素逻辑图;将文本与逻辑利用lstm(长短期记忆网络)进行上下文信息记忆和序列信息融合,作为输入序列馈送至seq2seq生成模型。在文本生成模型的训练集获取上,本方法综合利用了bm25和余弦相似度等方法获取每场庭审中与各个逻辑节点最相关的数据作为训练标签,以达到最佳的训练效果。本发明可以基于不同案件的起诉与答辩文本乃至部分庭审对话记录,结合由专家提供的类案判案逻辑,生成可供参考和使用的庭审法官质询性问题,从而辅助法官判案,提升庭审智能化水平。
[0059]
如图1所示,在本发明的一个较佳实施例中,基于指针-生成seq2seq模型的庭审询问生成方法包括如下具体步骤:
[0060]
s1:从庭审笔录中获取语句和标签,构建庭审质询文本生成框架中辅助特征提取模块的训练样本;
[0061]
s2:使用已经构建的训练样本进行训练,得到从句子映射到分类标签(即逻辑节点)的字符级卷积神经网络模型,作为第一模型;
[0062]
s3:为了辅助生成任务,使用s2中训练的第一模型对输入文本进行逐句分类和信息精简,使庭审笔录中标签到语句的一对多银蛇被精简至一对一映射;
[0063]
s4:基于指针-生成器网络架构(即指针生成网络pointer-generator-network),构建并训练结合文本序列和分类标签特征的端到端seq2seq文本生成模型,作为第二模型;
[0064]
s5:基于训练完成的第一模型和第二模型,通过输入文本进行端到端的庭审询问
生成。此处,输入文本先在第一模型中进行分句和逻辑图标签映射,再利用原始输入文本结合待提问逻辑节点中的不同标签生成结果,即庭审询问问题。
[0065]
本发明的上述s1~s5的实现方法,在进行仅依赖于输入文本的端到端庭审提问生成任务时,能够兼顾判案逻辑的完善性和生成文本的指向性,更加贴近案件本身,而非单纯依赖模板生成。在本实施例中,上述各步骤可以通过以下具体方式实现。
[0066]
本实施例中,步骤s1的具体子步骤包括:
[0067]
s101:从有层级标签的庭审笔录数据中获取用于自动要素标注的句子集合并表示为s={s1,s2,s3,...,s
n

},其中n

为句子集合中的句子样本数目,s
i

表示第i

个句子,i

∈{1,

,n

};
[0068]
s102:针对字符级别的句子分类模型,构建词汇表,且将每个单词解码成使用utf-8编码作为id,句子分类模型的标签共有m类,且使用one-hot编码表示;
[0069]
s103:对训练集句子集合s中的句子,利用padding(填充)操作,使句子具有相同的字符数c且字符具有相同的长度l,句子s
i

被表示为
[0070]
s104:获取句子集合s中每个语句对应的可训练标签y={y1,y2,

,y
n

},则句子s
i

的标签y
i

可以用一个m维向量表示为
[0071]
s105:对于文本特征提取而言,每个用来训练的语句训练样本被表示为二元组(s
i

,y
i

),i∈{1,

,n},y
i
是句子s
i
对应的可训练标签。
[0072]
本实施例中,步骤s2的具体子步骤包括:
[0073]
s201:构建用于文本分类的字符级卷积神经网络模型,其中首先使用一层一维卷积模块提取句子中字符级别的特征。其中假设有离散输入离散核函数二者之间步长为d的卷积定义为:
[0074][0075]
其中偏移常数c=k-d+1。
[0076]
经过卷积模块提取后,再经过一维的最大池化层(max pooling),从不同长度的句子文本中获得一个定长的k维向量l
i

表示句子中字符级别的特征;最后使用一层全连接层将特征向量l
i

映射为m维,使用softmax激活函数输出m类标签中每个句子类别的概率;
[0077]
s202:通过最小化交叉熵损失函数,对所述字符级卷积神经网络模型进行训练,作为第一模型。
[0078]
本实施例中,步骤s3的具体子步骤包括:
[0079]
s301:获取用于训练生成任务的输入文本,包括:裁判文书集合r={r1,r2,r3,...,r
n
}和庭审笔录(提问)集合t={t1,t2,t3,...,t
n
},其中n为训练集中的案件数目,r
i
表示第i个案件的裁判文书,t
i
表示第i个案件的庭审笔录;庭审笔录t
i
为由n个句子组成的问题集合其中表示第i个案件的庭审笔录中第j个问题,i∈{1,

,n},j∈{1,

,n};
[0080]
s302:把庭审笔录t
i
中的句子集合s

i
输入所述第一模型进行逐句分类,输出分类结果集合结果集合表示第j个问题句子的分类;对于同一庭审的问题集合s
i
当中类别相同的句子,计算与逻辑要素关联度最高的句子作为对应的训练输出,其
余句子不输出,使第i个案件的庭审问题集合s

i
被精简为其中不确定量r为第i个案件庭审涉及到的逻辑要素总数即分类标签总数,对应逻辑要素集合为参数r的实际取值需要根据被精简掉的具体句子数量而定,每一个案件均可能不同,因此将其称为不确定量,参数r为统称,具体到第i个案件的参数r可以记做r
i

[0081]
在s302中,能够反映文本相似度的指标还有余弦相似度、结合idf的余弦相似度、jaccard系数等,而经过大量实验后,bm25相似度分数算法由于结果并非分布在0-1区间内,具有更好的区分度;且效果更贴近于基于关键词检索,而法律术语较为严谨,逻辑要素通常与实际口头表达出入不大,因此建议使用该算法基于关键词提取最相关语句,即句子与逻辑要素之间的关联度优选使用bm25文本相似度算法计算。bm25相似度分数由以下公式定义:
[0082][0083]
其中q表示query,q
i
表示q解析之后的一个语素。对于中文而言,可以把对query的分词作为语素分析,每个词看成语素q
i
;d表示一个搜索结果文档;w
i
表示语素q
i
的权重;r(q
i
,d)表示语素q
i
与文档d的相关性得分。
[0084]
但若更倾向于选择语义关联性强的问题作为训练问题,则建议在准备好细分垂直领域的预训练词向量的基础上使用余弦相似度方法实施此步骤。
[0085]
本实施例中,步骤s4的具体子步骤包括:
[0086]
s401:获取端到端生成任务的训练数据集,其中包括以下数据类型:对于训练过程而言,输入文本“原告诉称”和“被告辩称”是从裁判文书集合r={r1,r2,r3,...,r
n
}使用正则表达式匹配抽取的对应部分;辅助特征来自逻辑要素集合对应于法官质询性问题的输出文本对应来自这些标签的文本集合最终,用于训练生成模型的数据共有条,其中r
i
表示第i个案件对应的不确定量r。
[0087]
s402:把每个案件的输入文本分别与对应的逻辑要素拼接,得到组作为输入的词向量序列(即逻辑要素拼接过程中,对齐输出的训练问题共条)。再利用单层双向lstm对拼接的文本(词向量序列)上下文信息进行记忆,得到处理后的信息序列,再利用双向lstm作为编码器(encoder),输入上下文处理后的信息序列,输出编码后的隐藏状态序列,实现基本的信息融合。该编码器表达式如下,其中w
1-w6是一组共享权值:
[0088][0089]
s403:使用单层单向lstm作为解码器(decoder),对案件的输入文本编码后的隐藏
状态序列做解码,使得神经网络在序列到序列框架下能够生成庭审质询性问题。其中解码器中的具体解码过程如下:
[0090]
在解码器的每一个时间步t,计算解码器隐藏单元s
t
在输入文本上的注意力a
ii
;并通过加权的编码器隐藏状态计算上下文向量(context vector)c
t
,其表示了与时间步t相关的源文本信息;
[0091]
结合解码器隐藏单元s
t
和上下文向量c
t
,计算时间步t的生成词概率分布p
vocab
=sof tmax(linear([s
t
,c
t
])),其中linear(
·
)表示线性层运算;利用“指针-生成器”机制解决词表之外的词(out-of-vocabulary,oov)可能产生的问题,预测标量p
gen
代表从词表中生成的概率,对应的复制概率为1-p
gen
,并结合p
vocab
得到最终的生成结果概率:
[0092][0093]
其中:φ表示词w在输入文本中出现的位置的集合;表示时间步t中词i在输入文本上的注意力;p
vocab
(w)表示概率分布p
vocab
中生成词w的概率;
[0094]
上述以s402中的编码器和s403中的解码器,实际上构成了一个端到端seq2seq文本生成模型。在该构建模型中,含有注意力(attention)机制,即针对原文的概率分布预测法律文书中的词汇重要性。由于encoder中的隐藏状态序列为(h1,h2,...,h
t
),decoder的解码状态序列为(s1,s2,...,s
t
),假设当前解码状态为s
t-1
,计算每一个输入位置与当前输出位置的相关性,相关性u
t
使用求和方式表示如下:
[0095]
u
t
=v
t
tanh(w1h
i
+w2s
t
+b)
[0096]
其中向量v、两个权重w1、w2以及b均为学习参数;利用softmax将该相关性映射到标准分布空间,并利用此分布对encoder的隐藏状态做加权平均获得上下文向量c
t

[0097]
a
t
=softmax(u
t
)
[0098][0099]
另外,在该端到端seq2seq文本生成模型中,为避免重复生成(如在一句庭审询问中重复出现争议焦点),利用覆盖向量c
t
即先前所有预测attention分布之和,影响当前步骤的attention运算,即将前述的相关性u
t
公式进一步完善为:
[0100][0101]
再者,在该构建模型中加入“指针-生成器”机制该模型,是为了能够合理拷贝裁判文书和庭审记录中的人名等实体名称、涉案金额、相关日期等词表外词汇(oov)。生成概率p
gen
在该seq2seq模型中决定各个生成位置从词表生成或从源文本复制的概率(其中x
t
为解码器输入):
[0102][0103]
利用该概率分别对词表概率p
vocab
(w)和注意力分布进行加权,获取新的(扩展)词表概率分布:
[0104][0105]
该公式即对应于前述s403中的最终生成结果概率计算公式。
[0106]
s404:以s402中的编码器和s403中的解码器构建的端到端seq2seq文本生成模型,
通过最小化整体损失函数对其进行训练,得到第二模型。其中该整体损失函数在构建时,需从目标词出发,在训练过程中时间步长t内的损失loss
t
是目标词的损失。因此最终整个序列的整体损失函数定义为:
[0107][0108]
其中:为待生成的目标序列中的第t个词,t是待生成的目标序列长度。
[0109]
本发明的上述第一模型采用卷积神经网络模型,第二模型采用循环神经网络与注意力机制结合的序列生成模型。
[0110]
本实施例中,步骤s5的具体子步骤包括:
[0111]
s501:将法律专家以图表形式呈现的诉讼请求逻辑图t
l
以树形结构存储。
[0112]
所谓的诉讼请求逻辑图是以图表形式呈现的诉讼请求的判定逻辑,反映了法官判断原告的诉讼请求是否成立的逻辑,该图可以由法学专家进行绘制。树形结构中的节点总数为c,图中的节点node
i
包含自身的值、节点的激活逻辑以及子节点激活状态。每个节点代表事实要素,一个节点的激活状态由子节点的激活状态和该节点本身的激活方式决定;而激活逻辑包括“与”和“或”两种。当激活逻辑为“与”时,该节点的所有子节点均被激活时该节点才能被激活,当激活逻辑为“或”时,该节点的任意一个子节点被激活时该节点即可被激活。本实施例中设置的诉讼请求逻辑图参见图3所示,其中每个矩形代表一个逻辑要素,圆形代表激活逻辑为“或”,菱形代表激活逻辑为“与”。
[0113]
s502:获取待自动生成庭审质询性问题的原始文本,记为t
origin
,该文本包括起诉书、答辩状、庭审当前已进行的历史对话(庭审进行至某一时刻的历史对话);对原始文本t
origin
中的整段文字(常出现于起诉书和答辩状),利用标点符号匹配规则进行分句操作,得到输入句子集合s
input

[0114]
s503:将输入句子集合s
input
中的句子输入至s2中得到的第一模型中,获得输出结果的逻辑标签集合l
a
(消除重复元素)。
[0115]
s504:对逻辑图t
l
进行广度优先搜索,激活逻辑图上l
a
对应的所有节点;标记激活节点的兄弟节点以及激活节点的子节点,将标记的节点集合l
f
作为辅助后续文本生成的额外特征;
[0116]
s505:将原始文本t
origin
分别结合标记的节点集合l
f
输入s4中得到的第二模型中,模型的解码输出即为生成的庭审质询性问题。
[0117]
另外,在上述步骤s4中,输入前的双向lstm信息融合步骤在部分任务场景可以省略。其原因是一般而言用于生成的输入文本较为简短精炼,编码步骤中的单层双向lstm可以胜任信息表示的任务。但在特殊案例背景下,如输入文本较长,则建议增加一层双向lstm的预处理步骤以更好地表示长文本上下文信息。
[0118]
另外,在上述步骤s5中,当前逻辑图仅涉及民间借贷案件中的主要逻辑;同时,所述的方法中所提到的“文本”“数据集”均基于民间借贷案件。由于包含有监督学习模型,因此如需针对其他领域案件,则需要对应的数据集支持。
[0119]
在另一实施例中,本发明还提供了一种基于指针-生成seq2seq模型的庭审询问生成装置,其包括存储器和处理器;
[0120]
所述存储器,用于存储计算机程序;
[0121]
所述处理器,用于当执行所述计算机程序时,实现如前述s1~s5所述的基于指针-生成seq2seq模型的庭审询问生成方法。
[0122]
在另一实施例中,本发明还提供了一种计算机可读存储介质,其中存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现如前述s1~s5所述的基于指针-生成seq2seq模型的庭审询问生成方法。
[0123]
需要注意的是,存储器可以包括随机存取存储器(random access memory,ram),也可以包括非易失性存储器(non-volatile memory,nvm),例如至少一个磁盘存储器。上述的处理器可以是通用处理器,包括中央处理器(central processing unit,cpu)、网络处理器(network processor,np)等;还可以是数字信号处理器(digital signal processing,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。当然,还装置中还应当具有实现程序运行的必要组件,例如电源、通信总线等等。
[0124]
下面将上述庭审质询性问题生成方法应用于具体的民间借贷案件问题生成实施例中,进行生成测试。具体的步骤如s1-s5所述,不再赘述,主要展示其具体的参数以及技术效果。
[0125]
实施例
[0126]
为了验证本发明的效果,验证方法在庭审问题生成中的效果。
[0127]
按照前述s1~s5步骤的实现过程,首先获取可用于研究的真实庭审笔录及其对齐的层级标签数据,构建从语句到逻辑节点的文本分类器的训练样本。然后构造一个字符级卷积神经网络,送入庭审笔录和对应层级标签至该神经网络进行训练,得到第一模型,模型如图2部分所示。再对训练所需文本进行逐句分类,对庭审笔录中标签到语句的一对多映射精简至一对一映射,获取生成模型训练对。进而输入裁判文书中的核心内容原文拼接本案庭审的各个标签,以及这些标签对应的法官提问至第二模型,训练端到端的文本生成模型,模型如图2部分所示。最后,输入未处理的原始文本至第一模型进行分句和逻辑图标签(如图3所示)映射,再利用该原始文本结合待提问逻辑节点中的不同标签测试生成结果通顺性和差异性,如图4所示(为保护当事人隐私,人名做消隐处理)。为量化指标,选取约8万条测试集计算rouge和bleu分数,并与在cnn-每日邮报数据集(注:该数据集进行过实体识别与预处理)上测试的“指针-生成器”原始网络作对比如表1所示。
[0128]
表1生成效果量化评估图表
[0129][0130]
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1