基于数据分析的产品数据预测方法、装置、计算机设备与流程

文档序号:17776494发布日期:2019-05-28 20:15阅读:191来源:国知局
基于数据分析的产品数据预测方法、装置、计算机设备与流程

本发明涉及智能决策技术领域,尤其涉及一种基于数据分析的产品数据预测方法、装置、计算机设备及存储介质。



背景技术:

保险理赔是指在保险标的发生保险事故而使被保险人财产受到损失或人身生命受到损害时,或保单约定的其它保险事故出现而需要给付保险金时,保险公司根据合同规定,履行赔偿或给付责任的行为,是直接体现保险职能和履行保险责任的工作。保险理赔流程从案件受理、账单录入、理赔审核、理赔抽检、理赔通知、理赔协商等分成不同的理赔流程岗位节点,每个理赔流程岗位节点是根据业务员的操作权限来定义的。

目前,保险理赔申请通常有多种通道,比如电话、应用程序、微信通道、网站等,这些通道都大大方便客户去报案,目前这些通道都具备记录功能,不具备分析客户行为的性质、客户表情、语言中的情绪等功能,也无法进一步利用这些信息。



技术实现要素:

本发明提供一种基于数据分析的产品数据预测方法、装置、计算机设备及存储介质,基于报案人的面部表情信息、语音情绪信息和记录的信息预测保险理赔预测结果,提高保险理赔的预测准确性。

一种基于数据分析的产品数据预测方法,包括:

获取报案人在保险理赔案件的视频录像,并从所述视频录像中识别出所述报案人的面部表情信息;

将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息;

将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。

一种基于数据分析的产品数据预测装置,包括:

识别模块,用于获取报案人在保险理赔案件的视频录像,并从所述视频录像中识别出所述报案人的面部表情信息;

转换模块,用于将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息;

预测模块,用于将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。

一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于数据分析的产品数据预测方法的步骤。

一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于数据分析的产品数据预测方法的步骤。

上述基于数据分析的产品数据预测方法、装置、计算机设备及存储介质,与目前通过记录的报案人的申报保险理赔信息预测报案人的保险理赔结果相比,本发明实施例对理赔环节的客户接触信息收集的更加全面,即通过从视频录像中获取报案人的面部表情信息、语音情绪信息,并将获取的面部表情信息、语音情绪信息和记录的信息输入至由保险理赔结果预测模型中,得到报案人的保险理赔预测结果,从而提高了保险理赔的预测结果,进而增强风险防范能力,发现潜在骗保行为,减少公司损失。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明一实施例中基于数据分析的产品数据预测方法的一应用环境示意图;

图2是本发明一实施例中基于数据分析的产品数据预测方法的一流程图;

图3是本发明一实施例图1中步骤s101的详细流程图;

图4是本发明一实施例中基于数据分析的产品数据预测方法的一流程图;

图5是本发明一实施例中基于数据分析的产品数据预测装置的一原理框图;

图6是本发明一实施例中计算机设备的一示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本申请提供的基于数据分析的产品数据预测方法,可应用在如图1的应用环境中,其中,计算机设备通过网络与服务器进行通信。报案人通过计算机设备进行报案,即通过该计算机设备的摄像装置拍摄保险理赔案件的视频录像,然后将拍摄的视频录像发送给服务器,使得服务器在获取到该视频录像后,从视频录像中识别出所述报案人的面部表情信息;将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息;最后将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。其中,计算机设备可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。

以下具体介绍本申请提供的一种基于数据分析的产品数据预测方法的实施例,如图2所示,为本申请实施例提供的一种基于数据分析的产品数据预测方法的流程图,包括以下步骤:

s101,获取报案人在保险理赔案件的视频录像,并从所述视频录像中识别出所述报案人的面部表情信息。

本发明实施例中,在所有的报案环境,若是语音报案,均对语音内容进行录音;若是在视频报案的场景中,则对视频均会进行录像保存,以便在后续步骤中从音频或是视频中提取报案人的面部表情信息及语音情绪信息。

本发明实施例通过微表情识别技术,识别视频录像中人脸信息和情绪变化,并抽取视频录像中人脸的多种微表情、多种面部动作单元,以及眨眼频率、表情对称程度等多种高阶特征。其中,微表情具体可以为忧郁、哀伤、憎恨、烦恼、厌恶、警惕、生气等,本发明实施例不做具体限定。

在本发明提供的一个实施例中,如图3所示,步骤s101:从所述视频录像中识别出所述报案人的面部表情信息,包括:

s1011,从所述视频录像中提取所述报案人的面部运动特征。

具体的,本发明实施例首先将视频录像按照预置时间间隔划分成一个个图像,然后根据图像灰度信息采用灰度投影的方法初步定位出面部的眼睛、口部的大致位置,最后基于初步定位的面部眼睛、口部的大致位置,使用带有面部运动单元信息的成分特征提取报案人的面部运动特征。

在本发明提供的一个实施例中,在从视频录像中提取报案人的面部运动特征之前,本实施例还需要对视频录像的真伪性进行识别鉴定,具体可通过获取视频录像中的人脸信息进行识别鉴定方式,和/或视频属性信息进行识别鉴定,本发明实施例不做具体限定。例如,首先通过从视频录像中获取人脸信息,然后将获取的人脸信息与报案人上传的身份信息进行图像比对,若比对成功,则可确定视频录像为真实的,其中身份信息具体可以为报案人的身份证扫描件,通过进行图片识别可获取身份证中的人脸信息。

s1012,将所述面部运动特征输入至面部表情识别模型,得到所述报案人的面部表情信息。

在本发明实施例中,在将所述面部运动特征输入至面部表情识别模型,得到所述报案人的面部表情信息之前,需要根据样本数据训练得到面部表情识别模型。具体的,首先获取第一预置比例的正例样本数据及第二预置比例的负例样本数据;然后对所述第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到所述面部表情识别模型。其中,第一预置比例和第二预置比例具体可以根据实际需求进行设置,但是第一预置比例和第二预置比例的和为1,如第一预置比例为40%,第二预置比例为60%。需要说明的是,本发明实施例首先对样本视频切分成视频片段,然后对各视频片段进行特征提取,即提取视频片段中的微表情和微动作,最后将抽取的微表情和微动作组成数据集,并从该数据集中抽取第一预置比例的正例样本数据及第二预置比例的负例样本数据。

更进一步的,本发明实施例提供了一种更为准确的面部表情识别模型,通过对从不同时间段的视频片段中提取的特征进行训练,得到多个子模型,并对多个子模型进行融合,从而得到识别效果更为准确的面部表情识别模型。具体的,对所述第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到所述面部表情识别模型,包括:

对第一预置时间段内的第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到第一子模型;

对第二预置时间段内的第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到第二子模型;

对第三预置时间段内的第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到第三子模型;

对所述第一子模型、所述第一子模型及所述第三子模型进行融合,得到所述面部表情识别模型。

其中,第一预置时间段、第二预置时间段和第三预置时间段可以根据实际需求进行设置,如第一预置时间段设置为0-3秒,第二预置时间段设置为3-7秒,第三预置时间段设置为7秒以上。

例如,对样本视频按照三种不同的时间间隔切分成多个视频片段,即分别按照0-3秒切分方式切分成多个视频片段,3-7秒切分方式切分成多个视频片段,7秒以上切分方式切分成多个视频片段,然后对各视频片段进行特征提取,即提取视频片段中的微表情和微动作,然后从以上三种切割方式的得到微表情和微动作中分别抽取第一预置比例的正例样本数据及第二预置比例的负例样本数据,并对抽取的样本数据分别进行训练,得到第一子模型、第二子模型和第三子模型,最后对所述第一子模型、所述第一子模型及所述第三子模型进行融合,得到所述面部表情识别模型。

本发明实施例融合了人脸识别、图像处理、模型训练等技术,并通过三种模型融合的得到的面部表情识别视频录像中报案人的面部表情信息,提高了面部表情信息识别的准确率,进而提高后续预测保险理赔结果的准确率,增强风险防范能力。

s102,将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息。

具体的,对所有的录音、录像进行声音转化为文本数据,并从文本数据中识别出报案人的语音情绪信息,如分析出愤怒焦虑、幸福或满足等情绪,心情、态度的细微差别,本发明实施例不做具体限定。

需要说明的是,本实施例具体可以根据文本情绪识别模型,对文本数据进行识别,得到报案人的语言情绪信息。其中,文本情绪识别模型的训练过程为:对训练文本进行分词操作,以获取训练文本的分词集合,并依据分词集合获取训练文本相应的特征向量。由于经过预处理后的训练文本中不仅包括情绪类别,还有相应的分词词语,故可以依据分词词语获得相应情绪下训练文本的特征向量,并依据情绪类别以及特征向量训练文本情绪识别模型。

在采用文本情绪识别模型对文本数据进行情绪识别时前,需要对文本数据依据分词集合获取训练文本相应的特征向量,然后将获取的特征向量输入至文本情绪识别模型得到报案人的语音情绪信息。

s103,将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。

其中,记录的信息通常包含报案、立案、审批、赔付等阶段的数据,以及经办人、系统触发的规则、客户提交的资料、人工核赔处理(如处理人、核赔结果)、赔付的原因(依据哪些条款、客户对应的证据材料)、赔付的金额等,也包含更多过程性因素。例如,在赔付阶段可以包括理赔账单数据、保单数据等;理赔账单数据包括:医疗机构和个人信息、理赔案件状态信息、用户理赔的国际疾病分类信息、治疗类型信息、事故类型信息等;保单数据包括:保单险种信息、保单类型信息、保单投保金额信息、保单责任明细信息等;保单责任明细信息包括:责任明细标识、赔付比例、赔付范围、赔付限额、赔付条件等。

需要说明的是,本发明实施例在通过保险理赔结果预测模型预测报案人的保险理赔结果之前,还需要收集保险理赔案件的样本数据,所述样本数据中包括报案人的面部表情信息、语音情绪信息、记录的信息、理赔处理信息,以及对应的保险理赔标签,其中保险理赔标签具体可以为保险理赔分数,保险理赔分数越高,表示该理赔案件造假的可能性愈低;对所述样本数据进行训练,得到所述保险理赔结果预测模型。当新的保险理赔案件报案时,将报案人的面部表情信息、语音情绪信息,记录的信息输入到该保险理赔结果预测模型,可得到理赔案件的保险理赔分数,即报案人的保险理赔预测结果。

例如,刚接到保险理赔报案的时候,只知道客户是谁,时间地点人物,发生了什么,要报什么案,所以说知道少量信息,这时候的对结果的预测的范围会非常大(比如赔付金额的上下限),但最终赔付金额在这个范围的比例非常高(超过90%),置信度较低;随着案件的推进,获得的信息也会增多,对结果的预测也会越准;到了审批阶段,预测的结果就会非常准(95%,波动的范围也会非常小)。

本发明实施例提供了一种基于数据分析的产品数据预测方法,首先从报案人的视频录像中识别出报案人的面部表情信息,然后将视频录像中的音频数据转换为文本数据,并从文本数据中识别出报案人的语音情绪信息,最后将报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到报案人的保险理赔预测结果。与目前通过记录的报案人的申报保险理赔信息预测报案人的保险理赔结果相比,本发明实施例对理赔环节的客户接触信息收集的更加全面,即通过从视频录像中获取报案人的面部表情信息、语音情绪信息,并将获取的面部表情信息、语音情绪信息和记录的信息输入至由保险理赔结果预测模型中,得到报案人的保险理赔预测结果,从而提高了保险理赔的预测结果,进而增强风险防范能力,发现潜在骗保行为,减少公司损失。

本申请提供的另一种基于数据分析的产品数据预测方法的实施例,图4为本申请实施例提供的一种基于数据分析的产品数据预测方法的流程图,本方法包括以下步骤:

s201,获取报案人在保险理赔案件的视频录像,并从所述视频录像中识别出所述报案人的面部表情信息。

s202,将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息。

需要说明的是,步骤s201和步骤s202可参照步骤s101和步骤s102的相关描述,本发明实施例在此不再赘述。

s203,通过学习历史保险理赔案件,对所述报案人的面部表情信息、语音情绪信息,以及记录的信息进行聚类分析,得到所述报案人所属的理赔案件类别。

在本发明实施例中,通过对历史保险理赔案件进行聚类分析,可将历史保险理赔案件划分成多个聚簇,每个聚簇代表一个类型的保险理赔案件。当接收到报案人申报的保险理赔案件时,可以通过k-means聚类算法对报案人的面部表情信息、语音情绪信息,以及记录的信息进行聚类分析,得到报案人申报案件所属的聚簇,即报案人申报案件所属的类型。

其中,k-means算法是基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。对于本发明实施例,报案人申报的案件与某一个聚簇内的案件相似度越高,申报的案件与该簇内案件类型的相似度可能性越高,通常学习历史保险理赔案件,可将申报的保险理赔案件划分成不同的类型,便于在后续步骤中准确的预测出报案人的保险理赔结果。

s204,将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至与所述理赔案件类别对应的保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。

其中,不同理赔案件类别对应的保险理赔结果预测模型由其对应理赔案件类别的数据训练得到。需要说明的是,由于不同的保险理赔案件类别对应不同的数据,因此本发明实施例在进行聚类算法分析的过程中,可将保险理赔案件划分不同类别的簇,如车险理赔案件为一个簇、财险理赔案件为一个簇、人身险理赔案件为一个簇、意外险理赔案件为一个簇,本发明实施例不做具体限定。

在本发明实施例中,不同类别的保险理赔结果预测模型由其对应类别的样本数据训练得到,如车险理赔案件的保险理赔结果预测模型由车险理赔案件的样本数据训练得到,人身险理赔案件的保险理赔结果预测模型由人身险理赔案件的样本数据训练得到。通过不同类别的保险理赔数据训练得到对应类别的保险理赔结果预测模型,可准确预测出输入至该类别保险理赔记过预测模型案件的保险理赔预测结果,从而提高了保险理赔的预测结果。

本发明实施例提供了另一种基于数据分析的产品数据预测方法,首先从报案人的视频录像中识别出报案人的面部表情信息,然后将视频录像中的音频数据转换为文本数据,并从文本数据中识别出报案人的语音情绪信息,通过学习历史保险理赔案件,对报案人的面部表情信息、语音情绪信息,以及记录的信息进行聚类分析,得到报案人所属的理赔案件类别;最后将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至与所述理赔案件类别对应的保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。由于本发明实施例通过聚类分析确定报案人所属的理赔案件类别,并通过报案人所属的理赔案件类别对应的保险理赔结果预测模型预测报案人的保险理赔结果,从而通过本发明实施例可提高保险理赔结果的预测准确度。

应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。

在一实施例中,提供一种基于数据分析的产品数据预测装置,该基于数据分析的产品数据预测装置与上述实施例中基于数据分析的产品数据预测方法一一对应。如图5所示,该基于数据分析的产品数据预测装置包括识别模块10、转换模块20和预测模块30。各功能模块详细说明如下:

识别模块10,用于获取报案人在保险理赔案件的视频录像,并从所述视频录像中识别出所述报案人的面部表情信息;

转换模块20,用于将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息;

预测模块30,用于将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。

进一步地,所述装置还包括:

收集模块40,用于收集保险理赔案件的样本数据,所述样本数据中包括报案人的面部表情信息、语音情绪信息,记录的信息以及理赔处理信息;

训练模块50,用于对所述样本数据进行训练,得到所述保险理赔结果预测模型。

具体的,所述识别模块10包括:

提取单元11,用于从所述视频录像中提取所述报案人的面部运动特征;

识别单元12,用于将所述面部运动特征输入至面部表情识别模型,得到所述报案人的面部表情信息。

进一步地,所述装置还包括:

获取模块60,用于获取第一预置比例的正例样本数据及第二预置比例的负例样本数据;

所述训练模块50,还用于对所述第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到所述面部表情识别模型。

所述训练模块50,具体用于:

对第一预置时间段内的第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到第一子模型;

对第二预置时间段内的第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到第二子模型;

对第三预置时间段内的第一预置比例的正例样本数据及所述第二预置比例的负例样本数据进行训练,得到第三子模型;

对所述第一子模型、所述第一子模型及所述第三子模型进行融合,得到所述面部表情识别模型。

进一步地,所述装置还包括:

聚类模块70,用于通过学习历史保险理赔案件,对所述报案人的面部表情信息、语音情绪信息,以及记录的信息进行聚类分析,得到所述报案人所属的理赔案件类别;

所述预测模块30,具体用于将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至与所述理赔案件类别对应的保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果,不同理赔案件类别对应的保险理赔结果预测模型由其对应理赔案件类别的数据训练得到。

关于基于数据分析的产品数据预测装置的具体限定可以参见上文中对于基于数据分析的产品数据预测方法的限定,在此不再赘述。上述基于数据分析的产品数据预测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。

在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种基于数据分析的产品数据预测方法。

在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:

获取报案人在保险理赔案件的视频录像,并从所述视频录像中识别出所述报案人的面部表情信息;

将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息;

将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。

在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:

获取报案人在保险理赔案件的视频录像,并从所述视频录像中识别出所述报案人的面部表情信息;

将所述视频录像中的音频数据转换为文本数据,并从所述文本数据中识别出所述报案人的语音情绪信息;

将所述报案人的面部表情信息、语音情绪信息,以及记录的信息输入至保险理赔结果预测模型中,得到所述报案人的保险理赔预测结果。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。

以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1