客户流失预警方法、设备及介质与流程

文档序号:31023399发布日期:2022-08-05 22:07阅读:259来源:国知局
客户流失预警方法、设备及介质与流程

1.本发明属于数据处理技术领域,具体涉及客户流失预警方法、设备及介质。


背景技术:

2.对企业而言,客户流失被定义为客户放弃继续购买该企业的商品或服务的情况。客户的流失会对企业造成直接经济损失。随着市场竞争的激烈程度逐年增高,企业所面临的客户流失问题日益严重。造成企业客户流失的原因为“媒体粉尘化”,即用户获得品牌信息和产品反馈的渠道越来越碎片化,对产品认知的改变极可能在品牌企业无察觉的情况已经发生改变,造成过往的客户流失预警方法效果大不如前。媒体粉尘化和用户决策时间的变短,造成了两方面的问题。第一,参与预警模型的维度数据变得更加宽泛和稀疏;第二,样本数据存在媒体数据覆盖不全导致的质量下降。这样形成的横向数据稀疏、纵向数据质量下降需要新的预测模型来提高流失预测的准确度。
3.企业成功获取新客户所需要的成本远高于保留已有客户,这使得客户保留对于企业来说格外重要。保留现有客户的常用方法是准确识别出高流失倾向的客户,然后针对这些客户实施多样性的挽留策略。客户流失预测作为客户关系管理的重要组成部分,通过对客户的历史数据进行分析建模,旨在准确识别出高流失倾向的客户,为企业后续的客户挽留策略制定提供指导。
4.在过去数十年,客户流失预测已经在电信、银行、游戏以及音乐流媒体等不同领域内被广泛研究。学者通常把客户流失预测当作二分类数据挖掘任务处理,通过构造业务特征以及选择合适的分类器来预测客户未来流失与否。许多流行的机器学习模型和深度学习模型在客户流失预测中得到成功应用,如逻辑回归 (logistic regression,lr)、决策树(decision tree,dt)、支持向量机(support vectormachine,svm)、多层反馈神经网络(neural networks,nn)和卷积神经网络(convolutional neural networks,cnn)等。
5.与深度学习模型相比,传统机器学习模型存在特征工程对模型效果影响较大、模型容量小等缺点。目前客户流失预测任务中的模型集成方法的研究大多集中于传统机器学习模型方面,在深度学习模型集成方法方面的研究较少。
6.如中国专利201910399116.x公开了一种客户流失预警方法、系统、介质及电子设备。该方法包括:获取客户的历史信息数据,该历史信息数据包括基本属性数据、行为属性数据、业务属性数据及情感数据;清洗所述历史信息数据中的异常数据;分析不同客户的基本属性数据、行为属性数据及业务属性数据,构建客户流失预警模型;采用所述情感数据评价所述客户流失预警模型效果;通过所述客户流失预警模型预测出即将流失客户;采用rfm模型对即将流失客户进行分类,制定客户挽留策略。
7.此外,中国专利202110342928.8公开了一种电信行业集团客户流失的综合评估预警方法及系统,方法包括:定期采集集团客户和相应的集团成员的行为数据;由行为数据中统计不同维度的变量参数,并将变量参数输入至训练完成的综合评估预警模型中;根据综合评估预警模型的输出数据,判断得到对应维度下集团客户流失评估结果;将集团客户流
失评估结果超出预设阈值的集团流失预警清单下发至相应的客户经理。通过本发明的技术方案,能够提前预测可能会发生流失的客户并快速定位预警原因,从而及时有效地开展保有工作,降低客户流失的可能性,最终实现集团客户保有工作的闭环管理和效能提升。
8.但是,其均不能够有效地对客户的原始数据集中的进行关键特征类别进行筛选识别,选取关键特征数据进行后续的分类器深度学习强化,进而迭代优化出具有较高拟合度的客户流失率预测结果,到时预测结果不准确。


技术实现要素:

9.本发明针对上述缺陷,提供一种客户流失预警方法、设备及介质。本发明提出的客户流失预警方法的预测精度高、拟合能力强,能够有效的行业中的客户流失率,可以为客户流失的预测预警提供帮助。
10.本发明提供如下技术方案:客户流失预警方法,所述方法基于梯度提升决策树算法结合长短期记忆算法对数据进行处理,所述方法包括以下步骤:
11.s1、采集客户历史数据的原始数据集,采用梯度提升决策树算法预处理数据,选择客户特征数据;
12.s2、对预处理后的原始数据集进行优化,选择长短期记忆算法的最优化参数;
13.s3、采用长短期记忆算法以及所述s2步骤选择的最优化参数进行多层数据优化迭代,预测客户流失概率,对客户流失进行预警。
14.进一步地,所述s1步骤包括以下步骤:
15.s11、初始化客户历史数据的原始数据集在不同客户特征上的估计值,构建损失函数最小化的参数估计值计算模型,估计使得损失函数最小的参数:
16.s12、对每个客户特征的若干个样本计算损失函数的梯度值wn,将其作为残差值dn的估计,并以此为样本新的真实值d,得到回归树,估计回归树叶节点的区域,拟合残差近似值err(d,wn);
17.s13、计算拟合残差近似值的最佳拟合值,得到更新的回归树ηh(xn);
18.s14、计算每个客户特征的全局重要度,并判断是否大于该特征的选取阈值;若大于该特征的选取阈值,则选取该客户特征数据,若小于等于该特征的选取阈值,则不选取该客户特征数据,重复步骤s11-s13。
19.进一步地,所述客户特征包括:客户交易单笔金额、客户付费订阅天数、客户续费频率和客户交易订单服务种类。
20.进一步地,所述s11步骤构建的损失函数最小化的参数估计值如下:
[0021][0022]
其中,为损失函数参数估计值,k为客户历史数据的第k个客户特征,m
t
为与t节点相关联的客户特征,为t节点分裂产生的平方损失,j-1为非叶子节点数量,j为梯度提升决策树算法的决策树叶子节点数量。
[0023]
5、根据权利要求2所述的客户流失预警方法,其特征在于,所述拟合残差近似值的
最佳拟合值计算模型如下:
[0024][0025]
其中,m为迭代次数,ηh(xn)为更新得到的回归树。
[0026]
进一步地,所述客户历史数据存储于hadoop分布式文件系统中。
[0027]
进一步地,所述s3步骤包括以下步骤:
[0028]
s31、长短期记忆算法的遗忘门读取预处理后的原始数据集中上一个样本的输出量h
t-1
和当前样本的输入量x
t
,构建第σ层的遗忘门计算模型f
t
,输出0~1 之间的数值,决定从样本中丢弃的信息;
[0029]
s32、将s31步骤经过丢弃信息后的样本xe输入至输入门,构建第σ层的输入门计算模型i
t
,,根据输入门的计算结果xe构建输入门tanh层计算模型,计算得到t时刻的备选更新内容根据t-1时刻的记忆样本(细胞)值c
t-1
构建t 时刻记忆样本计算值c
t
计算模型,确定新的信息加入当前细胞的数据量;
[0030]
s33、将s32步骤得到的t时刻记忆样本计算值c
t
输入至输出门,构建第σ层的输出门计算模型o
t
,用于决定输出部分的样本(细胞)状态,构建输出门tanh 层计算模型,计算得到-1~1之间的t时刻的样本输出量h
t

[0031]
s34、重复步骤s31-s33,进行多层数据优化迭代,预测客户流失概率。
[0032]
进一步地,所述第σ层的遗忘门计算模型f
t
如下:
[0033]ft
=σ(wf×
[h
t-1
,x
t
]+b
t
)
[0034]
所述第σ层的输入门计算模型i
t
如下:
[0035]it
=σ(wi×
[h
t-1
,xe]+bi)
[0036]
所述t时刻的备选更新内容计算公式如下:
[0037][0038]
所述t时刻记忆样本计算值c
t
计算模型如下:
[0039][0040]
第σ层的输出门计算模型o
t
如下:
[0041]ot
=σ(wo×
[h
t-1
,x
t
]+bo)
[0042]
所述t时刻的样本输出量h
t
计算公式如下:
[0043]ht
=o
t
×
tanh(c
t
)
[0044]
其中,σ(
·
)为sigmoid函数,tanh(
·
)为双曲正切激活函;wf、wi、wc和wo分别为第σ层的遗忘门权重矩阵变量参数、第σ层的输入门权重矩阵变量参数、t 时刻备选更新内容权重矩阵变量参数和第σ层的输出门权重矩阵变量参数;bf、 bi、bc和bo分别为第σ层的遗忘门神经网络计算偏置量、第σ层的输入门神经网络计算偏置量、t时刻备选更新内容神经网络计算偏置量和第σ层的输出门神经网络计算偏置量;wf、wi、wc、wo、bf、bi、bc和bo均为s2步骤优化得到的参数。
[0045]
本发明还提供一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述客户流失预警方法的步骤。
[0046]
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述客户流失预警方法的步骤。
[0047]
本发明的有益效果为:
[0048]
1、本发明提供的方法首先通过改进梯度提升决策树算法(gbdt算法),提高了客户历史数据的原始数据集对于客户特征的分类效果,增加了不同客户特征数据之间的差异性,提升了模型集成效果,再采用长短期记忆算法(lstm算法) 作为基学习器,避免了复杂的特征工程,充分利用了时序特征。利用自适应增强算法和梯度提升树算法的融合提升模型在特征维度和样本权重处理的敏感度,结合长短期记忆算法以时序的角度可以更加敏感的获取流失意向。
[0049]
2、本发明提供的方法先对采集到的原始数据集进行gbdt特征选择,选出对购买汽车的客户有关键影响的特征因子,再对长短期记忆算法(lstm算法) 神经网络进行优化,自动寻找长短期记忆算法(lstm算法)最优参数对其进行调整,随后使用参数优化过的长短期记忆算法(lstm算法)神经网络模型对客户流失概率进行预测,最终得到预测结果。
[0050]
3、本发明提出的客户流失预警方法的预测精度高、拟合能力强、可用性高,能够有效的行业中的客户流失率,可以为客户流失的预测预警提供帮助,在实际客户实施中,有9%左右的预测准确率提升。
[0051]
4、本发明大幅提升样本参与计算的数据质量,通过自适应增强的迭代算法识别样本数据的噪音数据。
附图说明
[0052]
在下文中将基于实施例并参考附图来对本发明进行更详细的描述。其中:
[0053]
图1为本发明提供的客户流失预警方法流程示意图;
[0054]
图2为本发明提供的采用梯度提升决策树算法=预处理数据选择客户特征数据的流程示意图;
[0055]
图3为本发明提供的采用长短期记忆算法预测客户流失概率的流程示意图;
[0056]
图4为本发明提供的长短期记忆算法基本架构示意图;
[0057]
图5为本发明提供的采用客户流失预警方法的电子设备结构示意图。
具体实施方式
[0058]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0059]
实施例1
[0060]
如图1所示,为本发明提供的一种客户流失预警方法,方法基于梯度提升决策树算法(gbdt算法)结合长短期记忆算法(lstm算法)对数据进行处理,方法包括以下步骤:
[0061]
s1、采集客户历史数据的原始数据集,采用梯度提升决策树算法(gbdt算法)预处理数据,选择客户特征数据;
[0062]
s2、对预处理后的原始数据集进行优化,选择长短期记忆算法的最优化参数;
[0063]
s3、采用长短期记忆算法(lstm算法)以及s2步骤选择的最优化参数进行多层数据优化迭代,预测客户流失概率,对客户流失进行预警。
[0064]
实施例2
[0065]
在实施例1的基础上,本实施例提供一种客户流失预警方法,方法基于梯度提升决策树算法(gbdt算法)结合长短期记忆算法(lstm算法)对数据进行处理,方法包括以下步骤:
[0066]
s1、采集客户历史数据的原始数据集,采用梯度提升决策树算法(gbdt算法)预处理数据,选择客户特征数据;
[0067]
s2、对预处理后的原始数据集进行优化,选择长短期记忆算法的最优化参数;
[0068]
s3、采用长短期记忆算法(lstm算法)以及s2步骤选择的最优化参数进行多层数据优化迭代,预测客户流失概率,对客户流失进行预警。
[0069]
如图2所示,本实施例中的s1步骤包括以下步骤:
[0070]
s11、初始化客户历史数据的原始数据集在不同客户特征上的估计值,构建损失函数最小化的参数估计值计算模型,估计使得损失函数最小的参数,构建的损失函数最小化的参数估计值如下:
[0071][0072]
其中,为损失函数参数估计值,k为客户历史数据的第k个客户特征,m
t
为与t节点相关联的客户特征,为t节点分裂产生的平方损失,j-1为非叶子节点数量,j为梯度提升决策树算法的决策树叶子节点数量;
[0073]
s12、对每个客户特征的若干个样本计算损失函数的梯度值wn,将其作为残差值dn的估计,并以此为样本新的真实值d,得到回归树,估计回归树叶节点的区域,拟合残差近似值err(d,wn);
[0074]
s13、计算拟合残差近似值的最佳拟合值,拟合残差近似值的最佳拟合值计算模型如下:
[0075][0076]
其中,m为迭代次数,ηh(xn)为更新得到的回归树,wn为第n个样本的损失函数的梯度值;
[0077]
进而得到更新的回归树ηh(xn);
[0078]
s14、计算每个客户特征的全局重要度,并判断是否大于该特征的选取阈值;若大于该特征的选取阈值,则选取该客户特征数据,若小于等于该特征的选取阈值,则不选取该客户特征数据,重复步骤s11-s13。
[0079]
作为本发明的一个优选实施例,客户特征包括:客户交易单笔金额、客户付费订阅天数、客户续费频率和客户交易订单服务种类。
[0080]
实施例3
[0081]
在实施例1或实施例2的基础上,本发明提供的客户流失预警方法中的客户历史数据存储于hadoop分布式文件系统中。
[0082]
实施例4
[0083]
在实施例1或实施例2的基础上,如图3-图4所示,s3步骤包括以下步骤:
[0084]
s31、长短期记忆算法的遗忘门读取预处理后的原始数据集中上一个样本(即上一个细胞)的输出量h
t-1
和当前样本(细胞)的输入量x
t
,构建第σ层的遗忘门计算模型f
t
,输出0~1之间的数值,决定从样本中丢弃的信息;
[0085]
s32、将s31步骤经过丢弃信息后的样本xe输入至输入门,构建第σ层的输入门计算模型i
t
,σ层决定哪些信息需要更新,根据输入门的计算结果xe构建输入门tanh层计算模型,计算得到t时刻的备选更新内容根据t-1时刻的记忆样本(细胞)值c
t-1
构建t时刻记忆样本计算值c
t
计算模型,确定新的信息加入当前细胞的数据量,即将上个细胞的丢弃信息和当前细胞的更新信息相结合;
[0086]
s33、将s32步骤得到的t时刻记忆样本计算值c
t
输入至输出门,构建第σ层的输出门计算模型o
t
,用于决定输出部分的样本(细胞)状态,构建输出门tanh 层计算模型,计算得到-1~1之间的t时刻的样本输出量h
t

[0087]
s34、重复步骤s31-s33,进行多层数据优化迭代,预测客户流失概率。
[0088]
其中,第σ层的遗忘门计算模型f
t
如下:
[0089]ft
=σ(wf×
[h
t-1
,x
t
]+b
t
)
[0090]
第σ层的输入门计算模型i
t
如下:
[0091]it
=σ(wi×
[h
t-1
,xe]+bi)
[0092]
t时刻的备选更新内容计算公式如下:
[0093][0094]
t时刻记忆样本计算值c
t
计算模型如下:
[0095][0096]
第σ层的输出门计算模型o
t
如下:
[0097]ot
=σ(wo×
[h
t-1
,x
t
]+bo]
[0098]
t时刻的样本输出量h
t
计算公式如下:
[0099]ht
=o
t
×
tanh(c
t
)
[0100]
其中,σ(
·
)为sigmoid函数,tanh(
·
)为双曲正切激活函;wf、wi、wc和wo分别为第σ层的遗忘门权重矩阵变量参数、第σ层的输入门权重矩阵变量参数、t 时刻备选更新内容权重矩阵变量参数和第σ层的输出门权重矩阵变量参数;bf、 bi、bc和bo分别为第σ层的遗忘门神经网络计算偏置量、第σ层的输入门神经网络计算偏置量、t时刻备选更新内容神经网络计算偏置量和第σ层的输出门神经网络计算偏置量;wf、wi、wc、wo、bf、bi、bc和bo均为s2步骤优化得到的参数。
[0101]
本发明还提供一种采用上述客户流失预警方法的电子设备,参见图5,其示出了适于用来实现本公开实施例的电子设备100的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、 pda(个人数字助理)、pad(平板电脑)、pmp(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及
诸如数字tv、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
[0102]
如图5所示,电子设备100可以包括处理装置(例如中央处理器、图形处理器等)101,其可以根据存储在只读存储器(rom)102中的程序或者从存储装置108 加载到随机访问存储器(ram)103中的程序而执行各种适当的动作和处理。在 ram 103中,还存储有电子设备100操作所需的各种程序和数据。处理装置101、 rom 102以及ram 103通过总线104彼此相连。输入/输出(i/o)接口105也连接至总线104。
[0103]
通常,以下装置可以连接至i/o接口105:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置106;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置107;包括例如磁带、硬盘等的存储装置108;以及通信装置109。通信装置109可以允许电子设备100与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备 100,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
[0104]
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置109从网络上被下载和安装,或者从存储装置108被安装,或者从rom 102被安装。在该计算机程序被处理装置101执行时,执行本公开实施例的方法中限定的上述功能。
[0105]
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器 (ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
[0106]
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
[0107]
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括至少两个网际协议地址的节点评价请求,其中,节点评价设备从至少两个网际协议地址中,选
取网际协议地址并返回;接收节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
[0108]
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。
[0109]
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如java、 smalltalk、c++,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
[0110]
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和 /或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0111]
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
[0112]
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
[0113]
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
[0114]
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
[0115]
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
[0116]
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术
方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1