一种异常订单实时风控方法与流程

文档序号:35960799发布日期:2023-11-08 22:59阅读:36来源:国知局
本发明涉及互联网领域,特别是涉及一种异常订单实时风控方法。
背景技术
::1、随着互联网技术呈现高速发展的态势,一方面对人们的日常生活产生深远的影响,另一方面也促进着电商行业的快速发展。电商行业离不开支付业务,但支付业务都是伴随着支付风险的。如客户本身是具有征信问题、客户短时间内多次下单等不正常行为操作都是判断异常订单的因素。在支付过程中需要对这些风险因素进行判断,及时阻止异常订单的进程来防止业务受到经济损失。但这个过程需要在极短的时间内完成,否则很影响用户体验,也就是我们常说的“事中风控”。因此,异常订单的实时风险控制是很有必要的。2、虽然flink cdc能够很好的保证数据源的时效性和准确性,但还是会存在binlog采集过程中数据丢失的情况。现有专利有很多关于实时风控的描述:3、专利cn202211494108-一种基于flink的用户风控管理方法、装置及设备,涉及一种基于flink的用户风控管理方法、装置及设备,主要基于flink的用户风控管理方法包括:基于flink框架根据商城app用户操作日志获取与用户浏览页面信息相关的实时统计指标、并将其存储至数据库中;根据所述实时统计指标获取用户风控变量;风控模型服务单元根据所述用户风控变量计算得到用户风控模型打分结果;风控规则与风控引擎服务单元根据所述用户风控模型打分结果生成用户风控判断结果。该方案可解决目前金融产品领域无法对新用户进行有效金融风控的问题,方案的数据链路比较完整,本质上是埋点流量数据在flink实时风控方向的应用。涉及到flink技术中的窗口函数、实时技术中常用的数据库hbase或redis。但是涉及到有关业务库表如mysql、oracle等风控需求,需要处理的数据因不能实时查询业务库表,所以无法像埋点数据直接可以实时获取到。4、专利cn202110691329-数据实时监控方法、装置、设备及存储介质涉及数据分析领域,公开了一种数据实时监控方法、装置、设备及存储介质。所述方法包括:创建生产环境与实时计算平台之间的消息传输通道,并通过所述消息传输通道接收所述生产环境产生的实时数据;对所述实时数据进行预处理,得到预警监控维度的聚合数据;对所述聚合数据进行多层逻辑运算,得到预警监控指标数据;实时监测所述预警监控指标数据是否满足预置预警条件,若满足,则向所述预警条件对应的预警对象发送预警消息。本发明能基于实时计算技术,实时监控业务场景中的数据,从而提高平台运行的安全性及稳定性。使用flinksql技术,为了加快计算速度,采用cache+hbase作为二级缓存来保证热数据被快速查询。但该专利只用了内存+hbase的方式缓存热数据,一方面,内存的大小有限,可能无法满足实时任务的需求而导致频繁的查询hbase造成性能问题,另一方面,当任务重启后,缓存在内存中的信息失效,需要重新从hbase中读取,在实时数据量巨大的情况下,会导致任务前期数据处理速度慢。5、专利cn202110152635-一种大数据金融资产实时估值方法、装置及可读介质和cn202211262481-一种金融资产交易数据处理方法、系统及可读介质两篇专利均是使用flink cdc作为实时数据源,并利用离线任务来保障数据的准确性。两篇专利都是只用redis作为临时数据存放的数据库。但对于数据量较大的场景,redis不论是在容量还是安全性上有所欠缺。6、因此,需要一种能确保异常订单实时指标计算的准确性和时效性的风控方法。技术实现思路1、本发明所要解决的技术问题是克服现有技术的不足,提供一种能确保异常订单实时指标计算的准确性和时效性的风控方法。2、为解决上述技术问题,本发明提供一种异常订单实时风控方法,其特征在于,包括以下步骤:3、步骤1:明确所需要用到的业务库表,利用flink cdc技术将需要的业务库数据初始化同步至相应的hbase中,利用hbase存放业务库快照数据,所述业务库快照数据作为实时计算的一个数据源,并向相应的业务库表的topic中发送变更数据,所述变更数据作为实时计算的另一个数据源,用以实现flink双流join;4、步骤2:在flink任务初始化时,加载存放在mysql中的风控判定规则,存放在内存中,在flink任务中创建临时表,所述临时表的数据源为kafka和hbase,所述数据源采用双流join处理接入,根据内存中加载的风控判定规则,利用流表和维表之间的关联关系和table api计算预设的风控指标,实时任务依次从cache、redis和hbase中查找数据结果,并将查找的数据结果写入缺失该数据的数据库中,将计算结果发送到topic中;5、步骤3:离线任务同步t+1业务库数据至步骤1的hbase业务数据快照数据中,每天增量同步,用以防止步骤1中flink cdc实时同步数据源时同步错误;6、步骤4:离线任务依据t+1数据源计算当天异常订单预警指标,同步至步骤2的hbase风控明细表中。7、所述步骤1中,flink cdc在初始化的时候全量同步业务库数据至hbase,后续实时同步变更数据至hbase,作为实时计算的一个数据源;同时将flink cdc实时采集到的业务库变更后的快照数据发送至相应业务表的topic中作为实时计算的另一个数据源,用以实现flink双流join。8、所述步骤2中,所述双流join包括数据源中订单表和商品明细表的join,将订单表和商品明细表的数据实时同步至hbase,利用flink table api的kafka connector和hbaseconnector分别创建kafka数据的订单临时表和hbase数据的商品明细临时表,当订单表有数据发至kafka时,实时任务触发kafka订单临时表的kafka数据与hbase商品明细表临时表的hbase数据进行join;若此时商品明细数据延迟,kafka订单临时表和hbase商品明细临时表关联不上,则join失败,再次设置一个实时流:创建kafka数据的商品明细临时表和hbase数据的订单临时表;用商品明细临时表中的kafka数据与订单临时表的hbase数据进行join,当延迟的商品明细表数据到达kafka后,kafka数据的商品明细临时表和hbase订单临时表会触发关联,此时hbase订单临时表中的数据是完整的,订单表和商品明细表两表数据可以关联上,将两个join的结果合并union,得到订单表和商品明细表的关联结果。9、所述步骤2中,所述计算预设的风控指标的包括:根据流表和维表之间的关联关系,获取该用户在交易时刻的交易金额明细,以用户id、交易时间拼成hbase的主键,写入hbase风控明细表中,根据预设的风控规则,利用hbase中的scan命令在hbase风控明细表中查询该用户的交易金额明细后汇总,将交易金额明细的汇总结果与预设的风控阈值做对比,得出异常订单作为实时预警的风控指标。10、所述步骤2中,所述scan命令具体为scan.withstartrow和scan.withstoprow方法。11、所述步骤2中,用于异常订单预警的风控指标计算拆分到具体的时间粒度,所述时间粒度包括月、天和小时,所述hbase结果表的rowkey设置成买家编号和精确到时间粒度的日期组成。12、所述步骤2中,内存cache的数据失效期为半小时,redis的数据失效期为一小时。13、本发明所达到的有益效果:能够快速,准确对异常订单进行预警。基于flink cdc实时捕捉业务库数据变化,避免实时任务直连业务库。涉及到历史数据的计算,采用hbase存放快照数据,能够在flink table api中直接使用hbase数据源,最后通过离线任务用t+1数据来修复hbase快照表数据与结果数据。从而获取实时、稳定的风控结果。14、本发明采用大数据的流式计算和分布式计算两种能力架构设计,确保异常订单实时指标计算的准确性和时效性。实时方面采用flink cdc实时同步业务库数据至hbase,同时向相应topic写入业务库数据,触发下游flink任务实时计算异常订单预警指标,计算时kafka数据和hbase数据进行双流join来避免延迟的数据,将计算结果发送到相应topic中。使用t+1离线任务重新同步业务库数据至hbase和计算t+1异常订单预警指标来修正之前实时计算的结果,保证业务库数据同步与指标计算结果的准确性。因实时计算结果多是统计类的指标,数据量有限,对hbase的压力不大。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1