插件化模型部署方法、电子装置及计算机可读存储介质与流程

文档序号:17948810发布日期:2019-06-18 23:52阅读:156来源:国知局
插件化模型部署方法、电子装置及计算机可读存储介质与流程

本发明涉及风险评估模型技术领域,尤其涉及一种插件化模型部署方法、电子装置及计算机可读存储介质。



背景技术:

目前,在对业务公司进行风险监测时,一般是在服务端开发风险监测模型,将业务公司的业务数据同步至服务端,在服务端执行模型分析,得到分析结果。

但是,这种方式模型脚本固定,且需要依赖it人员的开发和更新,不够灵活。另外,有些公司因监管强制性要求,不能把特别敏感的业务数据同步至服务端,导致对这部分业务的监测不便。若是在业务公司执行模型分析,又可能出现脚本逻辑泄露的问题。



技术实现要素:

有鉴于此,本发明提出一种插件化模型部署方法、电子装置及计算机可读存储介质,以解决至少一个上述技术问题。

首先,为实现上述目的,本发明提出一种插件化模型部署方法,该方法包括步骤:

在服务器端建立需要在业务插件端远程执行的模型的模型脚本;

所述服务器端获取执行所述模型所需的非保密数据,并同步至所述业务插件端;

所述业务插件端获取执行所述模型所需的保密数据,所述保密数据是指所述业务插件端预设的不能泄露的敏感数据;

所述服务器端向所述业务插件端推送所述模型脚本;

所述业务插件端接收所述服务器端推送的所述模型脚本并将所述模型脚本加载至内存;及

所述业务插件端根据所述模型脚本运行所述模型,并根据所述保密数据和非保密数据进行模型分析。

可选地,该方法还包括步骤:

所述业务插件端反馈模型分析结果至风险监测中心,以使所述风险监测中心判断是否出现异常结果并进行处理。

可选地,该方法还包括步骤:

所述业务插件端在所述模型运行完毕时立即清理内存中的所述模型脚本。

可选地,所述建立模型脚本采用java平台调用脚本的设计,模型逻辑均写在python/r脚本中,java平台中不含任何逻辑,只负责调用脚本。

可选地,所述模型脚本采用插件化方式开发,以使不同的业务插件端根据需要进行模型部署。

此外,为实现上述目的,本发明还提供另一种插件化模型部署方法,应用于服务器端,该方法包括步骤:

在所述服务器端建立需要在业务插件端远程执行的模型的模型脚本;

获取执行所述模型所需的非保密数据,并同步至所述业务插件端;及

向所述业务插件端推送所述模型脚本,以使所述业务插件端根据所述模型脚本运行所述模型,进行模型分析。

进一步地,为实现上述目的,本发明还提供另一种插件化模型部署方法,应用于业务插件端,该方法包括步骤:

接收服务器端同步的执行模型所需的非保密数据;

获取执行所述模型所需的保密数据,所述保密数据是指所述业务插件端预设的不能泄露的敏感数据;

接收所述服务器端推送的所述模型的模型脚本并将所述模型脚本加载至内存;及

根据所述模型脚本运行所述模型,并根据所述保密数据和非保密数据进行模型分析。

可选地,该方法还包括步骤:

反馈模型分析结果至风险监测中心,以使所述风险监测中心判断是否出现异常结果并进行处理;

在所述模型运行完毕时立即清理内存中的所述模型脚本。

进一步地,为实现上述目的,本发明还提供一种电子装置,包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的插件化模型部署程序,所述插件化模型部署程序被所述处理器执行时实现如上述的插件化模型部署方法的步骤。

进一步地,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有插件化模型部署程序,所述插件化模型部署程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的插件化模型部署方法的步骤。

相较于现有技术,本发明所提出的插件化模型部署方法、电子装置及计算机可读存储介质,可以针对风险监测模型等需要远程执行的模型,分别部署服务器端和业务插件端,模型脚本存储在服务器端,当需要运行模型时,服务器端将脚本打包推送给业务插件端,业务插件端将脚本加载进内存后直接运行,运行完毕时立即清理内存中的脚本,避免逻辑泄漏,提高了安全性。并且,服务器端的模型脚本采用插件化方式进行开发,可以根据业务插件端的需要向服务器端请求相应的模型脚本,自动化部署模型,使用灵活,代码复用性强,且便于模型扩展和修改。另外,由于模型脚本的推送由服务器端管控(向哪个业务插件端推送、推送什么脚本、执行计划如何),实现了风险监测的高可控性。

附图说明

图1是本发明各个实施例一可选的应用环境示意图;

图2是本发明电子装置一可选的硬件架构的示意图;

图3是本发明插件化模型部署程序第一实施例的程序模块示意图;

图4是本发明插件化模型部署程序第二实施例的程序模块示意图;

图5是本发明插件化模型部署方法第一实施例的流程示意图;

图6是本发明插件化模型部署方法第二实施例的流程示意图;

图7是本发明插件化模型部署方法第三实施例的流程示意图;

本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。

参阅图1所示,是本发明各个实施例一可选的应用环境示意图。

在本实施例中,本发明可应用于包括,但不仅限于,服务器端1、业务插件端2、风险监测中心3、网络4的应用环境中。其中,所述服务器端1可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器等计算设备,该服务器端1可以是独立的服务器,也可以是多个服务器所组成的服务器集群。所述业务插件端2可以是服务器,也可以是pc(personalcomputer,个人电脑),也可以是智能手机、平板电脑、掌上电脑、便携计算机等终端设备。所述风险监测中心3可以是独立的服务器,也可以是多个服务器所组成的服务器集群。并且,所述风险监测中心3可以位于所述服务器端1或者其他装置中。所述网络4可以是企业内部网(intranet)、互联网(internet)、全球移动通讯系统(globalsystemofmobilecommunication,gsm)、宽带码分多址(widebandcodedivisionmultipleaccess,wcdma)、4g网络、5g网络、蓝牙(bluetooth)、wi-fi、通话网络等无线或有线网络。

其中,所述服务器端1和所述风险监测中心3通过所述网络4分别与一个或多个所述业务插件端2通信连接,以进行数据传输和交互。

参阅图2所示,是本发明电子装置10一可选的硬件架构的示意图。

本实施例中,所述电子装置10可以为上述服务器端1或业务插件端2。

所述电子装置10可包括,但不仅限于,可通过系统总线相互通信连接存储器11、处理器12、网络接口13。需要指出的是,图2仅示出了具有组件11-13的电子装置10,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。

所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,sd或dx存储器等)、随机访问存储器(ram)、静态随机访问存储器(sram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、可编程只读存储器(prom)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器11可以是所述电子装置10的内部存储单元,例如该电子装置10的硬盘或内存。在另一些实施例中,所述存储器11也可以是所述电子装置10的外部存储设备,例如该电子装置10上配备的插接式硬盘,智能存储卡(smartmediacard,smc),安全数字(securedigital,sd)卡,闪存卡(flashcard)等。当然,所述存储器11还可以既包括所述电子装置10的内部存储单元也包括其外部存储设备。本实施例中,所述存储器11通常用于存储安装于所述电子装置10的操作系统和各类应用软件,例如插件化模型部署程序200的程序代码等。此外,所述存储器11还可以用于暂时地存储已经输出或者将要输出的各类数据。

所述处理器12在一些实施例中可以是中央处理器(centralprocessingunit,cpu)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器12通常用于控制所述电子装置10的总体操作。本实施例中,所述处理器12用于运行所述存储器11中存储的程序代码或者处理数据,例如运行所述的插件化模型部署程序200等。

所述网络接口13可包括无线网络接口或有线网络接口,该网络接口13通常用于在所述电子装置10与其他电子设备之间建立通信连接。

至此,己经详细介绍了本发明各个实施例的应用环境和相关设备的硬件结构和功能。下面,将基于上述应用环境和相关设备,提出本发明的各个实施例。

首先,本发明提出一种插件化模型部署程序200。

参阅图3所示,是本发明插件化模型部署程序200第一实施例的程序模块图。

本实施例中,所述插件化模型部署程序200应用于上述服务器端1,即所述电子装置10为服务器端1。

所述插件化模型部署程序200包括一系列的存储于存储器11上的计算机程序指令,当该计算机程序指令被处理器12执行时,可以实现本发明各实施例的插件化模型部署操作。在一些实施例中,基于该计算机程序指令各部分所实现的特定的操作,插件化模型部署程序200可以被划分为一个或多个模块。例如,在图3中,所述插件化模型部署程序200可以被分割成建立模块201、第一获取模块202、推送模块203。其中:

所述建立模块201,用于在服务器端1建立需要在业务插件端2远程执行的模型的模型脚本。

具体地,在服务器端1开发模型脚本,以进行模型的建立、部署、更新、监控、数据排查等。整体采用java平台调用脚本的设计,模型逻辑均写在python/r脚本里,java平台中不含任何逻辑,只负责调用脚本,避免脚本逻辑的泄漏,并为后续的更新提供极大的便利性。所述模型脚本的开发采用插件化方式,以便不同的业务插件端根据需要进行模型部署。而且每个插件可以独立进行更新和修改,且可以多次使用,代码复用性强,避免重复开发。

在本实施例中,所述模型为风险监测模型,用于集团对专业公司进行风险监测。

所述第一获取模块202,用于获取执行所述模型所需的非保密数据,并同步至业务插件端2。

具体地,针对执行模型所需要的各种数据,不涉及业务插件端2需要保密的,可以由服务器端1通过外部接口进行获取,例如从万德系统获取万德数据,或者从人事数据平台获取人事数据,保存至服务器端1的数据库中。然后,服务器端1将数据库中的非保密数据(例如万德数据和人事数据)同步至业务插件端2的独立数据库中,以使业务插件端2在执行模型时使用。

所述推送模块203,用于向业务插件端2推送模型脚本,以使业务插件端2根据所述模型脚本运行模型,进行模型分析。

具体地,当需要对业务插件端2进行风险监测时,由业务插件端2向服务器端1发送推送模型脚本的请求,或者由服务器端1主动向业务插件端推送模型脚本。由于所述模型脚本是插件化的方式开发的,因此每个业务插件端2可以根据自身业务特征等请求所需的模型脚本(或者服务器端1向不同的业务插件端2推送与之相应的不同的模型脚本),实现模型的灵活和自动化部署。服务器端1将模型脚本打包推送给业务插件端2,业务插件端2将脚本加载进内存(但不在磁盘上存储)后,直接根据所述独立数据库中的数据运行模型,得到分析结果。所述分析结果同步至该业务插件端2的所述独立数据库和应用数据库。

业务插件端2在根据所述风险监测模型得到分析结果后,还需要将分析结果反馈至风险监测中心3,以便风险监测中心3判断是否出现异常结果并采取相应处理措施。风险监测中心3接收到业务插件端2反馈的分析结果后,判断其中是否存在异常结果(即该业务插件端2是否存在风险)。当存在异常结果时,需要通过预设方式将异常结果推送至相应人员(例如业务插件端2的专业人员)或装置(例如智能风险核查装置)进行核查,并接收反馈的核查结果,从而准确定位和处理异常。

另外,业务插件端2在模型运行完毕时要立即清理内存中的脚本,避免逻辑泄漏。

本实施例提供的插件化模型部署程序,可以针对风险监测模型等需要远程执行的模型,分别部署服务器端1和业务插件端2,模型脚本存储在服务器端1,当需要运行模型时,服务器端1将脚本打包推送给业务插件端2,业务插件端2将脚本加载进内存后直接运行,运行完毕时立即清理内存中的脚本,避免逻辑泄漏,提高了安全性。并且,服务器端1的模型脚本采用插件化方式进行开发,可以根据业务插件端2的需要向服务器端1请求相应的模型脚本,自动化部署模型,使用灵活,代码复用性强,且便于模型扩展和修改。另外,由于模型脚本的推送由服务器端1管控(向哪个业务插件端2推送、推送什么脚本、执行计划如何),实现了风险监测的高可控性。

参阅图4所示,是本发明插件化模型部署程序200第二实施例的程序模块图。

本实施例中,所述插件化模型部署程序200应用于上述业务插件端2,即所述电子装置10为业务插件端2。

所述插件化模型部署程序200包括一系列的存储于存储器11上的计算机程序指令,当该计算机程序指令被处理器12执行时,可以实现本发明各实施例的插件化模型部署操作。在一些实施例中,基于该计算机程序指令各部分所实现的特定的操作,插件化模型部署程序200可以被划分为一个或多个模块。例如,在图4中,所述插件化模型部署程序200可以被分割成接收模块204、第二获取模块205、分析模块206、反馈模块207、清理模块208。其中:

所述接收模块204,用于接收服务器端1同步的执行模型所需的非保密数据。

具体地,针对执行模型所需要的各种数据,不涉及业务插件端2需要保密的,可以由服务器端1通过外部接口进行获取,例如从万德系统获取万德数据,或者从人事数据平台获取人事数据,保存至服务器端1的数据库中。然后,服务器端1将数据库中的非保密数据(例如万德数据和人事数据)同步至业务插件端2,业务插件端2的接收模块204接收所述非保密数据后,保存至业务插件端2的独立数据库中,以在执行模型时使用。

所述第二获取模块205,用于获取执行所述模型所需的保密数据。

具体地,所述保密数据是指所述业务插件端2预设的不能泄露的敏感数据。针对业务插件端2需要保密的数据,例如交易数据,可以由业务插件端2直接获取,保存至该业务插件端2的独立数据库中,不需要同步至服务器端1,以避免敏感数据泄露。

所述接收模块204还用于接收服务器端1推送的模型脚本并加载至内存。

具体地,当需要对业务插件端2进行风险监测时,由业务插件端2向服务器端1发送推送模型脚本的请求,或者由服务器端1主动向业务插件端2推送模型脚本。由于所述模型脚本是插件化的方式开发的,因此每个业务插件端2可以根据自身业务特征等请求所需的模型脚本(或者服务器端1向不同的业务插件端2推送与之相应的不同的模型脚本),实现模型的灵活和自动化部署。服务器端1将模型脚本打包推送给业务插件端2,业务插件端2接收所述模型脚本,并将脚本加载进内存(但不在磁盘上存储)。

所述分析模块206,用于根据所述模型脚本运行模型,并根据所述保密数据和非保密数据进行模型分析。

具体地,业务插件端2将脚本加载进内存后,直接根据所述独立数据库中的数据运行模型,得到分析结果。所述分析结果同步至该业务插件端2的所述独立数据库和应用数据库。

所述反馈模块207,用于反馈模型分析结果至风险监测中心3。

具体地,在根据所述风险监测模型得到分析结果后,所述业务插件端2还需要将分析结果反馈至风险监测中心3,以便风险监测中心3判断是否出现异常结果并采取相应处理措施。风险监测中心3接收到业务插件端2反馈的分析结果后,判断其中是否存在异常结果(即该业务插件端2是否存在风险)。当存在异常结果时,需要通过预设方式将异常结果推送至相应人员(例如业务插件端2的专业人员)或装置(例如智能风险核查装置)进行核查,并接收反馈的核查结果,从而准确定位和处理异常。

所述清理模块208,用于清理内存中的模型脚本。

具体地,业务插件端2在模型运行完毕时要立即清理内存中的脚本,避免逻辑泄漏。

本实施例提供的插件化模型部署程序,可以针对风险监测模型等需要远程执行的模型,分别部署服务器端1和业务插件端2,模型脚本存储在服务器端1,当需要运行模型时,服务器端1将脚本打包推送给业务插件端2,业务插件端2将脚本加载进内存后直接运行,运行完毕时立即清理内存中的脚本,避免逻辑泄漏,提高了安全性。并且,服务器端1的模型脚本采用插件化方式进行开发,可以根据业务插件端2的需要向服务器端1请求相应的模型脚本,自动化部署模型,使用灵活,代码复用性强,且便于模型扩展和修改。另外,由于模型脚本的推送由服务器端1管控(向哪个业务插件端2推送、推送什么脚本、执行计划如何),实现了风险监测的高可控性。

此外,本发明还提出一种插件化模型部署方法。

参阅图5所示,是本发明插件化模型部署方法第一实施例的流程示意图。在本实施例中,根据不同的需求,图5所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。该方法包括:

步骤s500,在服务器端1建立需要在业务插件端2远程执行的模型的模型脚本。

具体地,在服务器端1开发模型脚本,以进行模型的建立、部署、更新、监控、数据排查等。整体采用java平台调用脚本的设计,模型逻辑均写在python/r脚本中,java平台中不含任何逻辑,只负责调用脚本,避免脚本逻辑的泄漏,并为后续的更新提供极大的便利性。所述模型脚本的开发采用插件化方式,以便不同的业务插件端根据需要进行模型部署。而且每个插件可以独立进行更新和修改,且可以多次使用,代码复用性强,避免重复开发。

在本实施例中,所述模型为风险监测模型,用于集团对专业公司进行风险监测。

步骤s502,服务器端1获取执行所述模型所需的非保密数据,并同步至业务插件端2。

具体地,针对执行模型所需要的各种数据,不涉及业务插件端2需要保密的,可以由服务器端1通过外部接口进行获取,例如从万德系统获取万德数据,或者从人事数据平台获取人事数据,保存至服务器端1的数据库中。然后,服务器端1将数据库中的非保密数据(例如万德数据和人事数据)同步至业务插件端2的独立数据库中,以使业务插件端2在执行模型时使用。

步骤s504,业务插件端2获取执行所述模型所需的保密数据。

具体地,所述保密数据是指所述业务插件端2预设的不能泄露的敏感数据。针对业务插件端2需要保密的数据,例如交易数据,可以由业务插件端2直接获取,保存至该业务插件端2的独立数据库中,不需要同步至服务器端1,以避免敏感数据泄露。

步骤s506,服务器端1向业务插件端2推送模型脚本。

具体地,当需要对业务插件端2进行风险监测时,由业务插件端2向服务器端1发送推送模型脚本的请求,或者由服务器端1主动向业务插件端推送模型脚本。由于所述模型脚本是插件化的方式开发的,因此每个业务插件端2可以根据自身业务特征等请求所需的模型脚本(或者服务器端1向不同的业务插件端2推送与之相应的不同的模型脚本),实现模型的灵活和自动化部署。服务器端1将模型脚本打包推送给业务插件端2。

步骤s508,业务插件端2接收服务器端1推送的模型脚本并加载至内存。

具体地,当服务器端1将模型脚本打包推送给业务插件端2后,业务插件端2接收所述模型脚本,并将脚本加载进内存(但不在磁盘上存储)。

步骤s510,业务插件端2根据所述模型脚本运行模型,并根据所述保密数据和非保密数据进行模型分析。

具体地,业务插件端2将脚本加载进内存后,直接根据所述独立数据库中的数据运行模型,得到分析结果。所述分析结果同步至该业务插件端2的所述独立数据库和应用数据库。

可选地,该方法还可以包括:

步骤s512,业务插件端2反馈模型分析结果至风险监测中心3。

具体地,在根据所述风险监测模型得到分析结果后,所述业务插件端2还需要将分析结果反馈至风险监测中心3,以便风险监测中心3判断是否出现异常结果并采取相应处理措施。风险监测中心3接收到业务插件端2反馈的分析结果后,判断其中是否存在异常结果(即该业务插件端2是否存在风险)。当存在异常结果时,需要通过预设方式将异常结果推送至相应人员(例如业务插件端2的专业人员)或装置(例如智能风险核查装置)进行核查,并接收反馈的核查结果,从而准确定位和处理异常。

步骤s514,业务插件端2清理内存中的模型脚本。

具体地,业务插件端2在模型运行完毕时要立即清理内存中的脚本,避免逻辑泄漏。

本实施例提供的插件化模型部署方法,可以针对风险监测模型等需要远程执行的模型,分别部署服务器端1和业务插件端2,模型脚本存储在服务器端1,当需要运行模型时,服务器端1将脚本打包推送给业务插件端2,业务插件端2将脚本加载进内存后直接运行,运行完毕时立即清理内存中的脚本,避免逻辑泄漏,提高了安全性。并且,服务器端1的模型脚本采用插件化方式进行开发,可以根据业务插件端2的需要向服务器端1请求相应的模型脚本,自动化部署模型,使用灵活,代码复用性强,且便于模型扩展和修改。另外,由于模型脚本的推送由服务器端1管控(向哪个业务插件端2推送、推送什么脚本、执行计划如何),实现了风险监测的高可控性。

如图6所示,是本发明插件化模型部署方法的第二实施例的流程示意图。本实施例中,所述插件化模型部署方法应用于上述服务器端1。根据不同的需求,图6所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。

该方法包括以下步骤:

步骤s600,在服务器端1建立需要在业务插件端2远程执行的模型的模型脚本。

具体地,在服务器端1开发模型脚本,以进行模型的建立、部署、更新、监控、数据排查等。整体采用java平台调用脚本的设计,模型逻辑均写在python/r脚本里,java平台中不含任何逻辑,只负责调用脚本,避免脚本逻辑的泄漏,并为后续的更新提供极大的便利性。所述模型脚本的开发采用插件化方式,以便不同的业务插件端根据需要进行模型部署。而且每个插件可以独立进行更新和修改,且可以多次使用,代码复用性强,避免重复开发。

在本实施例中,所述模型为风险监测模型,用于集团对专业公司进行风险监测。

步骤s602,获取执行所述模型所需的非保密数据,并同步至业务插件端2。

具体地,针对执行模型所需要的各种数据,不涉及业务插件端2需要保密的,可以由服务器端1通过外部接口进行获取,例如从万德系统获取万德数据,或者从人事数据平台获取人事数据,保存至服务器端1的数据库中。然后,服务器端1将数据库中的非保密数据(例如万德数据和人事数据)同步至业务插件端2的独立数据库中,以使业务插件端2在执行模型时使用。

步骤s604,向业务插件端2推送模型脚本,以使业务插件端2根据所述模型脚本运行模型,进行模型分析。

具体地,当需要对业务插件端2进行风险监测时,由业务插件端2向服务器端1发送推送模型脚本的请求,或者由服务器端1主动向业务插件端推送模型脚本。由于所述模型脚本是插件化的方式开发的,因此每个业务插件端2可以根据自身业务特征等请求所需的模型脚本(或者服务器端1向不同的业务插件端2推送与之相应的不同的模型脚本),实现模型的灵活和自动化部署。服务器端1将模型脚本打包推送给业务插件端2,业务插件端2将脚本加载进内存(但不在磁盘上存储)后,直接根据所述独立数据库中的数据运行模型,得到分析结果。所述分析结果同步至该业务插件端2的所述独立数据库和应用数据库。

业务插件端2在根据所述风险监测模型得到分析结果后,还需要将分析结果反馈至风险监测中心3,以便风险监测中心3判断是否出现异常结果并采取相应处理措施。风险监测中心3接收到业务插件端2反馈的分析结果后,判断其中是否存在异常结果(即该业务插件端2是否存在风险)。当存在异常结果时,需要通过预设方式将异常结果推送至相应人员(例如业务插件端2的专业人员)或装置(例如智能风险核查装置)进行核查,并接收反馈的核查结果,从而准确定位和处理异常。

另外,业务插件端2在模型运行完毕时要立即清理内存中的脚本,避免逻辑泄漏。

本实施例提供的插件化模型部署方法,可以针对风险监测模型等需要远程执行的模型,分别部署服务器端1和业务插件端2,模型脚本存储在服务器端1,当需要运行模型时,服务器端1将脚本打包推送给业务插件端2,业务插件端2将脚本加载进内存后直接运行,运行完毕时立即清理内存中的脚本,避免逻辑泄漏,提高了安全性。并且,服务器端1的模型脚本采用插件化方式进行开发,可以根据业务插件端2的需要向服务器端1请求相应的模型脚本,自动化部署模型,使用灵活,代码复用性强,且便于模型扩展和修改。另外,由于模型脚本的推送由服务器端1管控(向哪个业务插件端2推送、推送什么脚本、执行计划如何),实现了风险监测的高可控性。

如图7所示,是本发明插件化模型部署方法的第三实施例的流程示意图。本实施例中,所述插件化模型部署方法应用于上述业务插件端2。根据不同的需求,图7所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。

该方法包括以下步骤:

步骤s700,接收服务器端1同步的执行模型所需的非保密数据。

具体地,针对执行模型所需要的各种数据,不涉及业务插件端2需要保密的,可以由服务器端1通过外部接口进行获取,例如从万德系统获取万德数据,或者从人事数据平台获取人事数据,保存至服务器端1的数据库中。然后,服务器端1将数据库中的非保密数据(例如万德数据和人事数据)同步至业务插件端2,业务插件端2的接收模块204接收所述非保密数据后,保存至业务插件端2的独立数据库中,以在执行模型时使用。

步骤s702,获取执行所述模型所需的保密数据。

具体地,所述保密数据是指所述业务插件端2预设的不能泄露的敏感数据。针对业务插件端2需要保密的数据,例如交易数据,可以由业务插件端2直接获取,保存至该业务插件端2的独立数据库中,不需要同步至服务器端1,以避免敏感数据泄露。

步骤s704,接收服务器端1推送的模型脚本并加载至内存。

具体地,当需要对业务插件端2进行风险监测时,由业务插件端2向服务器端1发送推送模型脚本的请求,或者由服务器端1主动向业务插件端2推送模型脚本。由于所述模型脚本是插件化的方式开发的,因此每个业务插件端2可以根据自身业务特征等请求所需的模型脚本(或者服务器端1向不同的业务插件端2推送与之相应的不同的模型脚本),实现模型的灵活和自动化部署。服务器端1将模型脚本打包推送给业务插件端2,业务插件端2接收所述模型脚本,并将脚本加载进内存(但不在磁盘上存储)。

步骤s706,根据所述模型脚本运行模型,并根据所述保密数据和非保密数据进行模型分析。

具体地,业务插件端2将脚本加载进内存后,直接根据所述独立数据库中的数据运行模型,得到分析结果。所述分析结果同步至该业务插件端2的所述独立数据库和应用数据库。

可选地,该方法还可以包括:

步骤s708,反馈模型分析结果至风险监测中心3。

具体地,在根据所述风险监测模型得到分析结果后,所述业务插件端2还需要将分析结果反馈至风险监测中心3,以便风险监测中心3判断是否出现异常结果并采取相应处理措施。风险监测中心3接收到业务插件端2反馈的分析结果后,判断其中是否存在异常结果(即该业务插件端2是否存在风险)。当存在异常结果时,需要通过预设方式将异常结果推送至相应人员(例如业务插件端2的专业人员)或装置(例如智能风险核查装置)进行核查,并接收反馈的核查结果,从而准确定位和处理异常。

步骤s710,清理内存中的模型脚本。

具体地,业务插件端2在模型运行完毕时要立即清理内存中的脚本,避免逻辑泄漏。

本实施例提供的插件化模型部署方法,可以针对风险监测模型等需要远程执行的模型,分别部署服务器端1和业务插件端2,模型脚本存储在服务器端1,当需要运行模型时,服务器端1将脚本打包推送给业务插件端2,业务插件端2将脚本加载进内存后直接运行,运行完毕时立即清理内存中的脚本,避免逻辑泄漏,提高了安全性。并且,服务器端1的模型脚本采用插件化方式进行开发,可以根据业务插件端2的需要向服务器端1请求相应的模型脚本,自动化部署模型,使用灵活,代码复用性强,且便于模型扩展和修改。另外,由于模型脚本的推送由服务器端1管控(向哪个业务插件端2推送、推送什么脚本、执行计划如何),实现了风险监测的高可控性。

本发明还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有插件化模型部署程序,所述插件化模型部署程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的插件化模型部署方法的步骤。

上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。

以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1