概率分布函数训练方法、服务激励处理方法、装置及设备与流程

文档序号:22739567发布日期:2020-10-31 09:21阅读:143来源:国知局
概率分布函数训练方法、服务激励处理方法、装置及设备与流程

本申请涉及互联网技术领域,特别涉及一种概率分布函数训练方法、服务激励处理方法、装置及设备。



背景技术:

随着互联网时代的快速发展,网约车的出现,不仅极大方便了人们的出行,更从某种程度上缓解了城市日常交通压力,提供了个性化用车服务。而为了实现业务目标的最大化,网约车服务平台会进行一些激励活动以鼓励网约车司机,并在活动开始前对司机在活动期间的完单提升情况进行预估。

现有的预估方式,一般是使用常规机器学习或深度学习方法,在个体维度预测司机在无激励活动,和不同激励活动下的完单数量,再依据差分响应建模预测不同激励活动下的完单提升数量。

但现有的预估方式,由于个体维度的完单数据比较稀疏,且因个体表现差异较大,根据个体维度特征预测司机完单数量不够准确。



技术实现要素:

本申请的目的在于,针对上述现有技术中的不足,提供一种概率分布函数训练方法、服务激励处理方法、装置及设备,可以解决现有技术中根据个体维度特征预测服务方完单数量不够准确的技术问题。

为实现上述目的,本申请实施例采用的技术方案如下:

第一方面,本申请实施例提供了一种概率分布函数训练方法,包括:

获取多个训练样本,其中,所述训练样本包括激励设置参数、服务方所属服务层级及不同激励设置参数下服务方的完单数量;

根据多个所述训练样本和预设完单数量,计算各所述训练样本的完单提升数量;

根据各所述训练样本完单提升数量和服务方所属服务层级,计算各服务层级下所述训练样本的不同完单数提升的概率;

根据各服务层级下所述训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数。

可选地,上述根据各服务层级下所述训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数,包括:

根据各服务层级下所述训练样本的不同完单数提升的概率和所述预设函数,计算获取各服务层级下预设函数中的激励估计设置函数,所述预设函数包括激励设置参数、激励估计设置函数、以及完单提升变量;

根据各服务层级下的所述预设函数和所述激励估计设置函数,训练获取各服务层级对应的概率分布函数。

可选地,上述根据各服务层级下所述训练样本的不同完单数提升的概率和所述预设函数,计算获取各服务层级下预设函数中的激励估计设置函数,包括:

根据预设拟合算法,获取各服务层级下各所述训练样本根据所述预设函数计算的不同完单数提升的估计概率与各服务层级下各所述训练样本的不同完单数提升的概率满足预设拟合条件时,所述预设函数中的激励估计设置函数。

可选地,上述激励估计设置函数包括至少两个,每个所述激励估计设置函数包括所述激励设置参数,所述计算获取各服务层级下预设函数中的激励估计设置函数,包括:

根据多个所述训练样本,训练获取多任务模型;

根据所述多任务模型,拟合获取各所述激励估计设置函数中所述激励设置参数的系数;

根据各所述激励设置参数和所述激励设置参数的系数,获取各所述激励估计设置函数。

可选地,上述激励设置参数包括下述一种或多种的组合:激励活动的开始时间和结束时间、激励活动期间内的城市参数、激励内容、激励内容下的完单要求。

第二方面,本申请实施例提供了一种服务激励处理方法,包括:

获取目标服务方的服务数据,所述服务数据包括:激励设置参数、服务层级;

根据所述服务数据、以及概率分布函数,计算获取所述目标服务方的期望提升完单数。

可选地,上述根据所述服务数据、以及概率分布函数,计算获取所述目标服务方的期望提升完单数之后,还包括:

根据所述概率分布函数,获取所述目标服务方的期望提升完单数最大时,对应的激励设置参数。

第三方面,本申请实施例提供了一种概率分布函数训练装置,包括:第一获取模块、第一计算模块、第二计算模块及训练获取模块;

所述第一获取模块,用于获取多个训练样本,其中,所述训练样本包括激励设置参数、服务方所属服务层级及不同激励设置参数下服务方的完单数量;

所述第一计算模块,用于根据多个所述训练样本和预设完单数量,计算各所述训练样本的完单提升数量;

所述第二计算模块,用于根据各所述训练样本完单提升数量和服务方所属服务层级,计算各服务层级下所述训练样本的不同完单数提升的概率;

所述训练获取模块,用于根据各服务层级下所述训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数。

可选地,上述训练获取模块,具体用于根据各服务层级下所述训练样本的不同完单数提升的概率和所述预设函数,计算获取各服务层级下预设函数中的激励估计设置函数,所述预设函数包括激励设置参数、激励估计设置函数、以及完单提升变量;

根据各服务层级下的所述预设函数和所述激励估计设置函数,训练获取各服务层级对应的概率分布函数。

可选地,上述训练获取模块,具体用于根据预设拟合算法,获取各服务层级下各所述训练样本根据所述预设函数计算的不同完单数提升的估计概率与各服务层级下各所述训练样本的不同完单数提升的概率满足预设拟合条件时,所述预设函数中的激励估计设置函数。

可选地,激励估计设置函数包括至少两个,每个所述激励估计设置函数包括所述激励设置参数,上述训练获取模块,具体用于根据多个所述训练样本,训练获取多任务模型;

根据所述多任务模型,拟合获取各所述激励估计设置函数中所述激励设置参数的系数;

根据各所述激励设置参数和所述激励设置参数的系数,获取各所述激励估计设置函数。

可选地,上述激励设置参数包括下述一种或多种的组合:激励活动的开始时间和结束时间、激励活动期间内的城市参数、激励内容、激励内容下的完单要求。

第四方面,本申请实施例提供了一种服务激励处理装置,包括:第二获取模块和第三计算模块;

所述第二获取模块,用于获取目标服务方的服务数据,所述服务数据包括:激励设置参数、服务层级;

所述第三计算模块;用于根据所述服务数据、以及概率分布函数,计算获取所述目标服务方的期望提升完单数。

可选地,上述装置还包括:第三获取模块,用于根据所述概率分布函数,获取所述目标服务方的期望提升完单数最大时,对应的激励设置参数。

第五方面,本申请实施例提供了一种电子设备,包括:处理器、存储介质和总线,存储介质存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储介质之间通过总线通信,处理器执行机器可读指令,以执行上述第一方面或第二方面方法的步骤。

第六方面,本申请实施例提供了一种存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述第一方面或第二方面方法的步骤。

本申请的有益效果是:

本申请所提供的概率分布函数训练方法、服务激励处理方法、装置及设备中,该训练方法通过获取多个训练样本,其中,训练样本包括激励设置参数、服务方所属服务层级及不同激励设置参数下服务方的完单数量;根据多个训练样本和预设完单数量,计算各训练样本的完单提升数量,进而根据各训练样本完单提升数量和用户所属服务层级,可以计算各服务层级下训练样本的不同完单数提升的概率,使得根据各服务层级下训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数时,由于基于各服务层级下的训练样本,因此,克服了现有技术中个体维度的完单数据比较稀疏的技术问题,且获取的是各服务层级下训练样本的不同完单数提升的概率为真实概率,根据该真实概率和预设函数训练获取的各服务层级对应的概率分布函数用于获取某激励设置参数下服务方的期望提升完单数时,可以更为准确。

此外,还需要说明的是,在同一服务层级下,采用本申请提供的概率分布函数拟合不同完单提升的概率时,其对应的累计概率分布可以保证服务方在不同完单提升下的累计概率为1,更符合实际情况。

附图说明

为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1为本申请实施例提供的一种概率分布函数训练方法的流程示意图;

图2为本申请实施例提供的另一种概率分布函数训练方法的流程示意图;

图3为本申请实施例提供的又一种概率分布函数训练方法的流程示意图;

图4为本申请实施例提供的一种根据概率分布函数获取的拟合概率和真实概率的对比示意图;

图5为本申请实施例提供的一种服务激励处理方法的流程示意图;

图6为本申请实施例提供的一种概率分布函数训练装置的结构示意图;

图7为本申请实施例提供的一种服务激励处理装置的结构示意图;

图8为本申请实施例提供的一种电子设备结构示意图。

具体实施方式

为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。

因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

本申请在此以网约车服务场景为例进行说明,即服务方为司机时,现有的,获取某激励活动下服务方的期望提升完单数一般采用以下的方式,若假设,当个体司机受到奖励活动激励时,在不同的激励设置(比如,完单要求,奖励金额)下会有不同的完单表现,且相对无激励的情况会有完单数量的提升,即在不同的激励设置下,司机完单提升数量会不同;司机个体间会存在差异,即使在相同的激励设置下,不同司机的完单提升数量也会不同。

因此,现有的,想要在激励活动开始前对司机活动期间的完单提升进行预估,一般考虑使用常规机器学习或深度学习方法,在个体维度预测司机在无奖励,和不同奖励下的完单数量,再依据upliftmodel(差分响应)建模不同奖励设置下的完单数量提升。

但是现有的方法在实际中主要会遇到以下两方面问题:一方面,个体维度的完单数据比较稀疏,且因在国际化市场受到竞品影响,个体表现差异较大,较难通过现有特征较准确预测司机完单数量,模型偏差较大;另一方面激励活动频率偏低且集中在运力不足时间(比如周末),大部分时间城市处于无补贴状态,因此激励数据较为稀疏,模型较难预估在有奖励场景下的完单差异,因此,本申请基于此提供一种概率分布函数训练方法,该方法可以用于训练概率分布函数,进而基于该概率分布函数构建某激励活动下服务方的期望提升完单数的估计模型时,所构建的估计模型可以克服现有技术中个体维度的完单数据比较稀疏的技术问题,且还可以提高预测的准确性。

图1为本申请实施例提供的一种概率分布函数训练方法的流程示意图,该方法的执行主体可以是计算机、服务器、处理器等可以进行数据处理的设备,所训练的概率分布函数可以用于获取某激励活动下服务方的期望提升完单数。可选地,本申请提供的方法可以应用于网约车、外卖业务、快递业务等通过统计完单数来表征服务提供人员绩效的应用场景。对应的,根据不同的应用场景,完单数可以是司机的接单数量、外卖骑手的接单数量、快递的接单/配送数量等,本申请在此不作限定。

其中,本申请在此以网约车的应用场景为例,对本申请提供的概率分布函数训练方法进行说明,如图1所示,该方法包括:

s110、获取多个训练样本,其中,训练样本包括激励设置参数、服务方所属服务层级及不同激励设置参数下服务方的完单数量。

根据不同的应用场景,可以对应不同的训练样本。例如,若应用场景为网约车场景时,多个训练样本可以根据多个司机在激励活动期间的历史数据来获取,根据该历史数据可以统计该训练样本的激励设置参数、服务方所属服务层级及不同激励设置参数下服务方的完单数量等,通过获取该多个训练样本可以用于概率分布函数的训练。

其中,激励设置参数可以包括:激励活动的时间参数(比如,开始时间、结束时间等)、激励活动期间内的城市参数(比如,一级城市、二级城市等城市等级,城市历史供需情况)、激励内容以及对应的完单要求(比如,激励内容为奖励r1元时,对应的完单数为n1;奖励r2元时,对应的完单数为n2)等,本申请在此不作限定,根据实际的应用场景还可以包括其他激励设置参数;服务方所属服务层级可以指示服务方的服务等级,比如,可以基于司机历史完单数量,在线时长,活跃度等因素,将司机划分为不同的层级,比如综合评价较高的可以对应a层级,综合评价一般的可以对应b层级,综合评价较低的可以对应c层级;不同激励设置参数下服务方的完单数量可以指示激励设置参数对司机完单数量的激励影响,比如,第一激励设置参数下司机的完单数量为x1,第二激励设置参数下司机的完单数量为x2。

s120、根据多个训练样本和预设完单数量,计算各训练样本的完单提升数量。

预设完单数量可以为无激励活动时司机的完单数量,可以根据历史无激励活动时司机的完单数量统计获取,或根据经验值设置,本申请在此不作限定。因此,可以根据多个训练样本在不同激励设置参数下服务方的完单数量和预设完单数量,计算各训练样本的完单提升数量,也即,不同激励设置参数下服务方的完单提升数量。比如,预设完单数量为10,第一激励设置参数下服务方的完单数量为15,则该训练样本的完单提升数量为5。

s130、根据各训练样本完单提升数量和服务方所属服务层级,计算各服务层级下训练样本的不同完单数提升的概率。

其中,由于训练样本中用户所属服务层级是知晓的,因此,在获取到各训练样本的完单提升数量后,可以根据各训练样本完单提升数量和服务方所属服务层级通过数据拟合的方式,计算各服务层级下训练样本的不同完单数提升的概率,比如,a服务层级下训练样本的不同完单数提升的概率,b服务层级下训练样本的不同完单数提升的概率。

s140、根据各服务层级下训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数。

其中,预设函数可以由激励设置参数、激励估计设置函数、以及完单提升变量构成,激励估计设置函数可以包括该激励设置参数,可以用于衡量激励设置参数对完单概率分布的影响。需要说明的是,该概率分布函数可以为条件概率分布函数。

由于训练样本是根据多个司机在激励活动期间的历史数据所获取的,为真实数据样本,因此所获取的各服务层级下训练样本的不同完单数提升的概率即为真实概率;预设函数可以是预先设置的各服务层级对应的概率分布函数,该预设函数中可以包括激励设置参数、激励估计设置函数、以及完单提升变量。因此,可以根据各服务层级下训练样本的不同完单数提升的概率和预设函数,训练获取到各服务层级对应的概率分布函数,进而根据该概率分布函数用于获取某激励设置参数下服务方的期望提升完单数(估计提升完单数)时,可以提高估计的准确性。

综上所述,本申请所提供的概率分布函数训练方法,通过获取多个训练样本,其中,训练样本包括激励设置参数、服务方所属服务层级及不同激励设置参数下服务方的完单数量;根据多个训练样本和预设完单数量,计算各训练样本的完单提升数量,进而根据各训练样本完单提升数量和用户所属服务层级,计算各服务层级下训练样本的不同完单数提升的概率,使得根据各服务层级下训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数时,由于基于各服务层级下训练样本,因此,克服了现有技术中个体维度的完单数据比较稀疏的技术问题,且获取的是各服务层级下训练样本的不同完单数提升的概率为真实概率,根据该真实概率和预设函数训练获取的各服务层级对应的概率分布函数用于获取某激励设置参数下服务方的期望提升完单数时,可以更为准确。

此外,还需要说明的是,在同一服务层级下,采用本申请提供的概率分布函数拟合不同完单提升的概率时,其对应的累计概率分布可以保证服务方在不同完单提升下的累计概率为1,更符合实际情况。

图2为本申请实施例提供的另一种概率分布函数训练方法的流程示意图。可选地,如图2所示,上述根据各服务层级下训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数,包括:

s210、根据各服务层级下训练样本的不同完单数提升的概率和预设函数,计算获取各服务层级下预设函数中的激励估计设置函数。

s220、根据各服务层级下的预设函数和激励估计设置函数,训练获取各服务层级对应的概率分布函数。

其中,预设函数可以由激励设置参数、激励估计设置函数、以及完单提升变量构成,可以先根据各服务层级下训练样本的不同完单数提升的概率和预设函数,计算出各服务层级下预设函数中的激励估计设置函数,然后再将该激励估计设置函数代入对应服务层级下的预设函数中,即可得到该服务层级对应的概率分布函数。

需要说明的是,根据实际的应用场景,各服务层级所对应的预设函数可以相同,也可以不同,本申请在此不作限定。

可选地,根据各服务层级下训练样本的不同完单数提升的概率和预设函数,计算获取各服务层级下预设函数中的激励估计设置函数,包括:

根据预设拟合算法,获取各服务层级下各训练样本根据预设函数计算的不同完单数提升的估计概率与各服务层级下各训练样本的不同完单数提升的概率满足预设拟合条件时,预设函数中的激励估计设置函数。

可选地,该预设拟合算法可以是非线性最小二乘拟合的方法,也即通过拟合各服务层级下同一训练样本根据预设函数计算的不同完单数提升的估计概率与真实概率,使该估计概率与真实概率满足预设拟合条件(比如,小于预设误差),这时可以获取预设函数中的激励估计设置函数,所获取的激励估计设置函数可以代入对应层级下的预设函数中,即可得到该服务层级对应的概率分布函数。

可选地,本申请在此以某一服务层级对应的概率分布函数为例进行说明,使用非线性最小二乘拟合的方法拟合分布,旨在获取满足预设拟合条件(比如,对应的预设损失函数最小)的预设函数,可选地,可以通过非线性最小二乘拟合求最小化目标函数:

其中,i表示第i个训练样本,n为训练样本数量,y(i)表示训练样本的完单数提升的概率,表示预设函数,预设函数为关于θ的非线性函数,θ表示预设函数中激励估计设置函数的函数值,因此,通过上述拟合可以求得预设函数中θ的取值。

图3为本申请实施例提供的又一种概率分布函数训练方法的流程示意图。可选地,如图3所示,上述激励估计设置函数包括至少两个,每个激励估计设置函数包括激励设置参数,上述计算获取各服务层级下预设函数中的激励估计设置函数,包括:

s310、根据多个训练样本,训练获取多任务模型。

s320、根据多任务模型,拟合获取各激励估计设置函数中激励设置参数的系数。

s330、根据各激励设置参数和各激励设置参数的系数,获取各激励估计设置函数。

其中,由于激励估计设置函数为关于上述激励设置参数的函数,因此,可以根据上述多个训练样本,训练获取多任务模型;比如,可以基于多任务弹性网络(multi-taskelasticnet)来获取该多任务模型,然后通过该多任务模型拟合获取各激励估计设置函数中激励设置参数的系数,进而根据各激励设置参数和各激励设置参数的系数,即可获取到对应的激励估计设置函数。

可选地,若激励估计设置函数包括h(n,r,t,c)和g(n,r,t,c),h(n,r,t,c)和g(n,r,t,c)分别是关于n、r、t、c的函数,其中,n表示激励内容下的完单要求,r表示激励活动的激励内容,t表示激励活动的开始时间和结束时间,即时间特征,c表示激励活动的开始时间和结束时间即时间特征。

若假设特征n、r、t、c与h(n,r,t,c)和g(n,r,t,c)均为线性关系,可以使用multi-taskelasticnet来拟合获取h(n,r,t,c)和g(n,r,t,c)中激励设置参数的系数,具体拟合过程卡参见下述过程:

由于h(n,r,t,c)和g(n,r,t,c)共享特征,因此考虑多任务学习,构建多任务模型,同时根据共享特征拟合h(n,r,t,c)和g(n,r,t,c)两个因变量,其中,该多任务模型可以用下述公式表示:

y=[h(n,r,t,c),g(n,r,t,c)];β=[βh,βg]

其中,y表示多任务模型中的因变量,为h(n,r,t,c)和g(n,r,t,c)组成的矩阵;若x为多任务模型中的自变量,即变量n、r、t、c;β表示自变量x的系数矩阵,β包括βh和βg,βh为拟合h(n,r,t,c)时自变量x的系数,βg为拟合g(n,r,t,c)时自变量x的系数。

进一步地,该多任务模型可以表示为:

y=xβ+∈

其中,∈表示拟合中的残差。

那么可以求解β的估计值为:

其中,为β的估计值,x为多任务模型中的自变量,即变量n、r、t、c;y为多任务模型中的因变量,为h(n,r,t,c)和g(n,r,t,c)组成的矩阵,λ1和λ2分别为multi-taskelasticnet中l1norm和l2norm的惩罚系数,j表示第j个自变量,βj即第j个自变量的系数,p表示自变量的数量,其中,j和p均为大于0的正整数,取值可以为1、2、3等。

因此,在求解出β的估计值后,即可根据各激励设置参数和获取h(n,r,t,c)和g(n,r,t,c)的激励估计设置函数,所获取的h(n,r,t,c)和g(n,r,t,c)可以表征概率分布函数的分布形状,比如,h(n,r,t,c)和g(n,r,t,c)可以共同决定了该分布的均值和方差,即:

进一步地,在获取到某服务层级下的h(n,r,t,c)和g(n,r,t,c)的激励估计设置函数后,即可根据该服务层级下的预设函数、h(n,r,t,c)和g(n,r,t,c),训练获取该服务层级对应的累计条件概率分布函数,可选地,该累计条件概率分布函数可以为:

f(x|n,r)=1-e-h(n,r,t,c)x+g(n,r,t,c)

其中,f(x|n,r)表示完单要求为n、激励内容为r的累计条件概率分布。

进一步地,在获取到该累计条件概率分布函数后,即可基于该累计条件概率分布函数获取该服务层级下的累计完单提升数,可选地,可以参见下述公式:

δtrip=∫xf(x|n,r)dx

其中,x表示完单提升数,n表示激励内容下的完单要求,r表示激励活动的激励内容,f(x|n,r)表示完单要求为n、激励内容为r的条件概率分布函数,δtrip表示累计完单提升数,也即该服务层级下,激励设置参数为n和r时,服务方的累计完单提升数。需要说明的是,该条件概率分布函数f(x|n,r)可以通过对上述累计条件概率分布函数f(x|n,r)进行求导获得,当然,基于该条件概率分布函数f(x|n,r)也可计算得到同一激励设置参数下的不同完单数的提升概率,本申请在此不再赘述。

如此,通过上述的方法,可以得到各服务层级,在不同完单要求n、激励内容r下的完单提升数,进而可以根据不同的服务层级设置不同的激励设置参数,实现业务目标的最大化。

可选地,图4为本申请实施例提供的一种根据概率分布函数获取的拟合概率和真实概率的对比示意图,其中,横坐标表示完单提升数,纵坐标表示完单提升概率,对于一实际应用场景下,实线表示根据本申请所提供的概率分布函数获取的某服务层级下不同完单数的提升概率,即拟合概率,标注点表示实际统计的该服务层级下不同完单数的提升概率,即真实概率,由此可知,该拟合概率近似接近于真实概率,采用各服务层级对应的概率分布函数用于获取某激励设置参数下服务方的期望提升完单数时,可以提高准确性。

可选地,上述激励设置参数包括下述一种或多种的组合:激励活动的开始时间和结束时间、激励活动期间内的城市参数、激励内容、激励内容下的完单要求。

其中,激励设置参数可参见前述的相关描述,但不以前述为限,比如,激励活动期间内的城市参数,还可以包括激励活动期间内该城市是否举行了某种活动、比赛、演唱会等;激励内容,可以是激励调休时间、激励奖品等,根据实际的应用场景可以有所不同,本申请在此不作限定。

图5为本申请实施例提供的一种服务激励处理方法的流程示意图,该方法的执行主体可以是计算机、服务器、处理器等可以进行数据处理的设备,该方法的应用场景可参见前述的应用场景,本申请在此不再赘述。本申请在此以网约车的应用场景为例进行说明,如图5所示,该方法包括:

s510、获取目标服务方的服务数据,服务数据包括:激励设置参数、服务层级。

s520、根据服务数据、以及服务层级对应的概率分布函数,计算获取目标服务方的期望提升完单数。

其中,在网约车的应用场景中,对应地,目标服务方为司机,因此,可以获取司机的服务数据,即获取司机接单时的激励设置参数以及服务层级,进而可以根据该服务数据以及服务层级对应的概率分布函数,计算获取该服务层级下司机在该激励设置参数的激励下对应的期望提升完单数。

可选地,上述根据服务数据、以及概率分布函数,计算获取目标服务方的期望提升完单数之后,还包括:根据概率分布函数,获取目标服务方的期望提升完单数最大时,对应的激励设置参数。

其中,在根据服务数据、以及概率分布函数,获取不同激励设置参数下目标服务方的期望提升完单数后,通过统计对比,即可获取目标服务方的期望提升完单数最大时,对应的激励设置参数。

比如,以某服务层级为例,激励设置参数包括激励内容和激励内容下的完单要求,激励内容为激励金额时,所对应的激励设置参数分别为(n1,r1)、(n2,r2)及(n3,r3),对应的预测提升完单数分别为x1、x2及x3,其中,r1、r2、r3表示激励金额,n1、n2、n3表示对应激励金额下的完单要求,且n1<n2<n3,r1<r2<r3,若x3<x1<x2,可选地,若通过统计对比可知,激励设置参数为(n2,r2)对应的提升完单数最高,因此,可以获取(n2,r2)对应的激励设置参数作为该服务层级的激励设置参数,如此,即可实现提升完单数的最大化。

当然,需要说明的是,根据实际的应用场景也可以是将业务目标的收益最大化所对应的激励设置参数作为该服务层级的激励设置参数,如此,即可实现业务目标的收益最大化。

图6为本申请实施例提供的一种概率分布函数训练装置的结构示意图,该装置基本原理及产生的技术效果与前述对应的方法实施例相同,为简要描述,本实施例中未提及部分,可参考方法实施例中的相应内容。如图6所示,该装置包括:第一获取模块110、第一计算模块120、第二计算模块130及训练获取模块140;第一获取模块110,用于获取多个训练样本,其中,所述训练样本包括激励设置参数、服务方所属服务层级及不同激励设置参数下服务方的完单数量;第一计算模块120,用于根据多个所述训练样本和预设完单数量,计算各所述训练样本的完单提升数量;第二计算模块130,用于根据各所述训练样本完单提升数量和服务方所属服务层级,计算各服务层级下所述训练样本的不同完单数提升的概率;训练获取模块140,用于根据各服务层级下所述训练样本的不同完单数提升的概率以及预设函数,训练获取各服务层级对应的概率分布函数。

可选地,上述训练获取模块140,具体用于根据各服务层级下所述训练样本的不同完单数提升的概率和所述预设函数,计算获取各服务层级下预设函数中的激励估计设置函数,所述预设函数包括激励设置参数、激励估计设置函数、以及完单提升变量;根据各服务层级下的所述预设函数和所述激励估计设置函数,训练获取各服务层级对应的概率分布函数。

可选地,上述训练获取模块140,具体用于根据预设拟合算法,获取各服务层级下各所述训练样本根据所述预设函数计算的不同完单数提升的估计概率与各服务层级下各所述训练样本的不同完单数提升的概率满足预设拟合条件时,所述预设函数中的激励估计设置函数。

可选地,激励估计设置函数包括至少两个,每个所述激励估计设置函数包括所述激励设置参数,上述训练获取模块140,具体用于根据多个所述训练样本,训练获取多任务模型;根据所述多任务模型,拟合获取各所述激励估计设置函数中所述激励设置参数的系数;根据各所述激励设置参数和所述激励设置参数的系数,获取各所述激励估计设置函数。

可选地,上述激励设置参数包括下述一种或多种的组合:激励活动的开始时间和结束时间、激励活动期间内的城市参数、激励内容、激励内容下的完单要求。

图7为本申请实施例提供的一种服务激励处理装置的结构示意图,该装置基本原理及产生的技术效果与前述对应的方法实施例相同,为简要描述,本实施例中未提及部分,可参考方法实施例中的相应内容。如图7所示,该装置包括:第二获取模块150和第三计算模块160;所述第二获取模块150,用于获取目标服务方的服务数据,所述服务数据包括:激励设置参数、服务层级;所述第三计算模块160;用于根据所述服务数据、以及概率分布函数,计算获取所述目标服务方的期望提升完单数。

可选地,上述装置还包括:第三获取模块170,用于根据所述概率分布函数,获取所述目标服务方的期望提升完单数最大时,对应的激励设置参数。

上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。

以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(applicationspecificintegratedcircuit,简称asic),或,一个或多个微处理器(digitalsignalprocessor,简称dsp),或,一个或者多个现场可编程门阵列(fieldprogrammablegatearray,简称fpga)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(centralprocessingunit,简称cpu)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称soc)的形式实现。

图8为本申请实施例提供的一种电子设备结构示意图。如图8所示,该电子设备可以包括:处理器210、存储介质220和总线230,存储介质220存储有处理器210可执行的机器可读指令,当电子设备运行时,处理器210与存储介质220之间通过总线230通信,处理器210执行机器可读指令,以执行上述方法实施例的步骤。具体实现方式和技术效果类似,这里不再赘述。

可选地,本申请还提供一种存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述方法实施例的步骤。具体实现方式和技术效果类似,这里不再赘述。

在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。

上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(英文:read-onlymemory,简称:rom)、随机存取存储器(英文:randomaccessmemory,简称:ram)、磁碟或者光盘等各种可以存储程序代码的介质。

需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1