点击率预测方法、电子装置及计算机可读存储介质与流程

文档序号:16790296发布日期:2019-02-01 19:35阅读:131来源:国知局
点击率预测方法、电子装置及计算机可读存储介质与流程

本申请涉及电子技术领域,尤其涉及一种点击率预测方法、电子装置及计算机可读存储介质。



背景技术:

在信息时代的背景下,互联网快速发展,由此带来的信息激增,信息超载问题成为人们亟待解决的问题。例如,淘宝、京东、等电商中眼花缭乱的商品数据,腾讯、爱奇艺等数以亿计的视频信息。企业如何有效地从海量的信息中挖掘出真正的有用的信息、充分利用信息产生的价值、快速定位出用户的兴趣偏好、提高用户体验,是他们提高竞争力的有效途径和产生更高收益的有效方法。与其对应,消费者如何能快速地在如此庞大的信息库中找到自己感兴趣的目标物,是他们提出的个性化的需求,同时也是身处信息时代的需求。因此,立足于为用户提供建议的个性化推荐系统便应运而生了。点击率预估方法在推荐系统发挥着重要作用,现有的点击率预估方法大多用于推荐系统的排序阶段,一个良好的点击率预估方法在排序阶段能准确把握住用户的兴趣,为用户推荐排名前几位可能感兴趣的物品,为企业挖掘大量隐藏的商业价值。所以说,点击率预估方法的好坏将直接影响最后的推荐效果,也就直接影响能否充分挖掘出商业价值。

传统的点击率预估方法有gbdt+lr(gradientboostingdecisiontree+logisticregression)、基于因子分解机(factorizationmachines,fm)、基于深度学习(deepneuralnetwork,dnn)、融合fm和dnn的deepfm(factorization-machinesbasedneuralnetwork)等点击率预估方法,这些方法都尝试去组合特征,并挖掘出高阶组合特征,一般称二阶及二阶以上的特征为高阶特征,这些高阶组合特征被证明对点击率预估有积极的效果。众所周知,dnn能在网络中自动学习出高阶组合特征,省去人工构造特征的时间,节省资源,提高效益。gbdt树模型的叶节点是从根节点依据特征信息一步一步分裂而成,所以叶节点可认为是分裂特征之间组合的结果。fm能使特征之间两两组合,提取出二阶组合特征。

gbdt+lr优点在于先利用gbdt生成的叶节点信息表示组合特征,这些叶节点经过编码作为lr模型的输入,模型简单,缺点在于叶节点编码后的特征维度巨大,且高度稀疏,不利于模型学习。fm模型优点克服了在数据稀疏性导致特征组合项系数的训练很困难的问题,特征分量xi与xj的组合项系数就等于xi对应的隐向量与xj对应的隐向量的内积,这是fm模型的核心,缺点在于模型只能学习到二阶组合特征,超越二阶的高阶组合特征的学习将会大大增加模型的复杂度。dnn优点在于网络能自动学习出高阶组合特征,省去人工构造特征的时间,节省资源,缺点在于模型最后的输出并没有考虑低阶特征,损失原始特征的信息。deepfm优点在于综合解决了fm无法学习更高阶组合特征和dnn的输出没有考虑低阶特征的问题,利用fm模型学习低阶及二阶组合特征,dnn学习高阶组合特征,最后融合两个模型的输出,缺点在于fm部分基于假设:“两两组合的特征对最后的输出贡献度一致”,这是fm模型固有的缺点,这种假设显然是不合理的,两两组合的特征不一定都对最后的输出有利,若组合的特征是一个噪声,这将会影响模型的输出效果。



技术实现要素:

本申请实施例提供一种点击率预测方法、电子装置及计算机可读存储介质,用于,提供一种准确率更高、训练机制更便捷的点击率预测方法。

本申请实施例第一方面提供一种点击率预测方法,包括:

将样本数据输入至树模型中进行训练,获得所述样本数据对应的叶节点编码;所述样本数据为具有点击率相关特征的样本数据;

将所述叶节点编码与所述样本数据进行特征拼接,获得样本混合特征;

将所述样本混合特征输入至嵌入层进行数据处理,将所述样本混合特征中稀疏离散的特征向量变成连续的特征向量;

将嵌入层处理后的样本混合特征,分别输入至因子分解机模型和深度神经网络模型中进行训练,分别获得因子分解机输出结果和深度网络隐含层输出结果;

将所述因子分解机输出结果输入至注意力机制模型中进行训练,获得权重划分后的因子分解机输出结果;

将所述权重划分后的因子分解机输出结果和所述深度网络隐含层输出结果进行拼接,输出预测结果。

可选的,所述树模型包括:梯度提升决策树gbdt模型。

可选的,所述将所述样本混合特征输入至嵌入层进行数据处理之前,包括:

将所述样本混合特征先输入至预处理层进行数据预处理,所述预处理包括:将所述样本混合特征中连续型特征进行归一化处理,将所述样本混合特征中离散型特征进行one-hot编码。

可选的,所述将嵌入层处理后的样本混合特征,分别输入至因子分解机模型和深度神经网络模型中进行训练,分别获得因子分解机输出结果和深度网络隐含层输出结果,包括:

以以下函数作为因子分解机模型;

其中,ω0、ωi为因子分解机模型的参数,vi和vj是嵌入层的隐向量;

将嵌入层处理后的样本混合特征输入至上述因子分解机模型中进行训练。

可选的,所述将嵌入层处理后的样本混合特征,分别输入至因子分解机模型和深度神经网络模型中进行训练,分别获得因子分解机输出结果和深度网络隐含层输出结果,包括:

所述嵌入层处理后的样本混合特征作为所述深度神经网络模型中全连接层神经网络的输入。

可选的,所述将所述因子分解机输出结果和所述深度网络隐含层输出结果进行拼接,包括:

将所述因子分解机输出结果和所述深度网络隐含层输出结果的拼接结果,输入至sigmoid激活函数进行处理,获得预测结果。

本申请实施例第二方面提供一种电子装置,包括:

编码获取单元,用于将样本数据输入至树模型中进行训练,获得所述样本数据对应的叶节点编码;所述样本数据为具有点击率相关特征的样本数据;

特征组合单元,用于将所述叶节点编码与所述样本数据进行特征拼接,获得样本混合特征;

嵌入处理单元,用于将所述样本混合特征输入至嵌入层进行数据处理,将所述样本混合特征中稀疏离散的特征向量变成连续的特征向量;

特征获取单元,用于将嵌入层处理后的样本混合特征,分别输入至因子分解机模型和深度神经网络模型中进行训练,分别获得因子分解机输出结果和深度网络隐含层输出结果;

预测输出单元,用于将所述因子分解机输出结果和所述深度网络隐含层输出结果进行拼接,输出预测结果。

本申请实施例第三方面提供另一种电子装置,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述本申请实施例第一方面提供的点击率预测方法。

本申请实施例第四方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现上述本申请实施例第一方面提供的点击率预测方法。

由上可见,本申请方案的样本数据先通过树模型中进行训练,获得样本数据对应的叶节点编码,在将叶节点编码与样本数据进行特征拼接,获得样本混合特征;由于在树模型训练的过程中,叶子节点的生成过程即是组合特征的生成过程,因此叶子节点作为高阶特征加入到样本数据的特征中,使得后续因子分解机模型在不增加模型复杂度的情况下学习到了高阶特征,节省了人工构造高阶组合特征的时间,也提高了后续模型训练结果的准确率。

附图说明

图1-a为本申请实施例提供的点击率预测方法的实现流程示意图;

图1-b为本申请实施例提供的树模型的应用示例图;

图1-c为本申请实施例提供的树模型的抽象示例图;

图1-d为本申请实施例提供的fm模型的矩阵算法示例图;

图1-e为本申请实施例提供的点击率预测方法的应用示意图;

图1-f为本申请实施例提供的多个树模型的的抽象示例图;

图2为本申请一实施例提供的电子装置结构示意图;

图3为本申请另一实施例提供的电子装置硬件结构示意图。

具体实施方式

为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而非全部实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

实施例一

本申请实施例提供一种点击率预测方法、电子装置及计算机可读存储介质,用于,提供一种准确率更高、训练机制更便捷的点击率预测方法,请参阅图1-a,该点击率预测方法主要包括以下步骤:

101、将样本数据输入至树模型中进行训练,获得所述样本数据对应的叶节点编码;

将样本数据输入至树模型中进行训练,获得所述样本数据对应的叶节点编码;所述样本数据为具有点击率相关特征的样本数据。

示例性的,所述样本数据具有多个原始特征的数据组,如:[idfeature1feature2…featurenlabel],其中,id为样本的索引,feature为原始特征,label为样本的标签。

所述树模型为基于树的学习算法模型。在实际应用中,基于树的学习算法被认为是非监督学习方法或监督学习方法中最好的并且是最常用的方法之一。基于树的方法使得模型的精确率很高,很稳定和容易解释。与线性模型不同,基于树的模型能够很好地表达非线性关系,它适合用来解决分类和回归问题。本申请所针对的点击率预测问题为二分类问题,因此,引入树模型作为训练机制之一。

示例性的,本申请实施例中的树模型可以为:梯度提升决策树(gbdt,gradientboostingdecisiontree)模型。

以图1-b所示的决策树为例,图1-b展示了树模型的分支过程,其中,本申请实施例会对树模型中的各个节点进行编码(如图1-c所示),图1-c中出节点1之外,皆为叶子节点,假设样本数据经树模型训练后,训练结果为“4”节点,则所述样本数据对应的叶节点编码就是“4”。

进一步的,在本申请实施例中,样本数据输入至多个树模型中进行训练,得到样本数据分别在多个树模型中对应的叶节点编码,获得的叶节点编码越多,则越能够表达所述样本数据的高阶特征。

102、将所述叶节点编码与所述样本数据进行特征拼接,获得样本混合特征;

示例性的,若样本数据为[idfeature1feature2…featurenlabel],其中,id为样本的索引,feature为原始特征,label为样本的标签,且样本数据经树模型训练后,获得的叶节点编码是“4”,则拼接得到的样本混合特征为[idfeature1feature2…featurentree_4]。

103、将所述样本混合特征输入至嵌入层进行数据处理;

将所述样本混合特征输入至embedding(嵌入)层进行数据处理,将所述样本混合特征中稀疏离散的特征向量变成连续的特征向量。

示例性的,输入至embedding层进行数据处理之前,可以将所述样本混合特征先输入至预处理层进行数据预处理(如,将所述样本混合特征中连续型特征进行归一化处理,将所述样本混合特征中离散型特征进行one-hot编码)。

示例性的,embedding层实际上是一个初始化的矩阵,它将稀疏离散的特征向量变成稠密连续的向量,实质上是一种矩阵乘法如图1-d所示,等号左边由one-hot编码后的稀疏向量和embedding层初始化的矩阵两部分组成。稀疏向量和embedding矩阵相乘,变成一个矩阵下标选择,而初始化的矩阵会在训练过程中不断被更新,所以相乘的结果是不断被更新的。一维连续型特征对应矩阵特定的一行,输出为该连续值乘上矩阵对应行的向量。

104、将嵌入层处理后的样本混合特征,分别输入至因子分解机模型和深度神经网络模型中进行训练;

将嵌入层处理后的样本混合特征,分别输入至因子分解机模型和深度神经网络模型中进行训练,分别获得因子分解机输出结果和深度网络隐含层输出结果。

在本申请实施例中,经过因子分解机模型的处理,能获取二阶组合特征,若想获取二阶以上的特征,可以借助辅助手段(就是经过树模型预先处理过的特征),这就是本申请实施例引入树模型的意义。

在实际应用中,通过观察大量的样本数据可以发现,某些特征经过关联之后,与label之间的相关性就会提高。例如“usa”与“thanksgiving”,“china”与“chinesenewyear”这样的关联特征,对用户的点击有着正向的影响。换句话说,来自“china”的用户很可能会在“chinesenewyear”有大量的浏览、购买行为,而在“thanksgiving”却不会有特别的消费行为。这种关联特征与label的正向相关性在实际问题中是普遍存在的,如“化妆品”类商品与“女”性,“球类运动配件”的商品与“男”性,“电影票”的商品与“电影”品类偏好等。因此,引入两个特征的组合是非常有意义的。通常fm模型只考虑二阶组合特征,定义如下:

其中,ω0、ωi为因子分解机模型的参数,vi和vj是嵌入层的隐向量,即图1-d所示的矩阵乘法可以表示为xivi,xi和xj分别对应第i个特征的值和第j个特征的值,那么实际上就是embedding层的输出两两做内积再求和的结果。

进一步的,在将嵌入层处理后的样本混合特征输入至因子分解机模型进行训练,获得因子分解机输出结果之后,可以将所述因子分解机输出结果输入至注意力机制模型中进行训练,获得权重划分后的因子分解机输出结果。

由于fm模型是两两组合所有的特征,那如“usa”与“chinesenewyear”也难免会组合到,这种组合特征对预测结果并没有相关性,甚至会引入噪声。为了解决这样的问题,需要引入一个注意力机制模型能够自动学到每一个组合特征的贡献度,也就是权重。

示例性的,另一个训练的分支,在嵌入层处理后的样本混合特征之后,embedding层输出后做reshape(重塑)操作后,作为深度神经网络模型中全连接层神经网络的输入。

105、将所述因子分解机输出结果和所述深度网络隐含层输出结果进行拼接,输出预测结果。

示例性的,可以采用sigmoid激活函数作为输出拼接层将所述因子分解机输出结果和所述深度网络隐含层输出结果进行拼接。

由上可见,本申请方案的样本数据先通过树模型中进行训练,获得样本数据对应的叶节点编码,在将叶节点编码与样本数据进行特征拼接,获得样本混合特征;由于在树模型训练的过程中,叶子节点的生成过程即是组合特征的生成过程,因此叶子节点作为高阶特征加入到样本数据的特征中,使得后续因子分解机模型在不增加模型复杂度的情况下学习到了高阶特征,节省了人工构造高阶组合特征的时间,也提高了后续模型训练结果的准确率。

实施例二

为了更加直观的理解本申请实施例中的点击率预测方法,本申请提供了一个实际的应用例进行说明,请参阅图1-e,具体包括:

1)取数据集中的一小部分数据集,用于训练gbdt模型,数据集中的其余为测试集。其中,训练集中样本的数据类型如[idfeature1feature2…featurenlabel]。其中,id为样本的索引,feature为原始特征,label为样本的标签。假设测试集中某条样本数据如[idfeature1feature2…featuren],经过训练好的gbdt模型如图1-f所示,图中显示了三个树模型,图中左侧的树模型训练结构为编号为4的叶节点,记为tree_4,同理图中中间的树模型预测的记为tree_7,右边记为tree_6。得到叶节点的编码输出[tree_4tree_7tree_6],则测试集中数据将拼接为[idfeature1feature2…featurentree_4tree_7tree_6],其中新增三个维度的特征,可称为高阶组合特征,图1-b中从根节点到叶节点体现了特征组合的过程,如左边叶节点的生成,实际上从分裂的路径上可以看出是三个特征作用的结果,所以这个叶节点可以表示三个组合特征的结果。gbdt中基本树模型的数量就是新增的维度数量,图1-f中有三棵基础树模型,所以可以扩展三个维度的特征。为防止过拟合,训练集在训练完gbdt后,不能像测试集那样预测得到叶节点编码并加入原始特征,应直接丢弃。

2)embedding层。将步骤1)获得的数据中连续型特征进行归一化、离散型特征进行one-hot编码。embedding层实际上是一个初始化的矩阵,它将稀疏离散的特征向量变成稠密连续的向量,实质上是一种矩阵乘法如图1-d所示,等号左边由one-hot编码后的稀疏向量和embedding层初始化的矩阵两部分组成。稀疏向量和embedding矩阵相乘,变成一个矩阵下标选择,而初始化的矩阵会在训练过程中不断被更新,所以相乘的结果是不断被更新的。一维连续型特征对应矩阵特定的一行,输出为该连续值乘上矩阵对应行的向量。所以这种下标选择的方法将稀疏离散的特征向量变成稠密连续的特征向量,是eebedding的核心思想。

3)fm模型。实践中通过观察大量的样本数据可以发现,某些特征经过关联之后,与label之间的相关性就会提高。例如“usa”与“thanksgiving”,“china”与“chinesenewyear”这样的关联特征,对用户的点击有着正向的影响。换句话说,来自“china”的用户很可能会在“chinesenewyear”有大量的浏览、购买行为,而在“thanksgiving”却不会有特别的消费行为。这种关联特征与label的正向相关性在实际问题中是普遍存在的,如“化妆品”类商品与“女”性,“球类运动配件”的商品与“男”性,“电影票”的商品与“电影”品类偏好等。因此,引入两个特征的组合是非常有意义的。通常fm模型只考虑二阶组合特征,定义如下:

其中ω0、ωi为模型的参数,vi和vj是embedding层隐向量,即图1-d的矩阵乘法可以表示为xivi,xi和xj分别对应第i个特征的值和第j个特征的值,那么实际上就是embedding层的输出两两做内积再求和的结果。从上式可以看,模型前半部分就是普通的lr线性组合,后半部分的组合项即特征的组合。单从模型表达能力上来看,fm的表达能力是强于lr的,至少不会比lr弱,当组合项参数全为0时即退化为普通的lr模型。如果上式组合项不化简,复杂度是o(kn2),化简之后复杂度是o(kn),化简过程如以下所示,对于二阶组合项可以化简,减少复杂度,但是fm理论上可以组合更高阶的项,但因无法化简、计算复杂度高等问题,学者们研究的fm模型组合项一般指二阶组合项。本申请在步骤1)利用gbdt生成高阶组合特征与原始特征拼接一起,fm模型不仅可以学到二阶组合特征,还可以学到高阶组合特征,因为fm模型是在两两组合gbdt生成的高阶组合特征,所以fm模型并不会增加计算复杂度,依旧为o(kn)。fm组合项化简过程如以下所示:

4)注意力机制模型。步骤3)举例说到“usa”与“thanksgiving”特征组合,对预测的结果有正相关性,由于fm模型是两两组合所有的特征,那“usa”与“chinesenewyear”也难免会组合到,这种组合特征对预测结果并没有相关性,甚至会引入噪声。为了解决这样的问题,需要引入一个注意力机制模型能够自动学到每一个组合特征的贡献度,也就是权重。注意力机制模型实际上是一个浅层的神经网络,每一个组合特征当成神经网络的输入,假如该网络隐含层的激活函数是relu,那么每一个隐含层的输出为公式一所示,输出层的激活函数为softmax,定义每一个组合特征的权重为aij,那么注意力注意力机制模型的输出如公式二所示,得到每一个组合特征的权重后,fm最后的输出定义为公式三所示。

5)dnn模型。步骤2)embedding层输出后做reshape(重塑)操作后,作为全连接层神经网络的输入,假如该网络隐含层的激活函数是relu,即第一层隐含层的输出为公式四所示,其他隐含层的输出如公式五所示。

其中为n为输入特征维度,n′为隐含层神经元个数。

6)融合基于注意力机制fm输出和dnn神经网络的输出。因为点击率任务是二分类任务,所以输出拼接层采用sigmoid激活函数。

实施例三

请参阅图2,为本申请实施例提供一种电子装置。该电子装置可用于实现上述图1-a所示实施例提供的点击率预测方法。如图2所示,该电子装置主要包括:

编码获取单元201,用于将样本数据输入至树模型中进行训练,获得所述样本数据对应的叶节点编码;所述样本数据为具有点击率相关特征的样本数据;

特征组合单元202,用于将所述叶节点编码与所述样本数据进行特征拼接,获得样本混合特征;

嵌入处理单元203,用于将所述样本混合特征输入至嵌入层进行数据处理,将所述样本混合特征中稀疏离散的特征向量变成连续的特征向量;

特征获取单元204,用于将嵌入层处理后的样本混合特征,分别输入至因子分解机模型和深度神经网络模型中进行训练,分别获得因子分解机输出结果和深度网络隐含层输出结果;

预测输出单元205,用于将所述因子分解机输出结果和所述深度网络隐含层输出结果进行拼接,输出预测结果。

需要说明的是,以上图2示例的电子装置的实施方式中,各功能模块的划分仅是举例说明,实际应用中可以根据需要,例如相应硬件的配置要求或者软件的实现的便利考虑,而将上述功能分配由不同的功能模块完成,即将电子装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。而且,在实际应用中,本实施例中的相应的功能模块可以是由相应的硬件实现,也可以由相应的硬件执行相应的软件完成。本说明书提供的各个实施例都可应用上述描述原则,以下不再赘述。

本实施例提供的电子装置中各功能模块实现各自功能的具体过程,请参见上述图1-a所示实施例中描述的具体内容,此处不再赘述。

实施例四

本申请实施例提供一种电子装置,请参阅图3,该电子装置包括:

存储器301、处理器302及存储在存储器301上并可在处理器302上运行的计算机程序,处理器302执行该计算机程序时,实现前述图1-a所示实施例中描述的点击率预测方法。

进一步的,该电子装置还包括:

至少一个输入设备303以及至少一个输出设备304。

上述存储器301、处理器302、输入设备303以及输出设备304,通过总线305连接。

其中,输入设备303具体可为摄像头、触控面板、物理按键或者鼠标等等。输出设备304具体可为显示屏。

存储器301可以是高速随机存取记忆体(ram,randomaccessmemory)存储器,也可为非不稳定的存储器(non-volatilememory),例如磁盘存储器。存储器301用于存储一组可执行程序代码,处理器302与存储器301耦合。

进一步的,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述各实施例中的电子装置中,该计算机可读存储介质可以是前述图3所示实施例中的存储器。该计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现前述图1-a所示实施例中描述的点击率预测方法。进一步的,该计算机可存储介质还可以是u盘、移动硬盘、只读存储器(rom,read-onlymemory)、ram、磁碟或者光盘等各种可以存储程序代码的介质。

在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。

所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个可读存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的可读存储介质包括:u盘、移动硬盘、rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。

需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。

以上为对本申请所提供的点击率预测方法、电子装置及计算机可读存储介质的描述,对于本领域的技术人员,依据本申请实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1