基于高阶用户偏好的推荐方法_2

文档序号:9350071阅读:来源:国知局
=%.-?~(rlu = (?)
[0043] 其中4、%和^分别是真实的评分值和成对偏好值。然后计算用户偏好相似度 sUij,
[0044] Suij=exp(-r2uij) (8)
[0045] 最后物品的相异度可以用Frobenius范式来定义。由以上可得最优化准则为
[0047] 其中0是模型的参数,As是偏好相似度条件的规范化因子,A0是模型参数的规 范化因子,a是权重系数。
[0053] 其中丫 JP A 4是预先设定好的系数。
[0054] 第7步,通过上述第3步到第6步,在一次迭代过程中更新模型的参数,然后重复 上述步骤,经过多次迭代直到模型的RMSE指标值提高小于.001,此时最优化准则取得全局 最小值而且模型达到收敛状态。
[0055] 实施例
[0056] 下面通过在三个高度偏斜数据集Epinions、Amazon和Ciao评分数据集,利用 RMSE、NDCG和Recall三个指标来比较利用本发明方法产生的模型与传统的模型的效果。 RMSE是用来度量预测精度的指标,RMSE越小,说明预测越准确,模型越好;NDCG是用来度量 预测排名的指标,NDCG值越大,说明模型越好;Recall是用来度量Top-N推荐物品的指标, Recall值越大,说明模型效果越好,产生的Top-N推荐物品越准确。
[0057] 本实施例中利用本发明方法产生两种协同过滤模型MF-RP和cosineKNN-RP模型, 并将这两种模型与传统的MF模型和cosineKNN模型进行比较。如图1所示,图1是MF-RP 模型和MF模型在Epinions和Amazon数据集上收敛过程的比较。由图1可知,在早期阶段 MF-RP和MF有相似的收敛过程,但是随着迭代次数的增加,MF模型会出现过拟合现象,然而 MF-RP模型却能够继续提高预测准确率,取得尽可能小的RMSE值并避免过拟合现象,所以 说明用本发明方法产生的MF-RP模型在收敛方面要优于传统的MF模型。
[0058] 如下表1、2所示,表1是MF-RP模型和MF模型在三种高度偏斜数据集上的预测性 能,表2是cosineKNN-RP模型和cosineKNN模型在三种高度偏斜数据集上的预测性能,预 测性能均是用RMSE指标来进行度量的。由表1可知,随着参数维度f的增加,MF-RP和MF 模型的性能都会提升;MF-RP模型在三种数据集上的性能都要优于MF模型。由表2可知, cosineKNN-RP模型在三种高度偏斜的数据集上的性能要比传统的cosineKNN模型好很多。
[0059] 表 1
[0060]
[0063] 如下表3所示,表3是用本发明方法产生的MF-RP模型、cosineKNN-RP模型和传 统的MF模型、cosineKNN模型在Top-N推荐列表上的性能比较,采用Recall度量指标来度 量模型在Top-N推荐列表上的性能好坏。由表3可知,MF-RP模型的效果总是比MF模型要 好,而且MF-RP在Amazon数据集上的性能提升是最显著的;cosineKNN-RP模型的效果也始 终比cosineKNN的模型好,而且cosineKNN-RP在Epinions和Amazon数据集上的性能提升 比较明显。
[0064] 表 3
[0065]
[0066] 如下表4所示,表4是用本发明方法产生的MF-RP模型和cosineKNN-NP模型,以 及传统的MF模型和cosineKNN模型在三种高度偏斜数据集上的排名准确度的比较,排名准 确度用NDCG度量指标来度量。由表4可知,在NDCG度量指标上,MF-RP模型在三种高度偏 斜的数据集上的性能都比MF模型好,而且MF-RP和MF模型的性能都随参数维度的增加而 提高,另外在Amazon数据集上MF-RP的性能提升最显著;cosineKNN-RP在各种情况下其排 名准确度都比传统的cosineKNN要高。
[0067] 表 4
[0068]
[0069] 以上实施例表明,用本发明方法产生的协同过滤模型能够较好的处理具有高度偏 斜特征的用户评分数据集,而且用本发明方法产生的模型的性能要比传统模型的性能要 好,所以说明本发明方法具有重要的研究意义和广泛的应用价值。
[0070] 以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详 细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在 本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护 范围之内。
【主权项】
1. 一种基于高阶用户偏好的推荐方法,包括以下步骤: 步骤S1,利用用户-物品评分数据集,计算用户对成对物品的高阶偏好值,构建用 户-物品-物品成对偏好数据集; 步骤S2,构建协同过滤模型,初始化所述协同过滤模型的参数矢量,从正态分布中随机 选取值来对所述协同过滤模型的参数进行初始化; 步骤S3,从所述用户-物品评分数据集和用户-物品成对偏好数据集中选择一对相关 的数据; 步骤S4,基于所述一对相关数据计算评分预测误差、定量偏好预测误差和用户偏好相 似度,构成最优化准则; 步骤S5,计算预测成对偏好对偏好指标的梯度和预测物品相异度对偏好指标的梯度, 并更新所述协同过滤模型的参数; 步骤S6,计算预测评分对评分指标的梯度,并更新所述协同过滤模型的参数; 步骤S7,重复步骤S3到S6,直到所述协同过滤模型的参数收敛,此时得到的参数使得 最优化准则达到全局最优,所述参数构成学习出来的所述协同过滤模型。2. 根据权利要求1所述的基于高阶用户偏好的推荐方法,其特征在于,步骤2中所述协 同过滤模型为MF-RP模型或KNN-RP模型。3. 根据权利要求1所述的基于高阶用户偏好的推荐方法,其特征在于,步骤S4中构成 的所述最优化准则为OPTRP最优化准则。4. 根据权利要求1所述的基于高阶用户偏好的推荐方法,其特征在于,步骤S4中所述 基于所述一对相关数据计算评分预测误差、定量偏好预测误差和用户偏好相似度,构成最 优化准则的步骤包括: 计算评分预测误差xul、定量偏好预测误差Xu^、用户偏好相似度sul]和物品相异度<, 其中其中4、匕和分别是真实的评分值和成对偏好值;然后计算用户偏好相似度sul], Suij= eXP(_r Uij); 由以上可得最优化准则为其中Θ是模型的参数,Xs是偏好相似度条件的规范化因子,λ θ是模型参数的规范化 因子,α是权重系数。5. 根据权利要求1所述的基于高阶用户偏好的推荐方法,其特征在于,步骤S5中所述 计算预测成对偏好对偏好指标的梯度和预测物品相异度对偏好指标的梯度,并更新所述协 同过滤模型的参数的步骤包括: 计算预测成对偏好对偏好指标的梯度和预测物品相异度对偏好指标的梯度然后按下式更新模型的参数其中Θ是模型的参数,γη、λ,Ρ λ "是预先设定好的系数。6. 根据权利要求1所述的基于高阶用户偏好的推荐方法,其特征在于,步骤S6中所述 计算预测评分对评分指标的梯度,并更新所述协同过滤模型的参数的步骤包括: 计算预测评分对评分指标的梯度,然后按下式更新模型的参数其中Θ是模型的参数,^和λ 1是预先设定好的系数。7. 根据权利要求1所述的基于高阶用户偏好的推荐方法,其特征在于,步骤S7中所述 直到协同过滤模型的参数收敛的条件为经过多次迭代直到所述协同过滤模型的RMSE指标 值提1?小于.OOL
【专利摘要】一种基于高阶用户偏好的推荐方法,包括:利用用户-物品评分数据集,计算用户对成对物品的高阶偏好值,构建用户-物品-物品成对偏好数据集;初始化模型,从正态分布中随机选取值对模型初始化;从评分数据集和成对偏好数据集中选择相关数据;计算误差和用户偏好相似度,构成最优化准则;计算偏好指标梯度,更新模型;重复步骤直到模型参数收敛。本发明方法由OPTRP最优化准则和LearnRP学习算法组成,通过学习可以产生已有CF模型,且还可产生新模型,能有效地处理高度偏斜的评分数据集,使得推荐系统的预测精度和推荐准确度都得到提高,在真实场景中有重要的应用价值。
【IPC分类】G06F17/30
【公开号】CN105069140
【申请号】CN201510511083
【发明人】王亮, 谭铁牛, 吴书, 刘强
【申请人】中国科学院自动化研究所
【公开日】2015年11月18日
【申请日】2015年8月19日
当前第2页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1