基于深度学习的零售商品销售预测方法与流程

文档序号:11262280阅读:2423来源:国知局

本发明包括人工智能、数据挖掘技术领域知识,具体涉及基于深度学习的零售商品销售预测方法。适用于各类零售企业,实现精准的销售预测,提升企业的业绩。

技术背景

随着互联网的飞速发展,传统行业经受着巨大的压力和挑战,线下零售业受到了网络零售的不断冲击。网购已逐步成为人们购买商品的主要方式,而且商品品类从大型家电、家具家私到居家用品、零食饮料应有尽有。许多电商企业更是根据用户的消费行为和商品的特点划分出各种细分领域,进行精细化的销售。传统的线下实体店消费模式正在转型升级,网络零售店也在汲取实体店的优势,不断创新。面对诸如“双十一”、“双十二”等的购物狂欢节,消费者的参与度空前火热。无论是线上零售企业还是线下零售企业都需要做好充分的准备,采取有效的应对措施。因此,零售企业迫切需要一种有效的方式来对未来的销售趋势进行精准预测,为决策提供可靠的支持。

由于商品销售除了受商品自身品质、市场供求关系等因素的影响,还跟诸如节假日效应、产品宣传与推广促销活动、同类型商家竞争布局等客观环境因素息息相关,这部分的变化往往是非线性和随机的,单纯使用线性模型很难预测出良好的结果。

因此,本发明研究零售商品的精准销售预测问题,挖掘出各种非线性因素对销售结果的影响,同时避免部分非线性模型容易陷入局部极小值、收敛速度慢的缺点,帮助企业进行高效、准确的预测销售趋势。本发明基于深度学习,构建随机森林的集成分类器销售预测模型。通过该方法科学合理的提高销售预测的精确性。



技术实现要素:

本发明要克服现有零售商品销售预测方法精确性差、计算效率低的缺点,提出基于深度学习的零售商品销售预测方法。通过随机森林多分类器的构建,。本方法能支持电商企业更好得开展个性化服务。

本发明提出的基于深度学习的零售商品销售预测方法,包括以下步骤:

1)数据预处理:对获取到的数据集中的缺失数据进行处理。首先对数据维度进行分析整理,删除对分类预测结果无作用的维度;然后对剩下的数据维度对应的数据进行清理,量化非结构化的数据,补充缺失值,例如某些服从正态分布的数据,可以采用均值进行填补。

2)构建随机森林的基分类器:随机森林是bagging算法和randomsubspace算法的组合,基本构成单元是决策树也就是基分类器。假设经过数据预处理后的集合d={(xi1,xi2,…,xim,yi)},i∈(1,n),其中n表示数据样本的个数,m表示数据的属性或者特征个数,y={yi}表示类别标签。本发明将构建cart决策树,组成随即森林的基分类器,该决策树使用基尼系数来选择划分属性,公式如下:

其中pi表示类别i数据样本占总数据样本量的比例,dj表示第j个数据样本的属性集合,a表示特征即gini(d,a)表示在特征a下的d集合,基尼系数越小,分类效果越好。

3)随机选择特征子集:在树的节点分裂时,随机无放回地选择子集,其中子集的大小远小于属性特征m。假设从m个特征中随机选择包含k个特征的子集,然后再从这个子集中选择一个最优属性用于划分。对该子集进行计算,选取最佳分类节点,最佳分类的选择公式依然为基尼系数。

通过该公式挑选出最佳属性作为最佳分裂属性,若属性值为离散的即可进行下一步分裂,为连续变量则需要再选取最佳分裂点。

4)预测零售商品的销售趋势:将得到的数据应用到训练好的随机森林上,单棵树的叶子节点实质是对训练集样本划分后的集合,预测结果由集合中的样本求均值得到,对每棵树的预测结果求均值就能得到森林的预测结果。

本发明基于深度学习的思想,采用随机森林方法预测零售商品的销售情况,通过基分类器构建和随机属性选择,提升商品销售趋势预测的精确性。

本发明的有益效果在于:

本发明有效地克服了传统零售商品销售预测的缺点,通过深度学习方法大大提高了销售预测的精确度,该方法具有良好的应用价值。

附图说明

图1是本发明方法的随机森林的基分类器的随机森林结构图。

具体实施方式

下面结合附图说明和具体实施方式对本发明做进一步详细说明。

本发明提出的基于深度学习的零售商品销售预测方法,包括以下步骤:

1)数据预处理:对获取到的数据集中的缺失数据进行处理。首先对数据维度进行分析整理,删除对分类预测结果无作用的维度;然后对剩下的数据维度对应的数据进行清理,量化非结构化的数据,补充缺失值,例如某些服从正态分布的数据,可以采用均值进行填补。

2)构建随机森林的基分类器:随机森林是bagging算法和randomsubspace算法的组合,基本构成单元是决策树也就是基分类器。假设经过数据预处理后的集合d={(xi1,xi2,…,xim,yi)},i∈(1,n),其中n表示数据样本的个数,m表示数据的属性或者特征个数,y={yi}表示类别标签。本发明将构建cart决策树,组成随即森林的基分类器,该决策树使用基尼系数来选择划分属性,公式如下:

其中pi表示类别i数据样本占总数据样本量的比例,dj表示第j个数据样本的属性集合,a表示特征即gini(d,a)表示在特征a下的d集合,基尼系数越小,分类效果越好。

3)随机选择特征子集:在树的节点分裂时,随机无放回地选择子集,其中子集的大小远小于属性特征m。假设从m个特征中随机选择包含k个特征的子集,然后再从这个子集中选择一个最优属性用于划分。对该子集进行计算,选取最佳分类节点,最佳分类的选择公式依然为基尼系数。

通过该公式挑选出最佳属性作为最佳分裂属性,若属性值为离散的即可进行下一步分裂,为连续变量则需要再选取最佳分裂点。

4)预测零售商品的销售趋势:将得到的数据应用到训练好的随机森林上,单棵树的叶子节点实质是对训练集样本划分后的集合,预测结果由集合中的样本求均值得到,对每棵树的预测结果求均值就能得到森林的预测结果。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1