一种基金推荐方法与流程

文档序号:25421917发布日期:2021-06-11 21:33阅读:78来源:国知局
一种基金推荐方法与流程

【技术领域】

本发明涉及金融风险管控技术领域,尤其涉及一种基金推荐方法。



背景技术:

近十几年来理财产品在我国发展迅猛,其中以表转化程度最高的公募基金产品来说,目前为止,已超过100多家基金公司,6000多只基金产品,资产规模超过8万亿元,并形成了多种类型的基金产品,比如股票基金、债券基金、货币基金、fof基金等。从基金市场历史业绩上看,大多数基金有较好年度收益,但大部分消费者没能在基金市场获利,原因在于对基金产品缺乏专业系统的分析,难以从众多基金产品中筛选出优质基金。

现有的基金推荐系统对基金推荐不合理,也不客观,且常受到利益相关方的影响,因此,无法保证投资者的切身利益。



技术实现要素:

有鉴于此,本发明实施例提供了基金推荐方法。

本发明实施例提供了基金推荐方法,所述方法包括:

s1、建立基于主题板块的基金分类表,获取预设时间段内基金的第一参数,并根据初筛函数从基金分类表中选取初筛基金,并将初筛基金对应的基金标识填充至初筛基金表;

s2、根据预设的数据采集清单确定数据源平台,从数据源平台获取预设时间段内初筛基金表中基金的特征数据,对特征数据进行预处理并基于语义判断模型分类生成第二参数;

s3、基于第二参数计算初筛基金表中基金的优质度q,将优质度q>优质度阈值q0的基金对应的基金标识填充至基金推荐表;

s4、建立并训练基于基金操作策略的深度强化学习模型,利用训练好的深度强化学习模型对基金推荐表的目标基金的操作策略进行预测;

s5、将预测的操作策略作为投资建议添加到基金推荐表,将基金推荐表推荐给用户。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一参数包括:访问量、持有人数和净值。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述初筛函数定义为:

其中,f(x)表示初筛函数,αi表示预设时间段内第x个主题板块中第i个基金的访问量平均值,α0表示根据实际情况设定的访问量阈值;βi表示预设时间段内第x个主题板块中第i个基金的持有人数平均值,β0表示根据实际情况设定的持有人数阈值;γi表示预设时间段内第x个主题板块中第i个基金的净值平均值,γ0表示根据实际情况设定的净值阈值;nx表示第x个主题板块的基金的数量;w1,w2,w3表示权重,满足w1,w2,w3∈[0,1]且w1+w2+w3=1;

从每个主题板块中选取初筛函数f(x)的值最大的m个基金作为初筛基金。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述初筛基金表中基金的特征数据包括:基金提及数据、基金评论数据、基金评论点赞数据,基金经理提及数据,基金经理评论数据、基金经理评论点赞数据。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对特征数据进行预处理,具体包括:

为获取的基金的特征数据设置预处理优先级,其中,文字评论为第一优先级,语音评论为第二优先级,图片评论为第三优先级;

第一优先级处理:判断文字评论与好评词库是否匹配,若匹配成功,则判断文字评论对应的评论ip重合度是否超出重合度阈值,若超出,则放弃评论ip所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第二优先级处理;

第二优先级处理:将语音评论转化为文字评论,判断文字评论与好评词库是否匹配,若匹配成功,则判断文字评论对应的评论ip重合度是否超出重合度阈值,若超出,则放弃评论ip所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第三优先级处理;

第三优先级处理:判断图片评论中相同图片的数量是否超出数量阈值,若未超出数量阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记;若超出数量阈值,则进一步判断图片评论的ip重合度是否超出重合度阈值,若超出重合度阈值,则放弃超出重合度阈值的评论ip所有潜在好评标记,若未超出重合度阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述基于语义判断模型分类生成第二参数,具体包括:

对基金的特征数据进行预处理后生成好评倾向标识;

构建语义判断模型,其构建方法如下:

建立最优奖励模型:其中,e表示期望值,λ表示折现因子,λ∈[0,1];s0表示初始状态,r表示奖励函数,π(st)表示将状态映射到操作的策略;

定义q函数:其中,πi表示根据等式确定q值的当前策略,r表示函数,λ表示折现因子,p(s,a,s*)表示动作a从状态s转移到s*的转移概率,tπi表示迭代步骤i得到的奖励;

新策略的迭代更新如下:

π(i+1)(s)=argmaxq(s,a),定义ε-贪婪行为策略,采用ε-贪婪行为策略来确定当前状态的行为,其中,每个动作都是以一些预定义的固定概率随机选择的。

q值通过学习迭代逼近最优策略的获取;

通过语义判断模型对携带好评倾向标识的特征数据进行强化学习以生成好评分类结果。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述优质度q的计算公式如下:

其中,q表示优质度,p1表示基金的好评数,m1表示基金的提及数,c1表示基金好评的点赞数,p2表示基金对应基金经理的好评数,m2表示基金对应基金经理的提及数,c2表示基金对应基金经理好评的点赞数,t表示以天为单位的时间;k1,k2表示调节系数,满足k1,k2∈[0,1]且k1+k2=1。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述建立并训练基于基金操作策略的深度强化学习模型,具体包括:

获取多支基金历史操作策略数据,求和并求平均值进行输入,对基金操作策略进行预测,建立其对应的马尔可夫决策过程模型,动作用a表示,其包括买入、卖出和保持,状态用s表示,其为由行为策略生成的基金价格信息,奖励用r表示,其为状态变化时,投资组合价值的变化;

训练数据,不断更新值函数vπ(s,a),直到值函数vπ(s,a)收敛,得到最优值函数v*(s,a);

最优值函数v*(s,a)用公式表示如下:

其中,v*(s,a)表示最优值函数,s′∈s表示状态实例,a∈a表示动作实例,γ表示折扣因子,r表示奖赏函数,指定了奖赏,p表示转移函数,指定了状态转移概率;

基于上述最优值函数v*(s,a),最优策略π*(s)可得:

其中,π*(s)表示最优策略,psa(s′,a)表示状态s采取动作a到下一状态s′的转移概率,a∈a表示动作实例,γ表示折扣因子;

采用递归神经网络来作为q值的网络,参数为θ;

ht=f(u×xt+w×ht-1+b1),

qt=f(v×ht-1+b2),

l=qt-yt

其中,ht表示t时刻的隐藏状态,ht-1表示t-1时刻的隐藏状态,qt表示当前层在时刻t的输出,l表示误差,xt表示t时刻输入的训练数据,yt表示训练数据的原始输出,训练数据的原始输出,f表示隐藏层的激活函数,u、w和v表示递归神经网络共享的权值,b1和b2表示递归神经网络共享的阈值;

在q值中定义损失函数l(θ);

采用批量梯度下降的方法对递归神经网络参数进行训练,随着训练次数的不断增加,通过网络输出的q值选择q值最大的动作,并最终收敛到最优策略;

更新周期内,将预先分为测试集的历史操作策略数据,用来测试的训练好的模型。

如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述损失函数l(θ)用公式表示如下:

其中,l(θ)表示损失函数,r表示奖励值,θ和θ′表示神经网络权值,表示目标q函数值,q(s,a,θ)表示预测q函数值,γ表示折扣因子。

上述技术方案中的一个技术方案具有如下有益效果:

本发明实施例的方法中提出了基金推荐方法,通过初筛函数从基金分类表中选取初筛基金,可初步为投资者过滤出活跃度更高、增长潜力更大的基金,获取基于基金和基金经理双指标的二次评价标准,筛选出优质度q符合要求的基金向用户推荐;以深度强化学习模型对基金推荐表的目标基金的操作策略进行预测,附带基金的操作建议,预测的准确性高,可以为用户提供投资指导,尤其是新手用户;推荐方法智能合理公正,可以筛选高价值的基金推荐给客户,提高客户投资体验,可解决现有的基金推荐系统对基金推荐不合理和功利性,因此,可以更好的保证投资者的切身利益。

【附图说明】

为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。

图1是本发明实施例所提供的基金推荐方法的s1-s5的流程示意图;

图2是本发明实施例所提供的对特征数据进行预处理的流程示意图。

【具体实施方式】

为使本发明的目的、技术方案和优点更加清楚,下面将结合具体实施例及相应的附图对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参考图1,图1是基金推荐方法s1-s5的流程示意图。如图1所示,该方法包括以下步骤:

s1、建立基于主题板块的基金分类表,获取预设时间段内基金的第一参数,并根据初筛函数从基金分类表中选取初筛基金,并将初筛基金对应的基金标识填充至初筛基金表。其中,第一参数包括:访问量、持有人数和净值。

s2、根据预设的数据采集清单确定数据源平台,从数据源平台获取预设时间段内初筛基金表中基金的特征数据,对特征数据进行预处理并基于语义判断模型分类生成第二参数。其中,初筛基金表中基金的特征数据包括:基金提及数据、基金评论数据、基金评论点赞数据,基金经理提及数据,基金经理评论数据、基金经理评论点赞数据。

s3、基于第二参数计算初筛基金表中基金的优质度q,将优质度q>优质度阈值q0的基金对应的基金标识填充至基金推荐表。

s4、建立并训练基于基金操作策略的深度强化学习模型,利用训练好的深度强化学习模型对基金推荐表的目标基金的操作策略进行预测。

s5、将预测的操作策略作为投资建议添加到基金推荐表,将基金推荐表推荐给用户。

本发明建立基于主题板块基金推荐,方便投资者快速查找基金,也有利于基金的初步接触者快速对基金了解;通过初筛函数从基金分类表中选取初筛基金,可初步为投资者过滤出活跃度更高、增长潜力更大的基金;然后在初筛的基础上,基于第二参数计算初筛基金表中基金的优质度q,将优质度q>优质度阈值q0的基金对应的基金标识填充至基金推荐表,分析基金的特征数据,获取基于基金和基金经理双指标的二次评价标准,筛选出优质度q符合要求的基金向用户推荐;另外,建立并训练基于基金操作策略的深度强化学习模型,利用训练好的深度强化学习模型对基金推荐表的目标基金的操作策略进行预测,实现在向用户推荐基金的同时,以强化学习模型对基金推荐表的目标基金的操作策略进行预测,附带基金的操作建议,可以为用户提供投资指导,尤其是新手用户。本发明的基金推荐方法智能合理公正,可以筛选高价值的基金推荐给客户,提高客户投资体验,可解决现有的基金推荐系统对基金推荐不合理和功利性,因此,可以更好的保证投资者的切身利益。

本发明实施例的初筛函数定义为:

其中,f(x)表示初筛函数,αi表示预设时间段内第x个主题板块中第i个基金的访问量平均值,α0表示根据实际情况设定的访问量阈值;βi表示预设时间段内第x个主题板块中第i个基金的持有人数平均值,β0表示根据实际情况设定的持有人数阈值;γi表示预设时间段内第x个主题板块中第i个基金的净值平均值,γ0表示根据实际情况设定的净值阈值;nx表示第x个主题板块的基金的数量;w1,w2,w3表示权重,满足w1,w2,w3∈[0,1]且w1+w2+w3=1;

从每个主题板块中选取初筛函数f(x)的值最大的m个基金作为初筛基金。

请参考图2,其为图2是本发明实施例对特征数据进行预处理的流程示意图。如图2所示,该方法包括以下步骤:

所述对特征数据进行预处理,具体包括:

为获取的基金的特征数据设置预处理优先级,其中,文字评论为第一优先级,语音评论为第二优先级,图片评论为第三优先级;

第一优先级处理:判断文字评论与好评词库是否匹配,若未匹配成功,则直接进入第二优先级处理;若匹配成功,则判断文字评论对应的评论ip重合度是否超出重合度阈值,若超出,则放弃评论ip所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第二优先级处理;

第二优先级处理:将语音评论转化为文字评论,判断文字评论与好评词库是否匹配,若未匹配成功,则直接进入第三优先级处理;若匹配成功,则判断文字评论对应的评论ip重合度是否超出重合度阈值,若超出,则放弃评论ip所有潜在好评标记;若未超出,则进行潜在好评标记,则进入第三优先级处理;

第三优先级处理:判断图片评论中相同图片的数量是否超出数量阈值,若未超出数量阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若未匹配成功,则直接终止;若匹配成功,则进行潜在好评标记;若超出数量阈值,则进一步判断图片评论的ip重合度是否超出重合度阈值,若超出重合度阈值,则放弃超出重合度阈值的评论ip所有潜在好评标记,若未超出重合度阈值,识别图片评论中文字评论,则进一步判断文字评论与好评词库是否匹配,若匹配成功,则进行潜在好评标记。

本发明实施例通对特征数据文字评论、语音评论、图片评论为第三优先级预处理,可以全面获取评论数据,使得系统对基金和基金经理判断更加准确。另外,通过判断评论ip重合度以及图片评论中相同图片的数量,可以高效剔除水军,使得数据更加真实准确。提前进行潜在好评标记,可减少语义判断模型的任务处理量,并进一步提高语义判断模型分类的准确性。

其中,基于语义判断模型分类生成第二参数,具体包括:

对基金的特征数据进行预处理后生成好评倾向标识;

构建语义判断模型,其构建方法如下:

建立最优奖励模型:其中,e表示期望值,λ表示折现因子,λ∈[0,1];s0表示初始状态,r表示奖励函数,π(st)表示将状态映射到操作的策略;

定义q函数:其中,πi表示根据等式确定q值的当前策略,r表示函数,λ表示折现因子,p(s,a,s*)表示动作a从状态s转移到s*的转移概率,tπi表示迭代步骤i得到的奖励;

新策略的迭代更新如下:

π(i+1)(s)=argmaxq(s,a),定义ε-贪婪行为策略,采用ε-贪婪行为策略来确定当前状态的行为,其中,每个动作都是以一些预定义的固定概率随机选择的。

q值通过学习迭代逼近最优策略的获取;

通过语义判断模型对携带好评倾向标识的特征数据进行强化学习以生成好评分类结果。

本发明实施例语义判断模型可实现对好评的准确分类,在训练完基于rl的算法后,实现以较高的置信度对好评与其他评论进行了分类,模型鲁棒性好,可以高效准确的从基金的特征数据提取第二参数。

本发明实施例的优质度q的计算公式如下:

其中,q表示优质度,p1表示基金的好评数,m1表示基金的提及数,c1表示基金好评的点赞数,p2表示基金对应基金经理的好评数,m2表示基金对应基金经理的提及数,c2表示基金对应基金经理好评的点赞数,t表示以天为单位的时间;k1,k2表示调节系数,满足k1,k2∈[0,1]且k1+k2=1。

优质度q的计算公式可以建立从基金和基金经理双指标的二次评价标准,并基于对数函数建立时间衰减模型,高效准确选取靠谱的基金和基金经理。

本发明实施例的建立并训练基于基金操作策略的深度强化学习模型,具体包括:

获取多支基金历史操作策略数据,求和并求平均值进行输入,对基金操作策略进行预测,建立其对应的马尔可夫决策过程模型,动作用a表示,其包括买入、卖出和保持,状态用s表示,其为由行为策略生成的基金价格信息,奖励用r表示,其为状态变化时,投资组合价值的变化;

训练数据,不断更新值函数vπ(s,a),直到值函数vπ(s,a)收敛,得到最优值函数v*(s,a);

最优值函数v*(s,a)用公式表示如下:

其中,v*(s,a)表示最优值函数,s′∈s表示状态实例,a∈a表示动作实例,γ表示折扣因子,r表示奖赏函数,指定了奖赏,p表示转移函数,指定了状态转移概率;

基于上述最优值函数v*(s,a),最优策略π*(s)可得:

其中,π*(s)表示最优策略,psa(s′,a)表示状态s采取动作a到下一状态s′的转移概率,a∈a表示动作实例,γ表示折扣因子;

采用递归神经网络来作为q值的网络,参数为θ;

ht=f(u×xt+w×ht-1+b1),

qt=f(v×ht-1+b2),

l=qt-yt

其中,ht表示t时刻的隐藏状态,ht-1表示t-1时刻的隐藏状态,qt表示当前层在时刻t的输出,l表示误差,xt表示t时刻输入的训练数据,yt表示训练数据的原始输出,训练数据的原始输出,f表示隐藏层的激活函数,u、w和v表示递归神经网络共享的权值,b1和b2表示递归神经网络共享的阈值。

本发明实施例的递归神经网络具有很好的感知能力和特征提取能力,其关键方面是实际特征的表示,一层又一层的自学习,以及限制参数空间的稀疏约束,防止过拟合。

在q值中定义损失函数l(θ);

采用批量梯度下降的方法对递归神经网络参数进行训练,随着训练次数的不断增加,通过网络输出的q值选择q值最大的动作,并最终收敛到最优策略;

更新周期内,将预先分为测试集的历史操作策略数据,用来测试的训练好的模型。

本发明实施例的损失函数l(θ)用公式表示如下:

其中,l(θ)表示损失函数,r表示奖励值,θ和θ′表示神经网络权值,表示目标q函数值,q(s,a,θ)表示预测q函数值,γ表示折扣因子。

本发明实施例构建的深度强化学习模型用于递归q网络,基于rnn的组合特征处理和基于dqn的自实验分析实现自我探索和经验回放进行预测,深度强化学习模型预测对基金预测准确,模型鲁棒性好。

本领域技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。

本发明中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

以上所述仅为本发明的实施例而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1