基于人工智能的资源组合优化方法、装置及存储介质与流程

文档序号:11251504阅读:1338来源:国知局
基于人工智能的资源组合优化方法、装置及存储介质与流程

【技术领域】

本发明涉及计算机应用技术,特别涉及基于人工智能的资源组合优化方法、装置及存储介质。



背景技术:

人工智能(artificialintelligence),英文缩写为ai。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

在feed流、搜索产品等场景中,资源组合优化问题是一个很常见也很重要的问题。

比如,在feed流场景中,在每次向用户推荐资源时,会展现一个资源组合(约20个新闻)给用户浏览,用户可点击其中感兴趣的部分。资源组合优化问题即指如何对这个资源组合进行优化,以使得最终的收益最大,如使得用户的点击次数最多。

现有技术中,通常采用以下方式来获取上述资源组合:

首先,利用一个打分模型(rankmodel)分别对各候选资源进行打分,从而分别获取到各候选资源的资源评分;

之后,按照预定规则分别对各候选资源进行排序,比如,可以按照资源评分由大到小的顺序对各候选资源进行排序,并利用排序后处于前20位的候选资源组成资源组合,展现给用户。

但是,这种方式在实际应用中会存在一定的问题,如:在得到各候选资源的资源评分后,基于人工设定的规则进行候选资源的筛选,以得到展现给用户的资源组合,而这个规则只是人工经验下的较优,并不是真正意义上的最优,从而使得展现给用户的资源组合不是最优的资源组合,进而降低了资源组合的收益。



技术实现要素:

有鉴于此,本发明提供了基于人工智能的资源组合优化方法、装置及存储介质,能够提升资源组合的收益。

具体技术方案如下:

一种基于人工智能的资源组合优化方法,包括:

训练得到基于强化学习思想的策略模型;

当需要生成资源组合时,分别获取各候选资源的资源评分;

根据各候选资源的资源评分以及所述策略模型,从各候选资源中选出m个候选资源组成所述资源组合,m为大于一的正整数。

一种基于人工智能的资源组合优化装置,包括:预处理单元以及优化单元;

所述预处理单元,用于训练得到基于强化学习思想的策略模型;

所述优化单元,用于当需要生成资源组合时,分别获取各候选资源的资源评分,根据各候选资源的资源评分以及所述策略模型,从各候选资源中选出m个候选资源组成所述资源组合,m为大于一的正整数。

一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。

一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。

基于上述介绍可以看出,采用本发明所述方案,可预先训练得到基于强化学习思想的策略模型,这样,当需要生成资源组合时,可根据各候选资源的资源评分以及策略模型,从各候选资源中选出m个候选资源,利用选出的候选资源组成所需的资源组合,相比于现有技术,本发明所述方案中利用通过机器学习得到的策略模型来进行候选资源的筛选,从而尽可能地保证了筛选结果的最优,进而提升了资源组合的收益。

【附图说明】

图1为本发明所述基于人工智能的资源组合优化方法实施例的流程图。

图2为本发明所述策略模型的设计方式示意图。

图3为本发明所述打分模型、策略模型以及评估模型之间的关系示意图。

图4为本发明所述基于人工智能的资源组合优化装置实施例的组成结构示意图。

图5示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。

【具体实施方式】

为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案作进一步地详细说明。

图1为本发明所述基于人工智能的资源组合优化方法实施例的流程图,如图1所示,包括以下具体实现方式:

在101中,训练得到基于强化学习思想的策略模型;

在102中,当需要生成资源组合时,分别获取各候选资源的资源评分;

在103中,根据各候选资源的资源评分以及策略模型,从各候选资源中选出m个候选资源组成资源组合,m为大于一的正整数。

可以看出,本实施例的实现主要包括两个部分,即模型训练及生成资源组合,以下分别进行详细介绍。

一)模型训练

本发明所述方案中主要涉及到三个模型,分别为打分模型(rankmodel)、策略模型(policymodel)以及评估模型(evaluationmodel)。

1)打分模型

打分模型的作用是为资源进行打分,从而得到资源评分。

打分模型可以是通过点方式(point-wise)、对方式(pair-wise)或者列表方式(list-wise)训练得到的模型。

打分模型可以是逻辑回归(lr,logisticregression)模型、梯度提升决策树(gbdt,gradientboostingdecisiontree)模型或深度神经网络(dnn,deepneuralnetwork)模型等。

打分模型在进行打分时,考虑了用户特征、资源本身的特征等底层特征。

用户特征可包括:用户的偏好信息、用户的历史点击信息等。

资源本身的特征可包括:资源的热度信息、资源的历史点击率信息等。

如何训练得到打分模型以及如何利用打分模型来对资源进行打分为现有技术。

2)评估模型

评估模型用于针对策略模型生成/产出的资源组合(按顺序排列的各资源),给出收益评分(reward),并可进一步给出预估指标,如资源组合的点击次数预估等。

评估模型是一个基于dnn的多目标的模型,是一个可以通过list-wise等训练得到的模型。

在实际应用中,为训练得到评估模型,需要首先收集到足够数量的训练样本,每个训练样本中可包括:过往实际展现给用户的一个资源组合以及用户对该资源组合中的各资源的点击情况等。

通过收集到的训练样本训练得到评估模型,这样,当后续每输入给评估模型一个资源组合时,评估模型即可预估出该资源组合中的各资源的点击情况等,进而可根据预估结果按照预定计算方式计算出一个收益评分,并可给出该资源组合的预估指标,如资源组合的点击次数预估等。

基于上述介绍,如何训练得到评估模型为现有技术,

3)策略模型

策略模型用于根据各候选资源生成资源组合。

即在对各候选资源进行筛选以得到所需的资源组合时,不再是规则式的,而是模型式的,通过策略模型,可产出每个候选资源被选中的概率,进而根据概率生成最终的资源组合。

策略模型是一个基于dnn的policynetwork,采用强化学习(reinforcementlearning)的思想。

图2为本发明所述策略模型的设计方式示意图,如图2所示,其中的特征(feature)可包括各候选资源的资源评分以及各候选资源的指定特征等,所述指定特征具体包括哪些内容可根据实际需要而定,如资源类别等。

在利用训练样本对策略模型进行训练的过程中,当策略模型每生成一个资源组合时,即可确定出资源组合的收益评分,并按照收益评分对策略模型的模型参数进行调整,直至达到收敛。

即利用收益评分来进行模型参数的调整,可循环以下过程:生成资源组合—>收益评分—>调整模型参数—>按照调整后的模型参数生成资源组合,直至达到收敛,即得到最优的模型参数。

基于上述介绍,如何训练得到策略模型为现有技术。

其中,确定出资源组合的收益评分即指:将资源组合输入给评估模型,得到评估模型给出的资源组合的收益评分。

基于1)、2)和3)中的介绍,图3为本发明所述打分模型、策略模型以及评估模型之间的关系示意图,如图3所示,打分模型可将得到的各候选资源的资源评分输入给策略模型,策略模型可根据资源评分等生成资源组合,并输入给评估模型以获取收益评分,进而可根据获取到的收益评分对策略模型的模型参数进行调整。

二)生成资源组合

当需要生成资源组合时,如在feed流场景下,当需要向用户展现一个资源组合供用户浏览时,可首先分别获取各候选资源的资源评分,之后根据各候选资源的资源评分以及策略模型,从各候选资源中选出m个候选资源组成资源组合,展现给用户,m为大于一的正整数,具体取值可根据实际需要而定。

具体地,针对每个候选资源,可分别将该候选资源的指定特征输入给打分模型,从而得到打分模型给出的该候选资源的资源评分,所述指定特征可包括前述的用户特征和资源本身的特征等。

之后,可将各候选资源的资源评分及各候选资源的指定特征输入给策略模型,得到策略模型给出的资源组合。

可以看出,相比于现有技术,本发明所述方案中利用通过机器学习得到的策略模型来进行候选资源的筛选,从而尽可能地保证了筛选结果的最优,进而提升了资源组合的收益。

而且,现有技术中,在对候选资源进行筛选时,仅考虑了单个资源的打分,未考虑彼此之间可能存在的关联关系,而本发明所述方案中,从资源组合的整体收益上进行考量,来进行候选资源的筛选,从而进一步提升了资源组合的收益。

在此基础上,还可将得到的资源组合发送给评估模型,得到评估模型给出的资源组合的收益评分,并且,还可进一步得到评估模型给出的资源组合的预估指标,如点击次数预估等。

现有技术中,只有当将资源组合展现给用户并且用户进行点击之后,才能得到资源组合的收益情况等信息,而采用本发明所述方案,可利用评估模型,直接获取到资源组合的收益评分以及预估指标等信息,从而使得信息的获取更加方便快捷。

以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。

图4为本发明所述基于人工智能的资源组合优化装置实施例的组成结构示意图,如图4所示,包括:预处理单元401以及优化单元402。

预处理单元401,用于训练得到基于强化学习思想的策略模型。

优化单元402,用于当需要生成资源组合时,分别获取各候选资源的资源评分,根据各候选资源的资源评分以及策略模型,从各候选资源中选出m个候选资源组成资源组合,m为大于一的正整数。

其中,预处理单元401在利用训练样本对策略模型进行训练的过程中,当策略模型每生成一个资源组合时,则确定出资源组合的收益评分,并按照收益评分对策略模型的模型参数进行调整,直至达到收敛。

预处理单元401可将资源组合输入给预先训练得到的评估模型,从而得到评估模型给出的资源组合的收益评分。

另外,预处理单元401还可预先训练得到打分模型。

这样,当需要生成资源组合时,优化单元402可首先针对每个候选资源,分别将候选资源的指定特征输入给打分模型,从而得到打分模型给出的候选资源的资源评分。

之后,优化单元402可将各候选资源的资源评分及各候选资源的指定特征输入给策略模型,从而得到策略模型给出的资源组合。

在此基础上,优化单元402还可将资源组合发送给评估模型,得到评估模型给出的资源组合的收益评分。

另外,优化单元402还可进一步得到评估模型给出的资源组合的预估指标,如点击次数预估等。

图4所示装置实施例的具体工作流程请参照前述方法实施例中的相应说明,不再赘述。

图5示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。图5显示的计算机系统/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

如图5所示,计算机系统/服务器12以通用计算设备的形式表现。计算机系统/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同系统组件(包括存储器28和处理器16)的总线18。

总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(isa)总线,微通道体系结构(mac)总线,增强型isa总线、视频电子标准协会(vesa)局域总线以及外围组件互连(pci)总线。

计算机系统/服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。

存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(ram)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如cd-rom,dvd-rom或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。

具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。

计算机系统/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口22进行。并且,计算机系统/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与计算机系统/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。

处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图1所示实施例中的方法,即训练得到基于强化学习思想的策略模型,当需要生成资源组合时,分别获取各候选资源的资源评分,根据各候选资源的资源评分以及策略模型,从各候选资源中选出m个候选资源组成所述资源组合,m为大于一的正整数。

其中,在利用训练样本对策略模型进行训练的过程中,当策略模型每生成一个资源组合时,则确定出资源组合的收益评分,并按照收益评分对策略模型的模型参数进行调整,直至达到收敛。

确定出资源组合的收益评分即指,将资源组合输入给预先训练得到的评估模型,得到评估模型给出的资源组合的收益评分。

具体实现请参照前述方法实施例中的相关说明,不再赘述。

本发明同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图1所示实施例中的方法。

可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。

计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、rf等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如”c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。

上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1