一种文案生成方法及装置与流程

文档序号:18143602发布日期:2019-07-10 11:21阅读:738来源:国知局
一种文案生成方法及装置与流程

本申请涉及数据处理技术领域,特别涉及一种文案生成方法及装置。



背景技术:

当前互联网广告市场发展迅速,尤其以社交媒体、精选媒体和新闻app等信息流广告市场份额的增长极为突出,预计今后的市场份额将持续增长。随之而来的广告制作量也将不断增加。为了向目标受众有效传递符合受众需求的广告信息,需要人工大量制作快速且多样化的文案创意内容。这样导致文案和创意人员的工作量不断增加,因此,文字广告领域的人工智能化和自动化已然成为当下不可回避的紧迫课题。

因此,现有技术中亟需一种智能化的文案生成方法,在保证文案与对象之间的匹配度的前提下,降低制作广告文案的成本。



技术实现要素:

本申请实施例的目的在于提供一种文案生成方法及装置,可以快速生成目标产品的广告文案。

本申请实施例提供的文案生成方法及装置具体是这样实现的:

一种文案生成方法,所述方法包括:

获取产品描述信息;

利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词,其中,所述深度神经网络模型组件根据多个历史产品描述信息以及所述历史产品描述信息的历史广告文案训练得到;

基于所选的文案描述词,构建生成所述产品描述信息的广告文案。

一种文案生成方法,所述方法包括:

获取产品描述信息;

利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词,其中,所述深度神经网络模型组件根据多个历史产品描述信息以及所述历史产品描述信息的历史广告文案训练得到;

基于所选的文案描述词,构建生成所述产品描述信息的多个广告文案。

一种文案生成装置,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:

获取产品描述信息;

利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词,其中,所述深度神经网络模型组件根据多个历史产品描述信息以及所述历史产品描述信息的历史广告文案训练得到;

基于所选的文案描述词,构建生成所述产品描述信息的广告文案。

一种文案生成装置,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:

获取产品描述信息;

利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词,其中,所述深度神经网络模型组件根据多个历史产品描述信息以及所述历史产品描述信息的历史广告文案训练得到;

基于所选的文案描述词,构建生成所述产品描述信息的多个广告文案。

本申请提供的文案生成方法及装置,可以对多个历史产品描述信息以及所述历史产品描述信息的历史广告文案进行深度学习,构建深度神经网络模型组件。这样,可以直接利用所述深度神经网络模型组件快速地生成目标产品的广告文案,相对于现有技术来说,可以节省大量的人力成本。此外,一方面,对于用户客户端来说,还可以加快展示产品的广告文案,另一方面,通过对大量历史数据的深度学习,利用所述深度神经网络模型组件获取的广告文案也更加符合用户的需求,提升用户的体验感。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是利用本申请技术方案中对历史产品描述信息进行深度学习的示意图;

图2是本申请提供的利用seq2seq对生成目标产品广告文案的示意图;

图3是本申请提供的文案生成方法的一种实施例的流程示意图;

图4是本申请提供的利用seq2seq对历史产品描述信息进行深度学习的示意图;

图5是本申请提供的利用seq2seq对历史产品描述信息进行深度学习的示意图;

图6是本申请提供的利用seq2seq对历史产品描述信息进行深度学习的示意图;

图7是本申请提供的文案生成装置的一种实施例的模块结构示意图。

具体实施方式

为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。

基于类似于上文描述的技术需求,本申请提供的广告文案生成技术可以摆脱人工大量编写文案的过程。基于多个历史产品描述信息和历史广告文案对,对所述多个历史产品描述信息和历史广告文案对进行深度神经网络学习,训练得到深度神经网络模型组件。利用训练得到的深度神经网络模型组件构建产品描述信息的广告文案,不仅可以快速生成产品的广告文案,还可以保证广告文案的准确性和用户需求的匹配度。

下面通过一个具体的应用场景说明本实施例方法的具体实施方式。

本实施例中,可以利用深度神经网络模型组件对多个历史产品描述信息以及所述历史产品于是标签的历史广告文案进行深度学习,以不断地优化所述深度神经网络模型组件,最终使得所述深度神经网络模型组件达到预设要求(如损失函数的值不大于预设阈值等)。由于提供的多个历史产品描述信息以及所述历史产品描述信息的历史广告文案蕴含着某些要求或者规律,在一些实施例中,所述历史广告文案需要具有产生一定的产品访问率,即将该广告文案展示给用户之后,有超过一定数量的用户访问了该产品信息,如点击、收藏、产生交易等等。表1是部分历史产品描述信息与其历史广告文案对照表,如表1所示,产品描述信息“现代简约纯棉四件套全棉床品1.8米/1.5米床卡通4件套床单被套”对应的广告文案为“让你爱上裸睡的床品”,产品描述信息“原创设计2017春宽松圆领长袖卫衣+不对称长裤运动套装女”对应的广告文案为“运动套装,让你尽情释放运动活力”。当然,在其他实施例中,上述数据不仅可以从电子商务等平台的历史数据中获取,还可以根据人工经验编写,对于数据的来源,本申请在此不做限制。

表1产品描述信息与历史广告文案对照表

下面非限制性地以深度神经网络模型组件中的序列对序列(sequencetosequence,简称seq2seq)模型组件为例,说明如何利用seq2seq模型组件对表1中第二个产品原始产品描述信息与历史广告文案进行深度学习的过程。在其他实施例中,还可以利用pointernetwork、pointergenerator等模型组件对数据进行深度学习,对此,本申请在此不做限制。如图1所示,基本的seq2seq模型组件具有编码器部分和解码器部分,所述编码器部分和所述解码器部分均可由循环神经网络(rnn)组成。在编码器部分,可以将输入的序列转化成固定长度的上下文语义向量。对应地,在解码器部分,可以将所述上下文语义向量作为所述解码器部分的输入数据,生成输出序列。如图1所示,在seq2seq模型组件的编码器部分,输入数据可以包括由“原创设计2017春宽松圆领长袖卫衣+不对称长裤运动套装女”中各个描述词的词向量组成的序列{x1,x2,x3,…,x12},其中,x1对应于描述词“原创”的词向量,x2对应于描述词“设计”的词向量,依此类推。图1中的h1-h12可以分别表示为分别对应于所述x1-x12的隐藏向量,隐藏向量中设置有训练参数。编码器在获取到序列{x1,x2,x3,…,x12}之后,可以对该序列处理生成上下文向量c,所述上下文向量c可以由上述隐藏向量中的最后一个隐藏向量(即h12)变换得到。当然,在其他实施例中,所述上下文向量c还可以由h1-h12中任意的一个或者多个变换得到,本申请对此不做限制。如图1所示,各个隐藏向量均与其前一个隐藏向量具有关联关系,因此,最后一个隐藏向量h12可以包含前面所有隐藏向量的信息,即上下文向量c中可以包含序列{x1,x2,x3,…,x12}中的所有信息。

如图1所示,在解码器部分,可以将所述上下文向量c输入至所述解码器,同样地,所述解码器中可以包含循环神经网络模型组件,所述循环神经网络模型组件中可以包括h’1、h’2、h’3、h’4等多个隐藏向量。所述解码器可以将对所述上下文向量c进行变换,生成输出序列。理想状态下,所述解码器的输出序列为“运动套装,让你尽情释放运动活力”中各个描述词词向量组成的序列。但是在实际情况下,输出序列与历史广告文案并不相匹配,因此,需要调整编码器和解码器中各个隐藏向量中的训练参数,直至输出序列与所述历史广告文案相匹配。

下面再通过如图2所示的一个示例说明如何运用上述训练得到的seq2seq模型组件获取产品的广告文案。商家小m需要在店铺网站首页上展示某新款连衣裙的广告文案,为此,小m可以通过电商平台客户端进行广告文案的自动生成。如图2所示,小m可以在客户端中输入连衣裙的图片、产品描述信息、标签等信息,其中,连衣裙的产品描述信息为“y牌2017新款春装女装韩版修身显瘦真丝连衣裙a字裙有大码”,标签为“韩版”、“修身”、“真丝”等。本示例中,所述客户端或者与所述客户端连接的服务器端设置有图2中的训练完后的seq2seq模型组件,因此,可以利用所述seq2seq模型组件生成所述连衣裙的广告文案。如图2所示,利用所述seq2seq模型组件可以生成多个广告文案:“舒适优雅,属于你的高端美”、“享受宠爱自己的感觉”、“我喜欢你穿上它的样子”等等。与上述处理过程相似,可以从连衣裙的产品描述信息中提取至少一个产品描述词,所述产品描述词可以包括“y牌”、“2017”、“新款”、“春装”、“女装”、“韩版”、“修身”、“显瘦”、“真丝”、“连衣裙”、“a字裙”、“有大码”。上述产品描述词转换成词向量之后,以序列的方式输入至编码器中,所述编码器在生成上下文向量c之后,将所述上下文向量c发送至解码器中。如图4所示,所述解码器根据训练完成的隐藏向量,计算得到上述多个广告文案。其中,所述隐藏向量中包含训练参数,所述训练参数已经在对所述seq2seq模型组件训练的阶段训练完成。需要说明的是,在生成所述广告文案的过程中,从所述seq2seq模型组件中输出的是由多个单个文案描述词组成的文案描述词序列,那么,在本实施例中,可以将得到的文案描述词词输入至语言模型中进行处理,生成符合预设语言规则的广告文案。其中,具体的处理方式可以包括语言平滑处理、去除冗余信息处理等等。

在生成所述广告文案之后,可以结合广告文案图文编辑工具将所述广告文案展示于小m的客户端上。如图2所示,可以将多个广告文案展示于客户端的用户界面上,用户可以根据个人的喜好进行选择。另外,所述广告文案图文编辑工具还可以提供多个图文样式供用户选择。所述广告文案图文编辑工具可以将用户选择的广告文案以及图文样式自动编辑成如图2所示的展示界面。如图2所示,小m选择了广告文案“舒适优雅,属于你的高端美”以及图文样式1,所述广告文案图文编辑工具可以将图文样式1中预设的用于展示广告文案的位置填充上所述广告文案。当然,所述图文样式1上还可以展示除广告文案以外的信息,如标题“真丝连衣裙”、副标题“春款上新”等,还可以展示其他用户自定义的营销信息等,对此不做限制。

需要说明的是,所述客户端在获取到用户小m最终选取的广告文案之后,可以将所述广告文案作为历史数据反馈至所述seq2seq模型组件中,以供所述seq2seq模型组件进行深度学习。例如,小m最终将“舒适优雅,属于你的高端美”作为该连衣裙的广告文案,那么,在对所述seq2seq模型组件进行训练的过程中,可以将“y牌2017新款春装女装韩版修身显瘦真丝连衣裙a字裙有大码”作为历史产品描述信息,“舒适优雅,属于你的高端美”作为历史广告文案进行后续的深度学习。

下面结合附图3对本申请所述的文案生成方法进行详细的说明。图3是本申请提供的文案生成方法的一种实施例的方法流程图。虽然本申请提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑性上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。所述方法在实际中的文案生成过程中或者装置执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。

如图3所示,所述文案生成方法可以包括下述步骤:

s301:获取产品描述信息;

s303:利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词,其中,所述深度神经网络模型组件根据多个历史产品描述信息以及所述历史产品描述信息的历史广告文案训练得到;

s305:基于所选的文案描述词,构建生成所述产品描述信息的广告文案。

在本实施例中,可以利用深度神经网络模型组件对历史数据进行训练,下面非限制性地以深度神经网络模型组件中的序列对序列(sequencetosequence,简称seq2seq)模型组件举例说明。在本实施例中,所述历史数据可以包括多个历史产品描述信息以及所述历史产品描述信息的历史广告文案。本实施例中,所述历史产品描述信息可以包括所述产品的产品详细描述信息、标题信息、标签信息等等。在一个示例中,所述历史广告文案可以包括从海量历史数据中选取的具有较高召回率的历史广告文案,即对某个历史产品描述信息构建生成的广告文案经过展示之后,得到较高的用户访问率,所述用户访问率例如可以包括用户的点击率、收藏率、交易率等。当然,在其他实施例中,所述历史广告文案可以包括具有其他根据人工经验设置的文案,本申请在此不做限制。

本实施例中,seq2seq模型组件可以将一个序列转化成另一个序列,所述序列可以用向量表示,本实施例中,所述序列可以由产品描述信息中的多个产品描述词组成。seq2seq模型组件具有编码器和解码器部分,所述编码器部分和所述解码器部分可分别由循环神经网络(rnn)组成。在编码器部分,可以将输入的序列转化成具有固定长度的上下文语义向量。对应地,在解码器部分,可以将所述固定长度的上下文语义向量作为所述解码器部分的输入数据,生成一个输出序列。基于上述理论,在本申请的一个实施例中,可以从所述历史产品描述信息中提取至少一个产品描述词,并将所述至少一个产品描述词构成历史产品描述词序列。在构成所述历史产品描述词序列的过程中,可以将所述描述词转换成词向量,由所述产品描述词的词向量组成所述历史产品描述词序列。例如,所述seq2seq模型组件从某连衣裙的历史产品描述信息“y牌2017新款春装女装韩版修身显瘦真丝连衣裙a字裙有大码”提取由“y牌”、“2017”、“新款”、“春装”、“女装”、“韩版”、“修身”、“显瘦”、“真丝”、“连衣裙”、“a字裙”、“有大码”等12个描述词的词向量组成的历史产品描述词序列。根据对历史数据的统计发现,将上述历史产品描述信息构建生成文案“舒适优雅,属于你的高端美”之后,该连衣裙得到较高的用户访问率,如有很多用户点击该产品信息、收藏该产品信息或者对该产品产生交易。因此,可以将“舒适优雅,属于你的高端美”设置为对应于“y牌2017新款春装女装韩版修身显瘦真丝连衣裙a字裙有大码”的历史广告文案。对该历史广告文案进行文案描述词提取,得到包括“舒适”、“优雅”、“属于”、“你的”、“高端”、“美”等6个文案描述词词向量的广告文案。

本实施例中,如图4所示,将所述历史产品描述词序列“y牌”、“2017”、“新款”、“春装”、“女装”、“韩版”、“修身”、“显瘦”、“真丝”、“连衣裙”、“a字裙”、“有大码”作为seq2seq模型组件编码器的输入数据。如图4所示,x1-x12可以分别表示为上述历史产品描述词序列中12个产品描述词的词向量,h1-h12可以分别表示为分别对应于所述x1-x12的隐藏向量。如图3所示,可以将所述历史产品描述词序列变换成一个上下文向量c。所述上下文向量c可以由上述隐藏向量中的最后一个隐藏向量(即h12)变换得到。当然,在其他实施例中,所述上下文向量c还可以由h1-h12中任意的一个或者多个变换得到,本申请对此不做限制。

本实施例中,在获取到上下文向量c之后,如图5所示,可将所述上下文向量c输入至seq2seq模型组件的解码器中。解码器在获取到上下文向量c,可以利用另一个rnn对所述上下文向量c进行转换,生成y1-y6的输出序列。在理想状态下,希望所述y1-y6的输出序列正是历史文案描述词序列“舒适”、“优雅”、“属于”、“你的”、“高端”、“美”对应的文案描述词词向量序列。当然,在实际情况下,输出序列y1-y6与历史文案描述词序列难以完全匹配。此时,可以调整各个隐藏向量(包括编码器和解码器中的隐藏向量)中的训练参数。重复上述步骤,直至解码器中可以输出与重建描述词序列完全匹配的输出序列。

本申请提供的文案生成方法,可以对多个历史产品描述信息以及所述历史产品描述信息的历史广告文案进行深度学习,构建深度神经网络模型组件。这样,可以直接利用所述深度神经网络模型组件快速地生成目标产品的广告文案,相对于现有技术来说,可以节省大量的人力成本。另外,一方面,对于用户客户端来说,还可以加快展示产品的广告文案,另一方面,通过对大量历史数据的深度学习,利用所述深度神经网络模型组件获取的广告文案也更加符合用户的需求,提升用户的体验感。

由上述可知,在进行编码过程中,可以将历史产品描述信息对应的历史产品描述词序列转化成具有固定长度的上下文语义向量,所述上下文向量由最后一个描述词对应的隐藏向量变换得到。那么,可以认为所述上下文向量与所述历史产品描述词序列中的最后一个描述词的关联程度比较大,而与之前的描述词之间的关联程度较小。另外,在实际解码的过程中,随着文案描述词词向量的不断输出,文案描述词向量与历史产品描述词序列中各个产品描述词之间的关联程度也在改变。为了使得所述seq2seq模型组件更专注于找到所述历史产品描述词序列中显著的与当前文案描述词向量相关的有用信息,本申请的一个实施例中,还可以在所述seq2seq模型组件中增加注意力机制(attention机制)。在attention机制中,可以在解码的过程中,每进行一步,计算一次输出的文案词向量与历史产品描述词序列中各个产品描述词词向量之间的关联程度值。本实施例中,当某个产品描述词词向量与输出的文案词向量的关联程度越大(即关联程度值越大)时,可以增加对应的产品描述词词向量的权重值,以提高对该产品描述词的注意力,所述权重值具体可以体现在计算下一个文案描述词词向量的过程中。如图6所示,当计算得到y1为“舒适”时,根据attention机制,分别计算“舒适”分别与所述历史产品描述词序列“y牌”、“2017”、“新款”、“春装”、“女装”、“韩版”、“修身”、“显瘦”、“真丝”、“连衣裙”、“a字裙”、“有大码”中每个产品描述词词向量之间的关联程度,所述关联程度可以包括词向量之间的距离。根据图3所示的直方图,可以发现,“舒适”与上述产品描述词中的“真丝”之间的关联程度值最大,即在进行下一步解码并获取下一个文案描述词词向量时,可以更加考虑“真丝”。通过将上述关联程度值添加至隐藏向量中,可以影响到隐藏向量的输出,即提高输出序列的输出质量。

在一些实际的应用场景中,所述产品描述信息中的一些实体信息需要完整地展示于广告文案中,如产品的品牌名、人名、地名、商标、日期等信息。例如,对于品牌名迈克·科尔斯(英文名为michaelkors),如果在进行广告文案生成的过程中,解码器输出品牌名中的文案描述词“迈克”,那么,为了保证输出品牌名称的完整性,理论上所述解码器输出的下一个文案描述词为“科尔斯”。基于此,在本申请的一个实施例中,为了保证上述场景下一些固定信息的完整性,可以利用复制(copying)机制。具体地,在复制机制中,可以计算解码器输出的下一个文案描述词是复制的还是自行生成,具体可以通过复用概率和生成概率进行判断,当所述复用概率大于所述生成概率时,可以确定下一个输出的文案描述词为复制生成。例如,针对上述举例,在计算文案描述词“迈克”的下一个文案描述词时,可以得到复用概率大于生成概率,即可以从产品描述信息中复制“迈克”的下一个产品描述词“科尔斯”作为解码器输出的下一个文案描述词,以保证输出的完整性。在本实施例中,在对所述seq2seq模型组件进行训练之后,还需要对所述模型组件进行测试。可以发现,进行训练的过程中,具有已知的输入历史产品描述词序列和输出历史文案描述词序列,而在测试过程中,没有已知的输出序列,这种现象可以导致训练和测试过程在解码部分存在不同的参数依赖。也就是说,在训练过程中,解码过程的输入词是前一个输出描述词的期望输出(即已知的输出词向量),而在测试阶段则是前一个输出描述词的预测输出,导致训练和测试阶段对输入依赖分布不一致。因此,在本申请的一个实施例中,可以采用退火训练方法对所述seq2seq模型组件进行训练。例如在利用dad(dataasdemonstrator)进行退火训练的过程中,可以随机选择输入词是前一个词的期望输出或者预测输出,刚开始用历史广告文案对应的描述词序列训练这个模型,随着训练的深入,逐渐减小历史广告文案对应的描述词序列训练的概率,直至最后模型完全不需要历史广告文案对应的描述词序列。当然,在其他实施例中,还可以采用xent(最小化交叉熵的序列生成)、xenttoxent等多种退火训练方法对所述seq2seq模型组件进行训练,以解决训练和测试过程在解码部分存在不同的参数依赖的问题。

在本申请的一个实施例中,还可以对生成的广告文案进行字数限制。具体地,可以在对所述seq2seq模型组件进行训练的过程中,在解码部分设置文案结束标识,如标识符<\eos>,如限制广告文案的长度为10字,则可以在10字处设置所述文案结束标识。在设置所述文案结束标识之后,可以在进行解码的过程中,计算当前输出词向量与所述文案结束标识之间的距离,实时监控当前广告文案的字数是否超出限制。

当然,不仅仅可以利用深度神经网络对产品的标题、标签及历史广告文案进行深度学习,还可以对产品的详细描述信息及历史广告文案进行深度学习。所述产品详细描述信息可以包括产品简介、产品详情介绍等等。在具体处理过程中,产品简介和产品详情介绍中往往包含比产品标题、标签更丰富的信息。在一个示例中,某装饰画的产品描述信息为“品牌:xx映画、幅数:三联以上、画芯材质:油画布、装裱方式:有框、外框材质:金属、颜色分类:a款-连香树叶b款-虎皮兰c款-虎皮兰d款-镜面草e款-龟背叶f款-梧桐叶g款-金星蕨h款-芭蕉叶i款-银边圆叶南洋参j款-云杉叶、风格:简约现代、工艺:喷绘、组合形式:独立单幅价格、图片形式:平面、图案:植物花卉、尺寸:40*60cm50*70cm60*90cm、外框类型:浅木色铝合金框黑色铝合金框、货号:0739”,并根据对用户历史数据的统计,设置所述装饰画的产品描述信息所对应的历史广告文案为“极简风格,回归简单生活”。此后,可以利用与上述实施例相同的方式对所述产品详细描述信息以及所述历史广告文案进行深度学习。需要说明的是,在选择与所述产品描述信息相匹配的描述词的过程中,可以去除产品描述信息中的冗余信息,并从所述产品描述信息中提取具有实际意义的关键词,如品牌词、材质描述词、核心词等等。例如,对于上述装饰画的产品描述信息,可以提取的描述词可以包括“三联”、“油画布”、“有框”、“金属外框”、“喷绘”、“平面”、“植物花卉”、“铝合金”等等。

本申请另一方面还提供一种文案生成装置,图7是本申请提供的文案生成装置的一种实施例的模块结构示意图,如图7所示,所述文案生成装置可以包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:

获取产品描述信息;

利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词,其中,所述深度神经网络模型组件根据多个历史产品描述信息以及所述历史产品描述信息的历史广告文案训练得到;

基于所选的文案描述词,构建生成所述产品描述信息的广告文案。

可选的,在本申请的一个实施例中,所述深度神经网络模型组件可以被设置为按照下述方式训练得到:

获取多个历史产品描述信息以及所述历史产品描述信息的历史广告文案;

构建深度神经网络模型组件,所述深度神经网络模型组件中设置有训练参数;

利用所述多个历史产品描述信息以及所述历史广告文案之间的对应关系对所述深度神经网络模型组件进行训练,调整所述训练参数,直至所述深度神经网络模型组件达到预设要求。可选的,在本申请的一个实施例中,所述分别利用所述多个历史产品描述信息以及所述历史广告文案之间的对应关系对所述深度神经网络模型组件进行训练可以包括:

从所述历史产品描述信息中提取至少一个产品描述词,构成历史产品描述词序列;

从所述历史广告文案中提取至少一个文案描述词,构成历史文案描述词序列;

将所述历史产品描述词序列作为所述深度神经网络模型组件的输入数据、所述历史文案描述词序列为输出数据,调整所述训练参数,直至所述深度神经网络模型组件达到预设要求。

可选的,在本申请的一个实施例中,所述深度神经网络模型组件可以包括下述中的一种:序列对序列(sequencetosequence,seq2seq)模型组件、序列对序列及注意机制(seq2seq及attention机制)模型组件。

可选的,在本申请的一个实施例中,所述利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词可以包括:

从所述产品描述信息中提取出至少一个产品描述词,

将所述产品描述词转换成产品描述词词向量,并构成所述产品描述信息对应的产品描述词词向量序列;

将所述产品描述词词向量序列输入至深度神经网络模型组件中,通过将所述产品描述词词向量序列与所述训练参数进行计算,得到至少一个文案描述词。

可选的,在本申请的一个实施例中,所述将所述产品描述词词向量序列输入至深度神经网络模型组件中,通过将所述产品描述词词向量序列与所述训练参数进行计算,得到至少一个文案描述词可以包括:

将所述产品描述词词向量序列与所述训练参数进行计算,生成单个文案描述词词向量;

分别计算所述文案描述词词向量与所述产品描述词词向量之间的关联程度值;

根据所述关联程度值分别设置所述产品描述词词向量的权重值,所述权重值用于计算下一个文案描述词词向量。可选的,在本申请的一个实施例中,所述seq2seq及attention机制模型组件包括编码器和解码器,所述分别利用所述多个历史产品描述信息以及所述历史广告文案之间的对应关系对所述深度神经网络模型组件进行训练包括:

获取所述解码器生成的输出描述词以及与所述输出描述词相匹配的历史产品描述词;

计算所述输出描述词的复用概率和生成概率;

当所述复用概率大于所述生成概率时,将所述历史产品描述词的下一个描述词作为所述解码器的下一个输出描述词。

可选的,在本申请的一个实施例中,所述基于所选的文案描述词,构建生成所述产品描述信息的广告文案包括:

将所选的文案描述词输入至语言模型中进行处理,生成符合预设语言规则的广告文案。

可选的,在本申请的一个实施例中,在所述构建生成所述产品描述信息的广告文案之后,所述方法还包括:

展示所述广告文案。

本实施例还提供文案生成装置的另一种实施例,所述装置可以包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:

获取产品描述信息;

利用深度神经网络模型组件选择与所述产品描述信息相匹配的文案描述词,其中,所述深度神经网络模型组件根据多个历史产品描述信息以及所述历史产品描述信息的历史广告文案训练得到;

基于所选的文案描述词,构建生成所述产品描述信息的多个广告文案。

可选的,在本申请的一个实施例中,所述处理器在实现步骤构建生成所述产品描述信息的多个广告文案之后,还可以包括:

展示所述多个广告文案;

获取用户对所述多个广告文案的操作行为;

将所述操作行为反馈至所述深度神经网络模型组件中进行深度学习。

虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。

本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。

本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。

通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。

本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的电子设备、网络pc、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。

虽然通过实施例描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的权利要求包括这些变形和变化而不脱离本申请的精神。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1