用于推送信息的方法和装置与流程

文档序号:13760447阅读:227来源:国知局
用于推送信息的方法和装置与流程

本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及用于推送信息的方法和装置。



背景技术:

目前,搜索页面的后台服务器通常会将历史问题中的相似问题进行聚类,之后根据聚类结果提取出最时新和最优质的问题和答案,在用户搜索问题的答案时进行优先展示,也即向用户推送最时新和最优质的问题和答案。

在将历史问题中的相似问题进行聚类时,可以将问题的文本转化为词向量或特征向量,之后根据词向量或特征向量的相似度聚类文本;或者利用自然语言处理技术或机器学习技术获取文本的高级语义特征,之后根据高级语义特征的相似度聚类文本。

然而,目前的根据聚类结果向用户推送信息的方法,若采用根据词向量或特征向量聚类的方法,则存在语义缺失的问题,聚类结果的召回率低;若采用根据高级语义特征聚类的方法,由于高级语义特征通常为高维数组或浮点数数组,则相似度计算的效率较低。因此,目前的向用户推送信息的方法存在语义缺失或计算效率较低的问题。



技术实现要素:

本申请的目的在于提出一种改进的用于推送信息的方法和装置,来解决以上背景技术部分提到的技术问题。

第一方面,本申请提供了一种用于推送信息的方法,所述方法包括:获取历史推送信息;将所述历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据;编码所述隐层输出数据,得到编码数据;聚类具有相同编码数据的历史推送信息,得到历史推送信息簇;响应于所述历史推送信息簇中历史推送信息的数量小于预定阈值,基于所述历史推送信息簇,向用户推送信息。

在一些实施例中,所述编码所述隐层输出数据,得到编码数据包括:一次编码所述隐层输出数据,得到初步编码数据;二次编码所述初步编码数据,得到二次编码数据;以及所述聚类具有相同编码数据的历史推送信息,得到历史推送信息簇包括:聚类具有相同二次编码数据的历史推送信息,得到历史推送信息簇。

在一些实施例中,所述方法还包括:响应于所述历史推送信息簇中历史推送信息的数量大于或等于预定阈值,根据预设规则调整所述二次编码的编码参数以提高压缩率,并执行所述二次编码所述初步编码数据,得到二次编码数据步骤。

在一些实施例中,所述一次编码包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据;和/或所述二次编码包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。

在一些实施例中,所述根据预设规则调整所述二次编码的编码参数以提高压缩率包括:根据预设规则增加所述采样的采样点以提高压缩率。

在一些实施例中,所述基于历史推送信息簇,向用户推送信息包括以下一项或多项:向用户推送所述历史推送信息簇中距离当前时间的时长小于预定时长的历史推送信息;向用户推送所述历史推送信息簇中评分高于预定分值的历史推送信息;删除预设时间之前的历史推送信息;以及删除评分低于预设阈值的历史推送信息。

在一些实施例中,所述基于历史推送信息簇,向用户推送信息包括以下一项或多项:向用户推送所述历史推送信息簇中距离当前时间的时长小于预定时长且评分高于预定分值的历史推送信息;删除预设时间之前且评分低于预设阈值的历史推送信息。

第二方面,本申请提供了一种用于推送信息的装置,所述装置包括:信息获取单元,用于获取历史推送信息;数据获取单元,用于将所述历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据;数据编码单元,用于编码所述隐层输出数据,得到编码数据;信息聚类单元,聚类具有相同编码数据的历史推送信息,得到历史推送信息簇;信息推送单元,用于响应于所述历史推送信息簇中历史推送信息的数量小于预定阈值,基于所述历史推送信息簇,向用户推送信息。

在一些实施例中,所述数据编码单元包括:初步编码子单元,用于一次编码所述隐层输出数据,得到初步编码数据;二次编码子单元,用于二次编码所述初步编码数据,得到二次编码数据;以及所述信息聚类单元包括:信息聚类子单元,用于聚类具有相同二次编码数据的历史推送信息,得到历史推送信息簇。

在一些实施例中,所述装置还包括:参数调整单元,用于响应于所述历史推送信息簇中历史推送信息的数量大于或等于预定阈值,根据预设规则调整所述二次编码子单元用于二次编码的编码参数以提高压缩率,并调用所述二次编码子单元以二次编码所述初步编码数据,得到二次编码数据。

在一些实施例中,所述初步编码子单元中的一次编码包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据;和/或所述二次编码子单元中的二次编码包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。

在一些实施例中,所述参数调整单元进一步用于:根据预设规则增加所述采样的采样点以提高压缩率。

在一些实施例中,所述信息推送单元进一步用于以下一项或多项:向用户推送所述历史推送信息簇中距离当前时间的时长小于预定时长的历史推送信息;向用户推送所述历史推送信息簇中评分高于预定分值的历史推送信息;删除预设时间之前的历史推送信息;以及删除评分低于预设阈值的历史推送信息。

在一些实施例中,所述信息推送单元进一步用于以下一项或多项:向用户推送所述历史推送信息簇中距离当前时间的时长小于预定时长且评分高于预定分值的历史推送信息;删除预设时间之前且评分低于预设阈值的历史推送信息。

本申请提供的用于推送信息的方法和装置,通过获取历史推送信息,而后将历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据,之后编码隐层输出数据,得到编码数据,之后聚类具有相同编码数据的历史推送信息,得到历史推送信息簇,最后响应于历史推送信息簇中历史推送信息的数量小于预定阈值,基于历史推送信息簇,向用户推送信息,兼顾了聚类的效率和聚类结果的精度,从而提高了推送信息的效率和针对性。

附图说明

通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:

图1是本申请可以应用于其中的示例性系统架构图;

图2是根据本申请的用于推送信息的方法的一个实施例的示意性流程图;

图3是根据本申请的用于推送信息的方法的又一个实施例的示意性流程图;

图4是根据本申请的用于推送信息的方法的第三个实施例的示意性流程图;

图5是根据本申请的用于推送信息的装置的一个实施例的示例性结构图;

图6是适于用来实现本申请实施例的终端设备或服务器的计算机系统的结构示意图。

具体实施方式

下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。

图1示出了可以应用本申请的用于推送信息的方法或用于推送信息的装置的实施例的示例性系统架构100。

如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105、106。网络104用以在终端设备101、102、103和服务器105、106之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

用户110可以使用终端设备101、102、103通过网络104与服务器105、106交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、搜索引擎类应用、购物类应用、即时通信工具、邮箱客户端、社交平台软件等。

终端设备101、102、103可以是具有显示屏并且支持搜索功能的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。

服务器105、106可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对接收到的请求等数据进行分析等处理,并将处理结果(例如推送的用户感兴趣目标)反馈给终端设备。

需要说明的是,本申请实施例所提供的用于推送信息的方法一般由服务器105、106执行,相应地,用于推送信息的装置一般设置于服务器105、106中。

应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

继续参考图2,示出了根据本申请的用于推送信息的方法的一个实施例的流程200。所述的用于推送信息的方法,包括以下步骤:

步骤201,获取历史推送信息。

在本实施例中,用于推送信息的方法运行于其上的电子设备(例如图1所示的服务器),可以在接收用户端发送的问题搜索请求之前或接收用户端发送的问题搜索请求之时,获取历史推送信息。这里的历史推送信息可以为获取历史推送信息之前一段时间内向用户推送的信息,例如获取历史推送信息之前一段时间内向用户推送的问题及其答案。

步骤202,将所述历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据。

在本实施例中,深度学习模型是一种含多隐层的多层感知器,通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。这里的深度学习模型,可以为现有技术或未来发展的技术中的深度学习模型,本申请对此不做限定。在将步骤201中获取的历史推送信息输入深度学习模型后,可以得到深度学习模型的隐层输出数据。

在本实施例的一些可选实现方式中,深度学习模型可以包括循环神经网络模型、卷积神经网络模型和递归神经网络模型中的任意一项。

这里的循环神经网络模型(RNN,Recurrent Neural Networks),会对前面的信息进行记忆并应用于当前输出的计算中,隐藏层之间的节点是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。卷积神经网络模型(CNN,Convolutional Neural Network)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,可以包括卷积层和池化层。递归神经网络模型(recursive neural network),与循环神经网络模型的训练算法不同,但属于同一算法的不同变体,主要利用相似的神经网络结构递归构造更为复杂的深度网络。需要说明的是,上述循环神经网络模型、卷积神经网络模型和递归神经网络模型是目前广泛研究和应用的公知技术,在此不再赘述。

步骤203,编码所述隐层输出数据,得到编码数据。

在本实施例中,编码是指对隐层输出数据进行编码得到编码数据,这里的编码是指从一种形式或格式转换为另一种形式的过程,可以包括以下一项或多项:降维,是指对输入数据进行数据约简,也即降低输入数据的维度,从而得到输出数据;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。这里的降维至少可以包括以下任意一项:线性降维、基于核函数的非线性降维和基于特征值的非线性降维。

这里的编码,可以为现有技术或未来发展的技术中的编码方式,本申请对此不做限定。

步骤204,聚类具有相同编码数据的历史推送信息,得到历史推送信息簇。

在本实施例中,基于步骤203中得到的编码数据,可以将具有相同编码数据的历史推送信息聚类,得到多个历史推送信息簇,也即得到具有相同二次编码数据的历史推送信息的集合。

步骤205,响应于所述历史推送信息簇中历史推送信息的数量小于预定阈值,基于所述历史推送信息簇,向用户推送信息。

在本实施例中,基于步骤204中得到的历史推送信息簇,若历史推送信息簇中的历史推送信息的数量小于预定阈值,则表示压缩率较合适,可以基于该历史推送信息簇中历史推送信息的相似度,向用户推送信息。

在本实施例的一些可选实现方式中,基于历史推送信息簇,向用户推送信息可以包括以下一项或多项:向用户推送历史推送信息簇中距离当前时间的时长小于预定时长的历史推送信息;向用户推送历史推送信息簇中评分高于预定分值的历史推送信息;删除预设时间之前的历史推送信息;以及删除评分低于预设阈值的历史推送信息。

在这里,向用户推送历史推送信息簇中距离当前时间的时长小于预定时长的历史推送信息,可以保证推送信息的时效性。向用户推送历史推送信息簇中评分高于预定分值的历史推送信息,可以确保推送信息为优质信息。删除预设时间之前的历史推送信息,以及删除评分低于预设阈值的历史推送信息,可以将历史推送信息库中的时间较久或评分较低的历史推送信息删除,以提高聚类效率,从而提高推送信息的效率。

应当理解,这里的预定分值可以为预设的用于筛选历史推送信息的分值,可以根据问题及其答案的各项参数确定,例如可以根据用户评分、点赞数、专家评分以及回答者身份认证等其中的一项或多项确定。

在本实施例的一些可选实现方式中,基于历史推送信息簇,向用户推送信息包括以下一项或多项:向用户推送历史推送信息簇中距离当前时间的时长小于预定时长且评分高于预定分值的历史推送信息;删除预设时间之前且评分低于预设阈值的历史推送信息。

在这里,向用户推送历史推送信息簇中距离当前时间的时长小于预定时长且评分高于预定分值的历史推送信息,可以提高推送信息的时效性和质量。删除预设时间之前且评分低于预设阈值的历史推送信息,可以提高向用户推送信息的效率。

本申请的上述实施例提供的方法通过兼顾聚类精度和聚类效率,实现了高效且富于针对性的信息推送。

继续参考图3,示出了根据本申请的用于推送信息的方法的又一个实施例的流程300。所述的用于推送信息的方法,包括以下步骤:

步骤301,获取历史推送信息。

在本实施例中,用于推送信息的方法运行于其上的电子设备(例如图1所示的服务器),可以在接收用户端发送的问题搜索请求之前或接收用户端发送的问题搜索请求之时,获取历史推送信息。这里的历史推送信息可以为获取历史推送信息之前一段时间内向用户推送的信息,例如获取历史推送信息之前一段时间内向用户推送的问题及其答案。

步骤302,将历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据。

在本实施例中,深度学习模型是一种含多隐层的多层感知器,通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。这里的深度学习模型,可以为现有技术或未来发展的技术中的深度学习模型,本申请对此不做限定。在将步骤301中获取的历史推送信息输入深度学习模型后,可以得到深度学习模型的隐层输出数据。

在本实施例的一些可选实现方式中,深度学习模型可以包括循环神经网络模型、卷积神经网络模型和递归神经网络模型中的任意一项。

步骤303,一次编码隐层输出数据,得到初步编码数据。

在本实施例中,一次编码是指对隐层输出数据进行编码得到初步编码数据,这里的编码是指从一种形式或格式转换为另一种形式的过程。这里的一次编码,通常压缩率较高,可以为现有技术或未来发展的技术中的编码方式,本申请对此不做限定。

在本实施例的一些可选实现方式中,一次编码可以包括以下一项或多项:降维,是指对输入数据进行数据约简,也即降低输入数据的维度,从而得到输出数据;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。例如,在一个具体的编码场景中,可以在将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据之后,再将布尔向量格式的输出数据作为卷积的输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据,再采样或截取池化卷积后的输出数据,从而得到最终输出数据。

步骤304,二次编码初步编码数据,得到二次编码数据。

在本实施例中,二次编码是指对于步骤303中得到的初步编码数据进行编码,得到二次编码数据。这里的编码可以为现有技术或未来发展的技术中的编码方式,本申请对此不做限定。

在这里,二次编码与一次编码所采用的编码方式可以相同,例如一次编码和二次编码均采用卷积和池化的编码方式;二次编码与一次编码所采用的编码方式也可以不同,例如一次编码采用卷积和池化的编码方式,而二次编码采用采样的编码方式。

在本实施例的一些可选实现方式中,二次编码可以包括以下一项或多项:降维,是指对输入数据进行数据约简,也即降低输入数据的维度,从而得到输出数据;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。

步骤305,聚类具有相同二次编码数据的历史推送信息,得到历史推送信息簇。

在本实施例中,基于步骤304中得到的二次编码数据,可以将具有相同二次编码数据的历史推送信息聚类,得到多个历史推送信息簇,也即得到具有相同二次编码数据的历史推送信息的集合。

步骤306,响应于历史推送信息簇中历史推送信息的数量小于预定阈值,基于历史推送信息簇,向用户推送信息。

在本实施例中,基于步骤305中得到的历史推送信息簇,若历史推送信息簇中的历史推送信息的数量小于预定阈值,则表示压缩率较合适,可以基于该历史推送信息簇中历史推送信息的相似度,向用户推送信息。

应当理解,参考图3描述的方法中的步骤301、302以及306分别与参考图2描述的方法中的步骤201、202以及205相对应。由此,上文针对步骤201、202以及205描述的操作和特征同样适用于步骤301、302以及306,在此不再赘述。

本申请的上述实施例提供的方法通过兼顾聚类精度和聚类效率,实现了高效且富于针对性的信息推送。

请参考图4,图4是根据本实施例的用于推送信息的方法的第三个实施例的流程示意图。

在图4中,所述的用于推送信息的方法400,包括以下步骤:

在步骤401中,获取历史推送信息,之后执行步骤402。

在本实施例中,用于推送信息的方法运行于其上的电子设备(例如图1所示的服务器),可以在接收用户端发送的问题搜索请求之前或接收用户端发送的问题搜索请求之时,获取历史推送信息。这里的历史推送信息可以为获取历史推送信息之前一段时间内向用户推送的信息,例如获取历史推送信息之前一段时间内向用户推送的问题及其答案。

在步骤402中,将历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据,之后执行步骤403。

在本实施例中,深度学习模型是一种含多隐层的多层感知器,通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。这里的深度学习模型,可以为现有技术或未来发展的技术中的深度学习模型,本申请对此不做限定。在将步骤401中获取的历史推送信息输入深度学习模型后,可以得到深度学习模型的隐层输出数据。

在本实施例的一些可选实现方式中,深度学习模型可以包括循环神经网络模型、卷积神经网络模型和递归神经网络模型中的任意一项。

在步骤403中,一次编码隐层输出数据,得到初步编码数据,之后执行步骤404。

在本实施例中,降维是指对步骤402中获取的隐层输出数据进行数据约简,也即降低隐层输出数据的维度;一次编码是指对隐层输出数据进行编码得到初步编码数据,这里的编码是指从一种形式或格式转换为另一种形式的过程。这里的一次编码,通常压缩率较高,可以为现有技术或未来发展的技术中的编码方式,本申请对此不做限定。

在本实施例的一些可选实现方式中,一次编码可以包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。

在步骤404中,二次编码初步编码数据,得到二次编码数据,之后执行步骤405。

在本实施例中,二次编码是指对于步骤403中得到的初步编码数据进行编码,得到二次编码数据。这里的编码可以为现有技术或未来发展的技术中的编码方式,本申请对此不做限定。

在本实施例的一些可选实现方式中,二次编码可以包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。

在步骤405中,聚类具有相同二次编码数据的历史推送信息,得到历史推送信息簇,之后执行步骤406。

在本实施例中,基于步骤404中得到的二次编码数据,可以将具有相同二次编码数据的历史推送信息聚类,得到多个历史推送信息簇,也即得到具有相同二次编码数据的历史推送信息的集合。

在步骤406中,判断历史推送信息簇中历史推送信息的数量是否小于预定阈值,若是,则执行步骤407,若否,则执行步骤408。

在本实施例中,预定阈值是指预先确定的历史推送信息簇中可以高效且高精度进行两两相似度计算的历史推送信息的数量。在这里,通过判断历史推送信息簇中历史推送信息的数量是否小于预定阈值,可以确定历史推送信息簇中的历史推送信息能否进行高效且高精度的两两相似度计算。

在步骤407中,响应于历史推送信息簇中历史推送信息的数量小于预定阈值,基于历史推送信息簇,向用户推送信息。

在本实施例中,基于步骤406中得到的历史推送信息簇中的历史推送信息的数量小于预定阈值,则表示压缩率较为合适,可以高效且高精度进行两两相似度计算,从而基于该历史推送信息簇中历史推送信息的相似度,向用户推送信息。

在步骤408中,响应于历史推送信息簇中历史推送信息的数量大于或等于预定阈值,根据预设规则调整二次编码的编码参数以提高压缩率,之后执行步骤404。

在本实施例中,基于步骤406中得到的历史推送信息簇中的历史推送信息的数量大于或等于预定阈值,则表示压缩率较小,进行两两相似度计算的效率较低且精度较低,因此可以考虑提高压缩率后重新进行二次编码,以期得到历史推送信息的数量较为合适的历史推送信息簇,从而可以高效且高精度进行两两相似度计算。

应当理解,参考图4描述的方法中的步骤401至步骤405分别与参考图3描述的方法中的步骤301至步骤305相对应。由此,上文针对步骤301至步骤305描述的操作和特征同样适用于步骤401至步骤405,在此不再赘述。

从图4中可以看出,与图3对应的实施例相比,本实施例中的用于推送信息的方法的流程400突出了对历史推送信息簇中历史推送信息的数量是否小于预定阈值进行判断,若小于根据预设规则调整二次编码的编码参数以提高压缩率,以及跳转至二次编码的步骤。由此,本实施例描述的方案可以动态修正历史推送信息簇中历史推送信息的数量,从而实现更为准确和更为高效的推送信息。

进一步参考图5,作为对上述方法的实现,本申请提供了一种用于推送信息的装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。

如图5所示,本实施例所述的用于推送信息的装置500包括:信息获取单元510、数据获取单元520、数据编码单元530、信息聚类单元540和信息推送单元550。

其中,信息获取单元510,用于获取历史推送信息。数据获取单元520,用于将历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据。数据编码单元530,用于编码隐层输出数据,得到编码数据。信息聚类单元540,用于聚类具有相同编码数据的历史推送信息,得到历史推送信息簇。信息推送单元550,用于响应于历史推送信息簇中历史推送信息的数量小于预定阈值,基于历史推送信息簇,向用户推送信息。

这里的深度学习模型可以包括以下任意一项:循环神经网络模型、卷积神经网络模型和递归神经网络模型。

在本实施例的一些可选实现方式中,数据编码单元530包括:初步编码子单元531,用于一次编码隐层输出数据,得到初步编码数据;二次编码子单元532,用于二次编码初步编码数据,得到二次编码数据;以及信息聚类单元540包括:信息聚类子单元541,用于聚类具有相同二次编码数据的历史推送信息,得到历史推送信息簇。

在本实施例的一些可选实现方式中,装置还包括:参数调整单元560,用于响应于历史推送信息簇中历史推送信息的数量大于或等于预定阈值,根据预设规则调整二次编码子单元用于二次编码的编码参数以提高压缩率,并调用二次编码子单元以二次编码初步编码数据,得到二次编码数据。该可选实现方式与图4所示的方法实施例相对应。

在本实施例的一些可选实现方式中,初步编码子单元中的一次编码包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据;和/或二次编码子单元中的二次编码包括以下一项或多项:降维;将浮点数向量格式的输入数据映射到1和0,得到布尔向量格式的输出数据;卷积输入数据,并池化卷积后的输入数据,得到池化卷积后的输出数据;以及采样或截取输入数据,得到采样或截取后的输出数据。这里的降维至少可以包括以下任意一项:线性降维、基于核函数的非线性降维和基于特征值的非线性降维。

在本实施例的一些可选实现方式中,参数调整单元进一步用于:根据预设规则增加采样的采样点以提高压缩率。

在本实施例的一些可选实现方式中,信息推送单元进一步用于以下一项或多项:向用户推送历史推送信息簇中距离当前时间的时长小于预定时长的历史推送信息;向用户推送历史推送信息簇中评分高于预定分值的历史推送信息;删除预设时间之前的历史推送信息;以及删除评分低于预设阈值的历史推送信息。

在本实施例的一些可选实现方式中,信息推送单元进一步用于以下一项或多项:向用户推送历史推送信息簇中距离当前时间的时长小于预定时长且评分高于预定分值的历史推送信息;删除预设时间之前且评分低于预设阈值的历史推送信息。

应当理解,参考图5描述的装置中的单元510至550分别与图2中描述的方法的步骤201至步骤205相对应,子单元531和子单元532分别与图3中描述的步骤303和步骤304相对应,单元510至单元560分别与图4中描述的方法的步骤401至步骤408相对应。由此,上文针对步骤201至步骤205描述的操作和特征同样适用于单元510至单元550,上文针对步骤303和步骤304描述的操作和特征同样适用于子单元531和子单元532,上文针对步骤401至步骤408描述的操作和特征同样适用于单元510至单元560,在此不再赘述。

从图5中可以看出,本实施例中的用于推送信息的方法的装置500在对历史推送信息的深度学习模型的隐层输出数据进行初步编码和二次编码的基础上,响应于历史推送信息簇中历史推送信息的数量小于预定阈值,基于历史推送信息簇推送信息。由此,本实施例可以兼顾聚类精度和聚类效率,从而实现高效且富于针对性的信息推送。

进一步地,在部分实现方式中,用于推送信息的方法的装置500响应于历史推送信息簇中历史推送信息的数量大于或等于预定阈值,根据预设规则调整二次编码的编码参数以提高压缩率,以及跳转至重新执行二次编码。由此,本实施例描述的方案可以动态修正历史推送信息簇中历史推送信息的数量,从而实现更为准确和更为高效的推送信息。

在本申请的上述实施例中,一次编码及二次编码仅代表两次编码的源数据和输出数据不同,两次编码可以选取相同的编码方式,也可以选取不同的编码方式。本领域技术人员应当理解,其中的一次或二次并不构成对编码的特殊限定。

同理,在本申请的上述实施例中,初步编码数据及二次编码数据仅代表一次编码的输出数据和二次编码的输出数据。本领域技术人员应当理解,其中的初步或二次并不构成对编码数据的特殊限定。

下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机系统600的结构示意图。

如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的

程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。

以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口606。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。

附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个单元、程序段、或代码的一部分,所述单元、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括接信息获取单元、数据获取单元、数据编码单元、信息聚类单元和信息推送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“获取历史推送信息的单元”。

作为另一方面,本申请还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中所述装置中所包含的非易失性计算机存储介质;也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当所述一个或者多个程序被一个设备执行时,使得所述设备:获取历史推送信息;将历史推送信息输入深度学习模型,获取深度学习模型的隐层输出数据;编码隐层输出数据,得到编码数据;聚类具有相同编码数据的历史推送信息,得到历史推送信息簇;响应于历史推送信息簇中历史推送信息的数量小于预定阈值,基于历史推送信息簇,向用户推送信息。

以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1