虚拟物品的提示方法、装置、存储介质和电子装置与流程

文档序号:22328161发布日期:2020-09-25 17:58阅读:139来源:国知局
虚拟物品的提示方法、装置、存储介质和电子装置与流程

本发明涉及计算机领域,具体而言,涉及一种虚拟物品的提示方法、装置、存储介质和电子装置。



背景技术:

目前,虚拟物品的选择对竞技类游戏比赛的胜负影响很大。在向虚拟游戏角色提示虚拟物品时,通常是统计出对应虚拟游戏角色等级的虚拟物品,并将其提示该虚拟游戏角色。

但是,随着时间的进行,通过上述方法确定的虚拟物品无法适应游戏局势的变化,无法向虚拟游戏角色提示合理的虚拟物品,存在对虚拟物品进行提示的效率低的技术问题。

针对现有技术中对虚拟物品进行提示的效率低的技术问题,目前尚未提出有效的解决方案。



技术实现要素:

本发明的主要目的在于提供一种虚拟物品的提示方法、装置、存储介质和电子装置,以至少解决对虚拟物品进行提示的效率低的技术问题。

为了实现上述目的,根据本发明的一个方面,提供了一种虚拟物品的提示方法。该方法可以包括:获取虚拟游戏角色的第一局势信息,其中,第一局势信息为当前回合的局势信息;确定与虚拟游戏角色对应的神经网络模型,其中,神经网络模型为使用多组样本数据训练出的,多组样本数据中的每组样本数据均包括:第二局势信息、虚拟物品信息以及第二局势信息与虚拟物品信息之间的对应关系,第二局势信息为历史回合的局势信息,虚拟物品信息为虚拟游戏角色在历史回合中所使用的历史虚拟物品;基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品;向虚拟游戏角色提示目标虚拟物品。

可选地,基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品,包括:将第一局势信息转换为第一热编码;基于神经网络模型对第一热编码进行转换,得到多个概率,其中,每个概率用于指示向虚拟游戏角色推荐对应的虚拟物品的可能性;将多个概率中的最大概率对应的虚拟物品,确定为目标虚拟物品。

可选地,第一局势信息包括以下至少之一:虚拟游戏角色在当前回合中已选择的虚拟物品;虚拟游戏角色在当前回合中的角色信息;虚拟游戏角色的关联虚拟游戏角色在当前回合中的角色信息。

可选地,在确定与虚拟游戏角色对应的神经网络模型之前,该方法还包括:获取历史回合的录像;对录像进行采样,得到第二局势信息和虚拟物品信息。

可选地,对录像进行采样,得到第二局势信息和虚拟物品信息,包括:按照目标时间间隔对录像进行采样,得到多个采样点;将每个采样点对应的第二局势信息确定为第二局势信息;将虚拟游戏角色在每个采样点之后所选择的虚拟物品,确定为虚拟物品信息。

可选地,第二局势信息包括以下至少之一:虚拟游戏角色在历史回合中已选择的虚拟物品;虚拟游戏角色在历史回合中的角色信息;虚拟游戏角色的关联虚拟游戏角色在历史回合中的角色信息。

可选地,在确定与虚拟游戏角色对应的神经网络模型之前,该方法还包括:将第二局势信息作为初始神经网络模型的输入,将虚拟物品信息作为初始神经网络模型的输出,对初始神经网络模型进行深度学习训练,得到神经网络模型。

可选地,将第二局势信息作为初始神经网络模型的输入,包括:将第二局势信息转化为第二热编码;将第二热编码确定为初始神经网络模型的输入特征。

可选地,将虚拟物品信息作为初始神经网络模型的输出,包括:将虚拟物品信息转化为第三热编码;将第三热编码确定为初始神经网络模型的输出标签。

可选地,对初始神经网络模型进行深度学习训练,得到神经网络模型,包括:对初始神经网络模型的参数进行梯度下降训练,得到神经网络模型。

可选地,获取当前回合的第一局势信息,包括:从目标服务器获取第一局势信息。

为了实现上述目的,根据本发明的另一方面,提供了一种虚拟物品的提示装置。该装置包括:获取单元,用于获取虚拟游戏角色的第一局势信息,其中,第一局势信息为当前回合的局势信息;确定单元,用于确定与虚拟游戏角色对应的神经网络模型,其中,神经网络模型为使用多组样本数据训练出的,多组样本数据中的每组样本数据均包括:第二局势信息、虚拟物品信息以及第二局势信息与虚拟物品信息之间的对应关系,第二局势信息为历史回合的局势信息,虚拟物品信息为虚拟游戏角色在历史回合中所使用的历史虚拟物品;分析单元,用于基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品;推荐单元,用于向虚拟游戏角色提示目标虚拟物品。

为了实现上述目的,根据本发明的另一方面,提供了一种存储介质。该存储介质中存储有计算机程序,其中,在计算机程序被处理器运行时控制存储介质所在设备执行本发明实施例的虚拟物品的提示方法。

为了实现上述目的,根据本发明的另一方面,提供了一种电子装置。该电子装置包括存储器和处理器,存储器中存储有计算机程序,处理器被设置为运行计算机程序以执行本发明实施例的虚拟物品的提示方法。

本发明通过获取虚拟游戏角色的第一局势信息,其中,第一局势信息为当前回合的局势信息;确定与虚拟游戏角色对应的神经网络模型,其中,神经网络模型为使用多组样本数据训练出的,多组样本数据中的每组样本数据均包括:第二局势信息、虚拟物品信息以及第二局势信息与虚拟物品信息之间的对应关系,第二局势信息为历史回合的局势信息,虚拟物品信息为虚拟游戏角色在历史回合中所使用的历史虚拟物品;基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品;向虚拟游戏角色提示目标虚拟物品。也就是说,本申请根据虚拟游戏角色已有的多组样本数据建立神经网络模型,可以将动态变化的第一局势信息输入至神经网络模型进行处理,从而实时动态地为虚拟对象推荐目标虚拟物品,使得对目标虚拟物品的提示更加合理,解决了对虚拟物品进行提示的效率低的技术问题,达到了提高对虚拟物品进行提示的效率的技术效果。

附图说明

构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:

图1是本发明实施例的一种虚拟物品的提示方法的移动终端的硬件结构框图;

图2是根据本发明实施例的一种虚拟物品的提示方法的流程图;

图3是根据本发明实施例的一种模型训练和预测的示意图;

图4是根据本发明实施例的一种的将已有装备进行热编码的示意图;

图5是根据本发明实施例的一种将属性信息转化为特征的示意图;

图6是根据本发明实施例的一种通过输出标签与输入特征一一对应而组成的样本数据的示意图;

图7是根据本发明实施例的一种模型的网络结构的示意图;以及

图8是根据本发明实施例的一种虚拟物品的提示装置的示意图。

具体实施方式

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。

为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。

需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

本申请实施例所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在移动终端上为例,图1是本发明实施例的一种虚拟物品的提示方法的移动终端的硬件结构框图。如图1所示,移动终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)和用于存储数据的存储器104,可选地,上述移动终端还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。

存储器104可用于存储计算机程序,例如,应用软件的软件程序以及模块,如本发明实施例中的一种数据处理的方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至移动终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

传输设备106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括移动终端的通信供应商提供的无线网络。在一个实例中,传输设备106包括一个网络适配器(networkinterfacecontroller,简称为nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备106可以为射频(radiofrequency,简称为rf)模块,其用于通过无线方式与互联网进行通讯。

在本实施例中提供了一种运行于上述移动终端的一种虚拟物品的提示方法。图2是根据本发明实施例的一种虚拟物品的提示方法的流程图。如图2所示,该方法可以包括如下步骤:

步骤s202,获取虚拟游戏角色的第一局势信息。

在本发明上述步骤s202提供的技术方案中,第一局势信息为当前回合的局势信息。

在该实施例中,虚拟游戏角色可以为由目标对象在游戏场景中控制的虚拟对象,其中,目标对象可以称为玩家。可选地,虚拟游戏角色还可以是由模拟对象在游戏场景中控制的虚拟对象,其中,模拟对象用于模拟玩家在游戏场景中的操作,可以是人工智能(artificialintelligence,简称为ai)对象,也可以称为游戏ai。

该实施例的当前回合为虚拟游戏角色参与的当前一局游戏,比如,为当前正在进行的一局竞技类游戏比赛,虚拟游戏角色的第一局势信息属于虚拟游戏角色的游戏数据的一种,为当前回合的局势信息,可以用于指示游戏实时的战局形势的情况,随着时间的进行,第一局势信息可以是动态变化的。该实施例获取上述第一局势信息。

步骤s204,确定与虚拟游戏角色对应的神经网络模型。

在本发明上述步骤s204提供的技术方案中,在获取虚拟游戏角色的第一局势信息之后,确定与虚拟游戏角色对应的神经网络模型,其中,神经网络模型为使用多组样本数据训练出的,多组样本数据中的每组样本数据均包括:第二局势信息、虚拟物品信息以及第二局势信息与虚拟物品信息之间的对应关系,第二局势信息为历史回合的局势信息,虚拟物品信息为虚拟游戏角色在历史回合中所使用的历史虚拟物品。

在该实施例中,神经网络模型是针对特定的虚拟游戏角色而言的,也即,不同的虚拟游戏角色可以具有不同的神经网络模型。该实施例的神经网络模型也可以称为虚拟物品推荐模型,用于基于输入的局势信息得到适合虚拟游戏角色在所处局势中使用的虚拟物品,也即,该神经网络模型建立了输入的局势信息和输出的虚拟物品之间的映射关系。可选地,该实施例预先采集虚拟游戏角色在历史回合中大量的已有数据,也即,采集多组样本数据,通过多组样本数据训练出上述神经网络模型,其中,每组样本数据均可以包括历史回合中的第二局势信息、虚拟物品信息以及第二局势信息与虚拟物品之间的对应关系,第二局势信息为历史回合的局势信息,可以用于指示游戏在历史回合中的战局形势的情况,历史回合为发生在当前回合之前的虚拟游戏角色所出场的至少一回合游戏,虚拟物品信息为虚拟游戏角色在历史回合中所使用的历史虚拟物品,可以是相对第二局势信息而言,下一次出的虚拟物品。

可选地,该实施例基于多组样本数据对初始神经网模型进行深度学习训练,得到神经网络模型的模型参数,通过模型参数生成深度神经网络模型(deepneuralnetworks),还可以对其进行交叉验证、评估目标、过拟合、欠拟合等评价,从而最终得到用于确定适合虚拟游戏角色在所处局势中使用的虚拟物品的神经网络模型。

在该实施例中,上述虚拟物品可以为虚拟游戏角色所使用的虚拟附属对象,比如,为装备、道具等,可以包括但不限于加攻击速度的装备、加攻击力的装备等,可以通过购买得到。

步骤s206,基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品。

在本发明上述步骤s206提供的技术方案中,在确定与虚拟游戏角色对应的神经网络模型之后,基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品。

在该实施例中,可以将第一局势信息输入至神经网络模型中,由于该神经网络模型建立了输入的局势信息和输出的虚拟物品之间的映射关系,因而通过神经网络模型对第一局势信息进行处理,得到目标虚拟物品,该目标虚拟物品为适合虚拟游戏角色在第一局势信息所指示的对战局势下使用的虚拟物品,可以提升虚拟游戏角色的战斗力,进而提虚拟游戏角色对应的玩家的游戏体验。

步骤s208,向虚拟游戏角色提示目标虚拟物品。

在本发明上述步骤s208提供的技术方案中,在基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品之后,向虚拟游戏角色提示目标虚拟物品,也即,向虚拟游戏角色推荐目标虚拟物品,为其选择虚拟物品提供参考,从而实现了指导虚拟游戏角色购买虚拟物品的目的。

可选地,该实施例输出目标虚拟物品的信息,其中,目标虚拟物品的信息可以包括但不限于文本形式、图像形式等,可以将其输出至图形用户界面的特定位置,该实施例还可以通过语音形式输出目标虚拟物品的信息,此处不做具体限定。

在该实施例中,随着时间的进行,第一局势信息会不断地改变,从而通过神经网络模型确定的目标虚拟物品也会改变,也即,该实施例实现了依据战局形势,为虚拟游戏角色实时动态地提示合理的目标虚拟物品的目的。

在相关技术中,通常是统计出对应玩家角色等级中胜率较高的虚拟物品的购买情况,并将其推荐给该虚拟游戏角色,或者根据遗传算法来迭代选择出适合个体出装的虚拟物品,但是均无法实现依据战局形势实时动态地向虚拟游戏角色提示合理的虚拟物品。然而,通过本申请上述步骤s202至步骤s208,获取虚拟游戏角色的第一局势信息,其中,第一局势信息为当前回合的局势信息;确定与虚拟游戏角色对应的神经网络模型,其中,神经网络模型为使用多组样本数据训练出的,多组样本数据中的每组样本数据均包括:第二局势信息、虚拟物品信息以及第二局势信息与虚拟物品信息之间的对应关系,第二局势信息为历史回合的局势信息,虚拟物品信息为虚拟游戏角色在历史回合中所使用的历史虚拟物品;基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品;向虚拟游戏角色提示目标虚拟物品。也就是说,该实施例根据虚拟游戏角色已有的多组样本数据建立神经网络模型,可以将动态变化的第一局势信息输入至神经网络模型进行处理,从而实时动态地为虚拟对象推荐目标虚拟物品,使得对目标虚拟物品的提示更加合理,解决了对虚拟物品进行提示的效率低的技术问题,达到了提高对虚拟物品进行提示的效率的技术效果。

下面对该实施例的上述方法进行进一步介绍。

作为一种可选的实施方式,步骤s206,基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品,包括:将第一局势信息转换为第一热编码;基于神经网络模型对第一热编码进行转换,得到多个概率,其中,每个概率用于指示向虚拟游戏角色推荐对应的虚拟物品的可能性;将多个概率中的最大概率对应的虚拟物品,确定为目标虚拟物品。

在该实施例中,当前回合的第一局势信息可以包括数值型信息,也可以包括非数值型信息,为了便于神经网络模型对第一局势信息进行分析,可以先将获取到的第一局势信息统一转换为第一热编码,该第一热编码也可以称为热编码特征。

在该实施例中,神经网络模型可以为概率模型,当通过深度学习方法训练出概率模型时,概率模型也可以称为深度概率模型。该实施例将第一热编码输入至神经网络模型中,得到多个概率,该多个概率可以是多个虚拟物品的概率,每个虚拟物品的概率用于指示向虚拟游戏角色推荐每个虚拟物品的可能性,所有虚拟物品的概率相加之和为1。该实施例可以从多个概率中确定最大概率,将最大概率对应的虚拟物品,确定为需要向虚拟游戏角色提示的目标虚拟物品。

下面结合第一局势信息的具体形式对上述第一热编码进行进一步介绍。

作为一种可选的实施方式,第一局势信息包括以下至少之一:虚拟游戏角色在当前回合中已选择的虚拟物品;虚拟游戏角色在当前回合中的角色信息;虚拟游戏角色的关联虚拟游戏角色在当前回合中的角色信息。

在该实施例中,虚拟游戏角色已选择的虚拟物品对下一件要出的目标虚拟物品影响很大,比如,虚拟游戏角色已经购买了多个加攻击速度的装备,之后再买加攻击速度的收益就比较低,而更合适的是选择加攻击力的装备;除此之外,某些虚拟物品可能会具有唯一效果,也即,多个具有某种特殊效果的虚拟物品不能叠加,那么重复买该类型的虚拟物品就不合理。因而该实施例的第一局势信息可以包括虚拟游戏角色在当前回合中已选择的虚拟物品,比如,为正在进行的一场游戏比赛中虚拟游戏角色已选择的虚拟物品。其中,虚拟游戏角色在当前回合中已选择的虚拟物品是非数值型信息,非数值型信息不适合用单个数值表示,因为单个数值之间有大小之分,而不同虚拟物品之间不能存在直接的大小关系,如果用数值表示会反而会带来额外的干扰信息。该实施例的当前回合中已选择的虚拟物品不能简单地用单个值来表示,通过采用热编码形式进行编码。可选地,假设当前回合中已选择的虚拟物品的标识(id)是[2,4,4,5],则其编码特征可以是(0,1,0,2,1…,0),假设所有可选的虚拟物品有e种,则虚拟游戏角色在当前回合中已选择的虚拟物品的特征维度就是e。

在该实施例中,虚拟游戏角色在当前回合中的角色信息以及虚拟游戏角色的关联虚拟游戏角色在当前回合中的角色信息,对虚拟游戏角色下一件要出的目标虚拟物品的影响也很大,其中,关联虚拟游戏角色可以是与虚拟游戏角色进行对战的敌方,还可以是游戏场景中相关联的非玩家控制对象(non-playercharacter,简称为npc),比如,为小兵、防御塔、小野怪、特殊野怪等非玩家操控的游戏单位等。虚拟游戏角色在当前回合中的角色信息可以包括虚拟游戏角色的属性信息、状态信息、阵容信息等,其中,属性信息可以包括虚拟游戏对象的物强、法强等攻击数值,还有物抗、法抗等防御数值,以及虚拟游戏对象的类型等,其中,当前回合中的物强、法强、物抗、法抗属于数值型信息,存在明显的大小关系,可以直接用数值表示,虚拟游戏对象的类型与虚拟物品一样都属于非数值型信息,因而需要采用热编码形式进行表示,而实际上,上述当前回合中的物强、法强、物抗、法抗等属性信息与英雄类型之间也有较强的关联性,比如,对于敌方辅助类的虚拟游戏对象,即使物强和法强很高,但受限于自身的技能,也无法造成很高的伤害,虚拟游戏对象也无需针对该敌方辅助类的虚拟游戏对象出过多的防御性的虚拟物品。因此,该实施例需要将当前回合中的属性信息与英雄类型信息结合起来通过热编码形式进行表示。

举例而言,将上述物强、法强、物抗、法抗信息和阵容信息结合在一起,假设所有可供选择的虚拟游戏对象的种类是k,考虑到共有2个阵营,那么物强特征维度是2k,其它的三个属性(法强、物抗、法抗)与物强一样,特征维度都是2k,因而虚拟游戏角色的属性特征共2k*4=8k。当然,某些游戏不存在物强和法强的区分,也不存在物抗和法抗的区分,那么特征只需要4k维。总之,假设共有l种属性,那么总特征维度是l*2k维。

需要说明的是,该实施例的第一局势信息包括虚拟游戏角色在当前回合中已选择的虚拟物品、虚拟游戏角色在当前回合中的角色信息、虚拟游戏角色的关联虚拟游戏角色在当前回合中的角色信息,仅为本发明实施例的一种优选实施方式,并不代表本发明实施的第一局势信息仅为上述信息,任何可以用于输入至神经网络模型中以得到适合虚拟游戏角色的目标虚拟物品的方法都在本发明实施例的方法之内,此处不再一一举例说明。

作为一种可选的实施方式,在确定与虚拟游戏角色对应的神经网络模型之前,该方法还包括:获取历史回合的录像;对录像进行采样,得到第二局势信息和虚拟物品信息。

在该实施例中,在确定与虚拟游戏角色对应的神经网络模型之前,需要先采集多组样本数据,以训练得到神经网络模型。该实施例可以获取历史回合的录像,也即,该实施例可以收集有虚拟游戏角色出场的历史回合的录像,该录像可以是有虚拟游戏角色出场的比赛n场录像,其中,录像包括一些状态信息和操作信息,通过图形用户界面所显示的录像事实上是通过上述信息在游戏中重新演绎一遍表现出来的。可选地,该实施例对录像直接进行采样,以获取数据信息(第二局势信息和虚拟物品信息)。需要说明的是,该实施例的录像可以是由每帧的状态数据所组成的集合,而不是视频的形式。该实施例可以对录像进行采样,比如,对n场录像进行采样,对于每个采样点,得到第二局势信息和虚拟物品信息,该第二局势信息和虚拟物品信息也即在录像对应时刻获取到的对训练神经网络模型有效的信息。

作为一种可选的实施方式,对录像进行采样,得到第二局势信息和虚拟物品信息,包括:按照目标时间间隔对录像进行采样,得到多个采样点;将每个采样点对应的第二局势信息确定为第二局势信息;将虚拟游戏角色在每个采样点之后所选择的虚拟物品,确定为虚拟物品信息。

在该实施例中,在实现对录像进行采样,得到第二局势信息和虚拟物品信息时,可以是按照目标时间间隔对录像进行采样,得到多个采样点,比如,对每个录像以ts为时间间隔进行采样,对于每个采样点,在录像对应时刻将每个采样点对应的第二局势信息确定为第二局势信息。该实施例可以将虚拟游戏角色在每个采样点之后所选择的虚拟物品,比如,在每个采样点之后下一次出的虚拟物品,确定为虚拟物品信息,从而达到获取对训练神经网络模型有效的信息的目的。

下面对该实施例的上述第二局势信息进行介绍。

作为一种可选的实施方式,第二局势信息包括以下至少之一:虚拟游戏角色在历史回合中已选择的虚拟物品;虚拟游戏角色在历史回合中的角色信息;虚拟游戏角色的关联虚拟游戏角色在历史回合中的角色信息。

在该实施例中,正如上述所述,虚拟游戏角色已选择的虚拟物品对下一件要出的虚拟物品影响很大。因而该实施例的第二局势信息可以包括虚拟游戏角色在历史回合中已选择的虚拟物品;由于虚拟游戏角色在历史回合中的角色信息以及虚拟游戏角色的关联虚拟游戏角色在历史回合中的角色信息,对虚拟游戏角色下一件要出的虚拟物品的影响也很大,该实施例可以获取虚拟游戏角色在历史回合中的角色信息和虚拟游戏角色的关联虚拟游戏角色在历史回合中的角色信息。其中,虚拟游戏角色在历史回合中的角色信息可以包括虚拟游戏角色的属性信息、状态信息、阵容信息等,其中,属性信息可以包括虚拟游戏对象在历史回合中的物强、法强等攻击数值,还有历史回合中物抗、法抗等防御数值,以及虚拟游戏对象的类型等。

需要说明的是,该实施例的第二局势信息包括虚拟游戏角色在历史回合中已选择的虚拟物品、虚拟游戏角色在历史回合中的角色信息、虚拟游戏角色的关联虚拟游戏角色在历史回合中的角色信息,仅为本发明实施例的一种优选实施方式,并不代表本发明实施的第二局势信息仅为上述信息,任何可以用于训练神经网络模型的局势信息都在本发明实施例的方法之内,此处不再一一举例说明。

作为一种可选的实施方式,步骤s204,确定与虚拟游戏角色对应的神经网络模型之前,该方法还包括:将第二局势信息作为初始神经网络模型的输入,将虚拟物品信息作为初始神经网络模型的输出,对初始神经网络模型进行深度学习训练,得到神经网络模型。

在该实施例中,在确定与虚拟游戏角色对应的神经网络模型之前,利用多组样本数据训练得到神经网络模型。该实施例将第二局势信息作为初始神经网络模型的输入,将虚拟物品信息作为初始神经网络模型的输出,也即,第二局势信息和虚拟物品信息之间具有输入与输出之间的映射关系,通过其对初始神经网络模型进行深度学习训练,以得到神经网络模型,也即,深度神经网络模型,其中,初始神经网络模型可以是初始化深度神经网络模型。

需要说明的是,该实施例的神经网络模型为深度神经网络模型仅为本发明实施例的优选实施方式,但并不代表本发明实施例的神经网络模型仅为深度神经网络模型,任何可以用于实现对第一局势信息进行分析,而得到向虚拟游戏角色提示的目标虚拟物品的模型都在该实施例的范围之内,此处不再一一举例说明。

作为一种可选的实施方式,将第二局势信息作为初始神经网络模型的输入,包括:将第二局势信息转化为第二热编码;将第二热编码确定为初始神经网络模型的输入特征;将虚拟物品信息作为初始神经网络模型的输出,包括:将虚拟物品信息转化为第三热编码;将第三热编码确定为初始神经网络模型的输出标签。

在该实施例中,可以将第二局势信息转换为输入特征,也即,样本特征(也可称为特征),将其看作自变量x,将虚拟物品信息转换为输出标签,也即,样本标签(也可称为标签),将其看作应变量y,不同的自变量x对应变量y具有不同的影响。

可选地,该实施例将第二局势信息转化为第二热编码。在该实施例中,第二局势信息中的虚拟游戏角色在历史回合中已选择的虚拟物品是非数值型信息,非数值型信息不适合用单个数值表示,因为单个数值之间有大小之分,而历史回合中不同虚拟物品之间不能存在直接的大小关系,如果用数值表示会反而会带来额外的干扰信息。该实施例的历史回合中已选择的虚拟物品不能简单地用单个值来表示,通过采用热编码形式进行编码,得到第二热编码。可选地,假设历史回合中已选择的虚拟物品的标识(id)是[2,4,4,5],则其第二热编码可以是(0,1,0,2,1…,0),假设所有可选的虚拟物品有e种,则虚拟游戏角色在历史回合中已选择的虚拟物品的特征维度就是e。该实施例的第二局势信息中的历史回合中的物强、法强、物抗、法抗属于数值型信息,存在明显的大小关系,可以直接用数值表示,虚拟游戏对象的类型与虚拟物品一样都属于非数值型信息,因而需要采用热编码形式进行表示,而实际上,上述历史回合中的物强、法强、物抗、法抗等属性信息与英雄类型之间也有较强的关联性,因此,该实施例需要虚拟游戏对象在历史回合中的属性信息与英雄类型信息结合起来通过第二热编码进行表示。

将虚拟物品信息转化为第三热编码,以将第三热编码确定为初始神经网络模型的输出标签。在该实施例中,输出标签与上述输入特征一一对应组成一组样本数据,在同一局对战录像中,可以将虚拟对象每一次新增的时刻的数据对应一组样本数据。每组样本数据将下一组样本数据的新增的虚拟对象作为该组样本数据中的输出标签,特别地,一局对战录像的最后一组样本数据会被放弃,因为它缺少对应的输出标签。这意味着有mi组有效样本数据的对战录像原本总共包含mi+1组样本数据。

在该实施例中,虚拟游戏对象已有的虚拟物品属于输入特征。上述输出标签是一件虚拟物品,与输入特征类似,也可以采用热编码的方式进行表示,维度是虚拟物品的类别数,比如,为e,与输入特征不同的是,输出标签最终表示必然是只有一个1,而剩下全是0的特征。

可选地,该实施例将每个采样点的虚拟游戏角色已选择的虚拟物品,虚拟游戏角色的角色信息、关联虚拟游戏角色的角色信息转换成热编码,作为输入特征,将虚拟游戏角色下一次出的虚拟物品转换成热编码,作为输出标签,这样每个采样点就成了一组训练样本数据,假设第i个录像的样本点一共有mi个,那么总样本量是其中,n为录像的场数。

作为一种可选的实施方式,对初始神经网络模型进行深度学习训练,得到神经网络模型,包括:对初始神经网络模型的参数进行梯度下降训练,得到神经网络模型。

在该实施例中,可以通过最优化算法自动进行模型调优。在实现对初始神经网络模型进行深度学习训练,得到神经网络模型时,可以是初始化深度神经网络模型,将样本特征作为输入,样本标签作为输出,采用梯度下降法(gradientdescent)对初始化深度神经网络模型进行训练,当模型训练误差低到一定程度或者训练步数到达指定数目时,就可以停止训练,将此时得到的神经网络模型确定为虚拟游戏角色最终的神经网络模型。

需要说的是,该实施例的上述最优化算法为梯度下降算法仅为本发明实施例的优选实施方式,并不代表本发明实施例的最优化算法仅为上述梯度下降法,任何可以实现模型调优的方法都在本发明实施例的范围之内,此处不再一一举例说明。

可选地,在该实施例中,神经网络模型可以通过全连接网络后接softmax用作预测标签进行得到,比如,特征x=(x0…xm)组成的m维向量是输入,为了方便向量计算,通常会加1维,而且最后这个1维的值固定是1,就是x=(x0…xm,1)。在经过多层全连接层后,输入到最后一个softmax层,得到y=(y1,…,ye),其中,y在该实施例的维度可以是虚拟物品的类别数e,全连接层具体层数可以设为p,各层节点数分别为(q1,q2,…,qp),其中,p和qi可由设计者按情况设定。

作为一种可选的实施方式,获取当前回合的第一局势信息,包括:从目标服务器获取第一局势信息。

在该实施例中,第一局势信息可以是从目标服务器进行获取,其中,目标服务器可以是游戏服务端获,也即,该实施例的游戏世界的局势信息数据可以直接从游戏服务端获取到。

在该实施例中,可以根据已有的多组样本数据建立虚拟游戏角色的神经网络模型,并应用最优化算法对神经网络模型进行调优,使得神经网络模型在实际使用时,能够根据游戏实时的第一局势信息向虚拟游戏角色进行提示更加合理的虚拟物品,以为虚拟游戏角色提供参考,从比传统的虚拟物品提示方法更加灵活;另外,该实施例利用神经网络模型,采用数据驱动的方式,不用过多要求程序设计者的先验知识,结果更符合统计意义上的最优推荐,比传统的虚拟物品的提示方法出装更加智能。并且该实施例的虚拟物品的提示方法具有可移植性,对于所有包含虚拟物品的游戏,都可以应用本发明提供的上述方法,可以从游戏录像中提取虚拟游戏角色的多组样本数据,进行神经网络模型的训练,然后将训练完成的神经网络模型用于实时游戏中,提取游戏中实时的局势信息输入到神经网络模型中,向虚拟游戏角色提示神经网络模型输出的目标虚拟物品,解决了对虚拟物品进行提示的效率低的技术问题,达到了提高对虚拟物品进行提示的效率的技术效果。

下面结合优选的实施方式对本发明实施例的虚拟物品的提示方法进行举例介绍。具体以虚拟物品为装备,提示虚拟物品为推荐虚拟物品进行举例说明。

装备选择对竞技类游戏比赛的胜负影响很大,对于虚拟游戏角色的战斗力提升起着主要作用。装备动态智能推荐技术会依据战局形势,为虚拟游戏角色对应的玩家或者游戏ai实时动态地提供合理的出装参考,具体包括以下两个作用:将合适的装备推荐给虚拟游戏角色对应的玩家作为选择的参考,以提高玩家的游戏体验;指导游戏ai购买装备,使游戏ai出装更接近玩家的选择,以提高玩家游戏ai对战的游戏体验。

根据已有玩家数据,统计出对应玩家角色等级中胜率较高的道具购买情况,并推荐给该玩家,或者根据遗传算法来迭代选择出适合个体出装的推荐装备,但并非根据局势动态进行装备推荐。而该实施例会根据局势动态进行装备推荐,玩家对应的虚拟游戏角色已选择的装备,双方虚拟游戏角色(比如,英雄)的属性,npc状态等。因而该实施例可以实现随着时间的进行,局势不断改变,推荐出装也会相应地改变,其中,该实施例应用深度学习方法,利用已有的玩家数据建立神经网络模型,并通过最优化算法自动进行模型调优,使装备推荐更加合理。

下面对该实施例的上述方法进行进一步介绍。

在该实施例中,游戏场景的局势信息可以直接从游戏服务端获取,可以包括但不限于玩家已选择的装备,双方英雄属性等;神经网络模型可以但不限于采用深度神经网络;最优化算法可以但不限于采用梯度下降法。

该实施例的训练神经网络模型的目标是为每种不同的英雄建立不同的神经网络模型,以英雄a为例,总体流程主要包含以下s1至s5:

s1,收集有英雄a出场的比赛录像n场。

s2,对每个录像以ts为间隔进行采样,对于每个采样点,在录像对应时刻获取对训练神经网络模型有效的信息,可以包括但不限于英雄a对应的玩家已选择的装备,双方英雄属性和状态,以及英雄a下一次出的装备。

s3,将s2中每个采样点的英雄a玩家已选择的装备,双方英雄属性等信息转换成热编码,将其作为样本特征;将英雄a的玩家下一次出的装备也转换成热编码,作为样本标签,这样每个采样点就成了一个训练样本。假设第i个录像的样本点一共有mi个,那么总样本量是

s4,初始化深度神经网络模型,将样本特征作为输入,样本标签作为输出,可以采用梯度下降法对深度神经网络模型进行训练,直至模型训练误差低到一定程度或者训练步数到达指定数目时,停止训练,此时就得到了英雄a对应的神经网络模型,也即,装备推荐模型。

s5,获取当前的局势信息,比如,正在进行的一场游戏比赛中英雄a玩家已选择的装备、双方英雄属性等数据信息,将其转换成热编码,然后输入到训练好的英雄a对应的上述装备推荐模型中,输出节点中值最大的节点对应的装备就是英雄a此时的最佳推荐装备。

为了方便理解,下面以moba游戏为例进行进一步说明。在战斗中一般需要购买装备,玩家通常被分为两个敌对的阵营,两队在分散的游戏地图中相互竞争,通常情况下,地图上除了双方选择的角色外,还有小兵、防御塔、小野怪、特殊野怪等非玩家操控的游戏单位,每个玩家都通过控制所选的角色在地图上击杀敌方或中立方单位,获取资源,摧毁敌方基地并获取最终胜利。

图3是根据本发明实施例的一种模型训练和预测的示意图。如图3所示,在训练阶段,收集有英雄a出场的比赛录像n场,得到录像数据库,其中,存储了录像n场的游戏数据,然后进而解析数据,可以对每个录像以ts为间隔进行采样,对于每个采样点,在录像对应时刻获取对建模有效的信息,包括但不限于英雄a玩家已选择的装备,双方英雄属性和状态,以及英雄a下一次出的装备。然后进入特征提取阶段,可以将每个采样点的英雄a玩家已选择的装备,双方英雄属性,npc状态信息转换成热编码,作为样本特征,可以将英雄a的玩家下一次出的装备也转换成热编码,作为样本标签,这样每个采样点就成了一组样本数据(一个训练样本)。初始化深度神经网络模型,将样本特征作为输入,样本标签作为输出,采用梯度下降法对神经网络模型进行训练。

可选地,该实施例可以在模型训练阶段进行交叉验证,可以将用于训练神经网络模型的数据样本分成k份,轮流将其中k-1份做训练,剩下1份做验证,这样一共有k次验证结果,这k次的结果的均值作为对算法准确率的估计。

举例而言,有10万个样本,进行10次交叉验证,就是先将样本完全打乱,然后分为第1份1万个样本,第2份1万个样本……第10份1万个样本,从而得到10份样本数据。然后将第1份作为验证,剩下9份作为训练来训练神经网络模型,神经网络模型通过第1份进行验证,得到的神经网络模型的准确率是a1;以此类推,将第2份作为验证,剩下9份作为训练来训练神经网络模型,得到准确率是a2,依次类推,得到准确率a10,然后进行交叉验证的准确率就为(a1+a2+…+a10)/10,还可以进一步地对神经网络模型进后处理,得到后处理模型。

在神经网络模型的预测阶段,可以将正在进行的一场比赛中英雄a玩家已选择的装备、双方英雄属性等实时战斗数据,将其转换成热编码,然后输入到训练好的英雄a对应的后处理模型中,输出节点中值最大的节点对应的装备就是英雄a此时的最佳推荐装备,也即,预测结果。其中,所有装备对应的概率加起来值为1,值最大就代表概率最大。

下面对该实施例的样本特征提取的方法进行介绍。

在该实施例中,样本特征可以包括英雄a已有的装备,双方阵容,双方英雄属性;样本标签是英雄a下一次出的装备。将这些信息转换为样本特征和样本标签是十分关键的一步。将样本特征看作是自变量x,那么样本标签则是应变量y,下面将具体介绍不同的自变量x对应变量y的影响,以及自变量x的表示形式。

英雄a已有装备对下一件要出的装备影响很大,比如,英雄a已经购买了多个加攻击速度的装备,之后再买加攻击速度的收益就比较低,更合适的选择是加攻击力的装备;除此之外,某些装备可能会具有唯一效果,也即,多个具有某种特殊效果的装备效果不能叠加,那么重复购买该类型的装备就不合理。装备是非数值型信息,非数值型信息并不适合用单个数值表示,因为单个数值之间有大小之分,而不同装备之间不能存在直接的大小关系,如果用数值表示会带来额外的干扰信息。所以装备信息不能简单地用单个值来表示,而一般是采用热编码形式;

图4是根据本发明实施例的一种的将已有装备进行热编码的示意图。如图4所示,假设已有装备id是[2,4,4,5],那么装备热编码特征就是(0,1,0,2,1…,0),假设所有可选装备有e种,那么英雄a已有装备的特征维度就是e。

在该实施例中,双方各个英雄的属性信息对英雄a下一个件要出的装备影响也很大,因为当敌方攻击很低而防御普遍都很高的情况下,英雄a及其队友应优先出高攻击装备。英雄的属性信息可以主要包括英雄的物强、法强等攻击数值,还有物抗、法抗等防御数值,以及英雄类型。上述的英雄的属性信息具体表示为:物强、法强、物抗、法抗属于数值型信息,存在明显的大小关系,可以直接用数值表示;英雄类型与装备一样都属于非数值型信息,所以需要采用热编码形式;实际上,物强、法强、物抗、法抗等属性信息与英雄类型之间也有较强的关联性,比如,对于敌方辅助类英雄,即使物强和法强很高,但受限于自身的技能,也无法造成很高的伤害,英雄a也无需针对该敌方辅助类英雄出过多的防御性装备。因此,需要将属性信息与英雄类型信息结合起来进行表征。

该实施例根据上述内容,将物强、法强、物抗、法抗和阵容信息结合在一起,特征表示如图5。其中,图5是根据本发明实施例的一种将属性信息转化为特征的示意图。如图5所示,5v5双方英雄的准备选择情况,第一阵营的阵容为妖狐、山兔、大天狗、两面佛、以津真天,第二阵营的阵容为妖狐、辉夜姬、荒、兵俑、妖刀姬,第一阵营的阵容和第二阵营的阵容包括在“兵俑、大天狗、以津真天、辉夜姬、两面佛…荒、妖狐…山兔、妖刀姬…”中,则对第一阵营而言,阵容的热编码可以为01101…01…10…,物强\法强或物抗\法抗可以表示为0ab0c…0d…e0;对第二阵营而言,阵容的热编码可以为10010…11…01…,物强\法强或物抗\法抗可以表示为f00g0…hi…0j…。

假设所有可供选择的英雄的种类是k,考虑到共有2个阵营,那么物强特征维度是2k,其它的三个属性(法强、物抗、法抗)与物强一样,特征维度都是2k,故英雄属性特征共2k*4=8k。当然,某些moba类游戏不存在物强和法强的区分,也不存在物抗和法抗的区分,那么特征只需要4k维。总之,假设共有l种属性,那么总特征维度是l*2k维。

下面对该实施例的输出标签提取的方法进行介绍。

在该实施例中,在同一局对战录像中,装备每一次新增的时刻都作为一个样本。每个样本将下一个样本的新增装备作为本样本的标签,特别地,一局对战录像最后一个样本会被放弃,因为它缺少对应的标签。这意味着有mi个有效样本数据的对战录像原本总共包含mi+1个样本数据。

在该实施例中,输出标签需要与输入特征一一对应组成样本数据,在进行数据处理过程中,可以设定样本形式如图6。其中,图6是根据本发明实施例的一种通过输出标签与输入特征一一对应而组成的样本数据的示意图,对于样本数据1而言,已有的装备为a,则对应的标签为样本数据2中的装备b,输出标签的特征可以表示为01000…;对于样本数据2而言,已有的装备为a,b,则对应的标签为样本数据3中的装备c,输出标签的特征可以表示为00100…;对于样本数据3而言,已有的装备为a,b,c,则对应的标签为样本数据4中的装备d,输出标签的特征可以表示为00010…;对于样本数据4而言,已有的装备为a,b,c,d,则对应的标签为样本数据5中的装备e,输出标签的特征可以表示为00001…。

在上述举例中,特征描述的是当前现状,而标签是为预测目的而服务的,该实施例的主要预测目的是要知道下一件装备出的什么,对于样本数据1而言,下一件装备明显出的b,所以b是样本数据1的标签;同理,对于样本2,下一件装备将要出的是c,所以c是样本数据2的标签,依次类推。

在该实施例中,不能将单独一个a作为标签,因为下一件出的装备就是b,如果单独一个a就只能表示下一件装备出a了,而这不符合实际情况。将a和b共同作为样本数据1的标签是可以的,但这样做之后得到的结果需要将输入的a去除后,然后将b作为下一件装备,这样做比较麻烦,也不推荐。

在该实施例中,装备情况是特征,标签是一件装备类别,可以采用热编码的方式进行表示,维度可以是装备的类别数,即e,与装备情况的特征不同的是,标签最终表示必然是只有一个1,而剩下的全是0的特征。

下面对该实施例的神经网络模型的设计过程进行介绍。

该实施例通过全连接网络,后接softmax用作预测标签得到神经网络模型。

图7是根据本发明实施例的一种模型的网络结构的示意图。如图7所示,特征x=(x0…xm)组成的m维向量输入至输入层,为了方便向量计算,通常会加1维,而且最后这个1维的值固定是1,也即,x=(x0…xm,1),这样做的好处就是z=wa+b的公式可以转换成z=w’a’。其中,a’就是尾部加了一个1,w’尾部加了一个b,展开其实就是wa+b的形式,方便计算而已。

在经过多层全连接层(net0,net1……net9)后,输入到最后一个softmax层,得到y=(y1,…,ye),其中,y在该实施例的维度是装备的类别数e。全连接层具体层数设为p,各层节点数分别为(q1,q2,…,qp),其中,p和qi可由设计者按情况设定。

在该实施例的全连接层中,可以通过以下公式进行数据处理:

zl=wlal-1+bl(1)

在该实施例中,softmax层可以通过以下公式进行数据处理:

其中,al-1用于表示第l-1层的输入节点组成的向量;zl用于是第l层的输出节点组成的向量,一层的输出其实就是下一层的输入;wl用于表示第l-1到l层之间网络的节点权重向量,如图7所示的虚线;bl用于表示第l-1到l层之间网络函数的偏移量,如图7所示的实线;j用于表示某一层的第几个节点;i用于表示softmax层输出节点向量(也就是概率向量)的第几维;m1用于表示softmax层输出节点向量(也即,概率向量)的总的维度,比如,该实施例中m1等于装备的总种类。

在该实施例中,可以将样本特征作为输入,将样本标签作为输出,采用梯度下降法对模型的参数进行自动的训练。其中,梯度下降法是一种凸优化方法,比如,在一个山峰上,在不考虑其它因素的情况下,要行走最快下到山脚下,当然是选择最陡峭的地方,这也是梯度下降法的核心思想,也即,它通过每次在当前梯度方向(最陡峭的方向)向前迈一步,来逐渐逼近函数的最小值。假设在第n次迭代中,有如下公式:

θn=θn-1+δθ(4)

可以将目标函数在θn-1处进行一阶泰勒展开:

l(θn)=l(θn-1+δθ)≈l(θn-1)+l′(θn-1)δθ(5)

为了使l(θ)迭代后趋于更小的值,可以假定以下所示第一行条件:

δθ=-αl′(θn-1),α>0s.t.l(θn)=l(θn-1)-αl′(θn-1)2≤l(θn-1)(6)

因而,迭代方式可以用如下公式表示:

θn=θn-1-αl′(θn-1)(7)

该实施例可以根据局势,实时动态地为玩家或者ai提供出装参考,比传统的固定推荐出装更加灵活;采用数据驱动的方式,不用过多要求程序设计者的先验知识,且理论上推荐内容更符合统计意义上的最优推荐,比传统的推荐出装更加智能;该实施例的上述方法具有可移植性,对于所有包含装备道具购买的游戏,都可以应用本发明提供的方法,可以从游戏录像中提取玩家的相关数据信息,进行概率模型的训练;然后将训练完成的概率模型用于实时游戏中,提取游戏中实时的局势信息输入到模型中,根据模型输出为玩家或ai提供装备推荐,解决了对虚拟物品进行提示的效率低的技术问题,达到了提高对虚拟物品进行提示的效率的技术效果。

本发明实施例还提供了一种虚拟物品的提示装置。需要说明的是,该实施例的虚拟物品的提示装置可以用于执行本发明实施例图2所示的虚拟物品的提示方法。

图8是根据本发明实施例的一种虚拟物品的提示装置的示意图。如图8所示,该虚拟物品的提示装置80包括:获取单元81、确定单元82、分析单元83和推荐单元84。

获取单元81,用于获取虚拟游戏角色的第一局势信息,其中,第一局势信息为当前回合的局势信息。

确定单元82,用于确定与虚拟游戏角色对应的神经网络模型,其中,神经网络模型为使用多组样本数据训练出的,多组样本数据中的每组样本数据均包括:第二局势信息、虚拟物品信息以及第二局势信息与虚拟物品信息之间的对应关系,第二局势信息为历史回合的局势信息,虚拟物品信息为虚拟游戏角色在历史回合中所使用的历史虚拟物品。

分析单元83,用于基于神经网络模型对第一局势信息进行分析,得到目标虚拟物品。

推荐单元84,用于向虚拟游戏角色提示目标虚拟物品。

该实施例的虚拟物品的提示装置,根据虚拟游戏角色已有的多组样本数据建立神经网络模型,可以将动态变化的第一局势信息输入至神经网络模型进行处理,从而实时动态地为虚拟对象推荐目标虚拟物品,使得对目标虚拟物品的提示更加合理,解决了对虚拟物品进行提示的效率低的技术问题,达到了提高对虚拟物品进行提示的效率的技术效果。

本发明的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,在计算机程序被处理器运行时控制存储介质所在设备执行上述任一项方法实施例中的步骤。

可选地,在本实施例中,上述存储介质可以包括但不限于:u盘、只读存储器(read-onlymemory,简称为rom)、随机存取存储器(randomaccessmemory,简称为ram)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。

本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。

可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。

显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。

以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1