一种游戏调整的方法及装置、电子设备、存储介质与流程

文档序号:17294479发布日期:2019-04-03 04:15阅读:234来源:国知局
一种游戏调整的方法及装置、电子设备、存储介质与流程

本申请涉及游戏领域,特别是涉及一种游戏调整的方法及装置、电子设备、存储介质。



背景技术:

目前,游戏性是衡量网络游戏优劣的一个重要因素,而游戏性通常取决于游戏中数值的设置,如当游戏中存在多种可供选择的游戏职业时,若由于针对某种游戏职业设置的相关数值导致选择该游戏职业的游戏角色过于强大,则可能会使得玩家集中选择该游戏职业,进而降低游戏性。

在现有技术中,一方面,通过策划人员在策划阶段根据自身对游戏的理解,对游戏进行调整,另一方面,通过测试人员在测试阶段采用测试用例进行重复的游戏测试,然后根据测试的结果对游戏进行调整。

然而,这种方式需要耗费大量的人力资源,一个数值点的调整可能需要几位、甚至几十位策划/测试人员同时进行工作,且过度调整依赖于策划/测试人员自身对游戏的理解,可能导致无法对游戏进行准确的调整。



技术实现要素:

鉴于上述问题,提出了本申请以便提供克服上述问题或者至少部分地解决上述问题的一种游戏调整的方法及装置、电子设备、存储介质,包括:

一种游戏调整的方法,所述方法包括:

获取目标游戏场景对应的游戏环境信息,以及所述目标游戏场景中目标游戏角色对应的可选行为集合;其中,所述可选行为集合包括一个或多个可选行为及每个可选行为对应的数值范围;

采用预置的数据模型,对所述游戏环境信息和所述可选行为集合进行模型处理,得到第一行为集合;其中,所述第一行为集合包括一个或多个第一行为及每个第一行为对应的第一数值;

按照所述第一行为集合,对游戏进行调整。

可选地,所述游戏环境信息包括所述目标游戏场景中参考游戏角色对应的第二行为集合,所述第二行为集合包括一个或多个第二行为及每个第二行为对应的第二数值。

可选地,所述采用预置的数据模型,对所述游戏环境信息和所述可选行为集合进行模型处理,得到第一行为集合的步骤包括:

从所述可选行为集合中确定目标行为集合;其中,所述目标行为集合包括从所述一个或多个可选行为中确定的目标行为,以及从每个目标行为对应的数值范围中确定目标数值;

采用所述目标行为集合与所述第二行为集合,控制所述目标游戏角色与所述参考游戏角色进行游戏对战,得到对战结果;

当检测到满足预设条件的对战结果时,将所述满足预设条件的对战结果对应的目标行为集合作为第一行为集合。

可选地,采用如下方式判断是否检测到满足预设条件的对战结果:

在模型处理的过程中,采用预置的回报函数对获得的对战结果进行计算,得到函数回报值;

当所述函数回报值与预设回报值相匹配时,判定所述获得的对战结果为满足预设条件的对战结果。

可选地,所述目标游戏角色为采用待发布的游戏职业的游戏角色。

可选地,所述数据模型为采用强化学习训练的模型。

一种游戏调整的装置,所述装置包括:

数据获取模块,用于获取目标游戏场景对应的游戏环境信息,以及所述目标游戏场景中目标游戏角色对应的可选行为集合;其中,所述可选行为集合包括一个或多个可选行为及每个可选行为对应的数值范围;

模型处理模块,用于采用预置的数据模型,对所述游戏环境信息和所述可选行为集合进行模型处理,得到第一行为集合;其中,所述第一行为集合包括一个或多个第一行为及每个第一行为对应的第一数值;

游戏调整模块,用于按照所述第一行为集合,对游戏进行调整。

可选地,所述游戏环境信息包括所述目标游戏场景中参考游戏角色对应的第二行为集合,所述第二行为集合包括一个或多个第二行为及每个第二行为对应的第二数值。

可选地,所述模型处理模块包括:

目标行为集合确定子模块,用于从所述可选行为集合中确定目标行为集合;其中,所述目标行为集合包括从所述一个或多个可选行为中确定的目标行为,以及从每个目标行为对应的数值范围中确定目标数值;

对战结果得到子模块,用于采用所述目标行为集合与所述第二行为集合,控制所述目标游戏角色与所述参考游戏角色进行游戏对战,得到对战结果;

第一行为集合作为子模块,用于当检测到满足预设条件的对战结果时,将所述满足预设条件的对战结果对应的目标行为集合作为第一行为集合。

一种电子设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至6中任一项所述的游戏调整的方法的步骤。

一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的游戏调整的方法的步骤。

本申请具有以下优点:

在本申请中,通过获取目标游戏场景对应的游戏环境信息,以及目标游戏场景中目标游戏角色对应的可选行为集合,并采用预置的数据模型,对游戏环境信息和可选行为集合进行模型处理,得到第一行为集合,然后按照第一行为集合,对游戏进行调整,实现了对游戏的准确调整,保证了游戏中数值平衡,进而提升了游戏性,且节省了人力资源,提升了调整的效率。

附图说明

为了更清楚地说明本申请的技术方案,下面将对本申请的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本申请一实施例提供的一种游戏调整的方法的步骤流程图;

图2是本申请一实施例提供的一种游戏调整的装置的结构框图。

具体实施方式

为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

参照图1,示出了本申请一实施例提供的一种游戏调整的方法的步骤流程图,具体可以包括如下步骤:

步骤101,获取目标游戏场景对应的游戏环境信息,以及目标游戏场景中目标游戏角色对应的可选行为集合;其中,可选行为集合包括一个或多个可选行为及每个可选行为对应的数值范围;

其中,目标游戏角色可以为采用待发布的游戏职业的游戏角色。

当存在待发布的游戏职业时,可以确定该游戏职业待发布的目标游戏场景,并可以在目标游戏场景中建立该游戏职业对应的目标游戏角色。

例如,在“1v1”对战场景中,存在已发布的游戏职业有“猎人”、“战士”,当需要在“1v1”对战场景中发布一个新的游戏职业“法师”时,则可以在“1v1”对战场景中建立“法师”对应的目标游戏角色。

在实际应用中,目标游戏角色可以具有对应的可选行为集合,可选行为集合可以包括一个或多个可选行为及每个可选行为对应的数值范围。

例如,可选行为可以为释放技能行为,数值范围可以为该释放技能行为对应伤害值范围,又如可以选行为可以为跳跃行为,数据范围可以为该跳跃行为对应的高度值范围、距离值范围。

在确定目标游戏场景后,可以获取目标游戏角色对应的可选行为集合,并可以获取目标游戏场景对应的游戏环境信息,如目标游戏场景中除目标游戏角色之外的游戏角色对应的属性、位置、技能、等信息。

步骤102,采用预置的数据模型,对游戏环境信息和可选行为集合进行模型处理,得到第一行为集合;其中,第一行为集合包括一个或多个第一行为及每个第一行为对应的第一数值;

作为一种示例中,数据模型为采用强化学习(reinforcementlearning)训练的模型,强化学习是智能体(agent)以“试错”的方式进行学习,通过与环境进行交互获得的奖赏指导行为,目标是使智能体获得最大的奖赏。

在强化学习中,会尽可能的寻找一种最优策略以取得最高的累积回报(reward),取得累积回报的快慢和高低可以用来衡量任务的难度,而在游戏任务中,数值就能够影响任务的难度,通过强化学习的结果就可以知道当前数值对应的难度,利用这一反馈,就能够辅助策划来设置更合理的数值。

在具体实现中,可以预先采用强化学习算法训练数据模型,如采用dqn(deepq-learning)、a3c(asynchronousadvantageactorcritic)、impala(importancesweightedactor-learnerarchitectures)算法。

在获得数据模型后,可以将游戏环境信息和可选行为集合作为状态输入至数据模型,数据模型进行模型处理后,可以从可选行为中选取的一个或多个第一行为,并可以从每个第一行为对应的数值范围中选取的第一数值,得到第一行为集合,第一行为集合可以为可选行为集合的子集合。

例如,“法师”对应的目标游戏角色的可选行为有释放技能a、释放技能b、释放技能c,每个释放技能行为对应的数值范围为伤害值范围(0,100),则数据模型经过模型处理后,可以从中选取释放技能a、释放技能c,并可以选取释放技能a对应的伤害值为50,释放技能c对应的伤害值为80。

在本申请一实施例中,目标游戏场景中可以具有参考游戏角色,则游戏环境信息可以包括目标游戏场景中参考游戏角色对应的第二行为集合,第二行为集合包括一个或多个第二行为及每个第二行为对应的第二数值。

例如,在目标游戏场景中,可以采用网络游戏已发布的游戏职业“猎人”、“战士”建立参考游戏角色,“猎人”对应的参考游戏角色的第二行为集合可以包括释放技能d及伤害值为70,“战士”对应的参考游戏角色的第二行为集合可以包括释放技能e及伤害值为30、释放技能f及伤害值为60。

相应的,步骤102可以包括如下子步骤:

子步骤11,从可选行为集合中确定目标行为集合;

其中,目标行为集合可以包括从一个或多个可选行为中确定的目标行为,以及从每个目标行为对应的数值范围中确定目标数值。

在模型处理的过程中,数据模型可以从可选行为中确定的目标行为,并从每个目标行为对应的数值范围中确定目标数值,得到目标行为集合。

子步骤12,采用目标行为集合与第二行为集合,控制目标游戏角色与参考游戏角色进行游戏对战,得到对战结果;

在实际应用中,参考游戏角色为采用已发布的游戏职业的游戏角色,其在发布之前已采用第二行为集合进行调整,则在确定目标行为集合后,可以采用目标行为集合调整目标游戏角色,然后控制调整后的目标游戏角色与参考游戏角色进行游戏对战,获得对战结果。

在游戏对战的过程中,可以根据不同的目标游戏场景进行不同类型的游戏对战,如在“1v1”对战场景中,设置目标游戏角色分别与每个参考游戏角色进行对战,在“1vn”对战场景中,设置目标游戏角色分别与一个或多个参考游戏角色进行对战。

子步骤13,当检测到满足预设条件的对战结果时,将满足预设条件的对战结果对应的目标行为集合作为第一行为集合。

在获得对战结果后,可以判断对战结果是否满足预设条件,若是,则将该对战结果对应的目标行为集合作为第一行为集合,若否,则继续执行子步骤11至子步骤12,直至检测到满足预设条件的对战结果。

在本申请一实施例中,可以采用如下方式判断是否检测到满足预设条件的对战结果:

在模型处理的过程中,采用预置的回报函数对获得的对战结果进行计算,得到函数回报值;当函数回报值与预设回报值相匹配时,判定获得的对战结果为满足预设条件的对战结果。

在实际应用中,可以预先建立回报函数,并设置有预设回报值,在每次会的对战结果后,可以采用回报函数对对战结果进行计算,得到函数回报值。

当函数回报值与预设回报值相匹配时,如两者相等或偏差不超过预设值,则判定该对战结果为满足预设条件的对战结果,表征游戏处于平衡状态。

当函数回报值与预设回报值不相匹配时,表征游戏处于不平衡状态,若函数回报值大于预设回报值,则可以重新确定目标行为集合,以降低函数回报值,若函数回报值小于预设回报值,则可以重新确定目标行为集合,以提升函数回报值,直至函数回报值与预设回报值相匹配。

步骤103,按照第一行为集合,对游戏进行调整。

在确定第一行为集合后,可以按照第一行为集合对待发布的游戏职业进行调整,并发布调整后的游戏职业,则可以保证游戏的平衡性。

在本申请中,通过获取目标游戏场景对应的游戏环境信息,以及目标游戏场景中目标游戏角色对应的可选行为集合,并采用预置的数据模型,对游戏环境信息和可选行为集合进行模型处理,得到第一行为集合,然后按照第一行为集合,对游戏进行调整,实现了对游戏的准确调整,保证了游戏中数值平衡,进而提升了游戏性,且节省了人力资源,提升了游戏调整的效率。

需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请实施例并不受所描述的动作顺序的限制,因为依据本申请实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本申请实施例所必须的。

参照图2,示出了本申请一实施例提供的一种游戏调整的装置的步骤流程图,具体可以包括如下模块:

数据获取模块201,用于获取目标游戏场景对应的游戏环境信息,以及所述目标游戏场景中目标游戏角色对应的可选行为集合;其中,所述可选行为集合包括一个或多个可选行为及每个可选行为对应的数值范围;

模型处理模块202,用于采用预置的数据模型,对所述游戏环境信息和所述可选行为集合进行模型处理,得到第一行为集合;其中,所述第一行为集合包括一个或多个第一行为及每个第一行为对应的第一数值;

游戏调整模块203,用于按照所述第一行为集合,对游戏进行调整。

在本申请一实施例中,所述游戏环境信息包括所述目标游戏场景中参考游戏角色对应的第二行为集合,所述第二行为集合包括一个或多个第二行为及每个第二行为对应的第二数值。

在本申请一实施例中,所述模型处理模块202包括:

目标行为集合确定子模块,用于从所述可选行为集合中确定目标行为集合;其中,所述目标行为集合包括从所述一个或多个可选行为中确定的目标行为,以及从每个目标行为对应的数值范围中确定目标数值;

对战结果得到子模块,用于采用所述目标行为集合与所述第二行为集合,控制所述目标游戏角色与所述参考游戏角色进行游戏对战,得到对战结果;

第一行为集合作为子模块,用于当检测到满足预设条件的对战结果时,将所述满足预设条件的对战结果对应的目标行为集合作为第一行为集合。

在本申请一实施例中,采用如下方式判断是否检测到满足预设条件的对战结果:

在模型处理的过程中,采用预置的回报函数对获得的对战结果进行计算,得到函数回报值;

当所述函数回报值与预设回报值相匹配时,判定所述获得的对战结果为满足预设条件的对战结果。

在本申请一实施例中,所述目标游戏角色为采用待发布的游戏职业的游戏角色。

在本申请一实施例中,所述数据模型为采用强化学习训练的模型。

在本申请中,通过获取目标游戏场景对应的游戏环境信息,以及目标游戏场景中目标游戏角色对应的可选行为集合,并采用预置的数据模型,对游戏环境信息和可选行为集合进行模型处理,得到第一行为集合,然后按照第一行为集合,对游戏进行调整,实现了对游戏的准确调整,保证了游戏中数值平衡,进而提升了游戏性,且节省了人力资源,提升了游戏调整的效率。

对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

本申请一实施例还提供了一种电子设备,可以包括处理器、存储器及存储在存储器上并能够在处理器上运行的计算机程序,计算机程序被处理器执行时实现如上游戏调整的方法的步骤。

本申请一实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如上游戏调整的方法的步骤。

本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。

本领域内的技术人员应明白,本申请实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。

本申请实施例是参照根据本申请实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。

最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。

以上对本申请所提供的一种游戏调整的方法及装置、电子设备、存储介质,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1