控制虚拟对象与投掷物进行交互的方法、装置和存储介质与流程

文档序号:20119783发布日期:2020-03-20 05:08阅读:122来源:国知局
控制虚拟对象与投掷物进行交互的方法、装置和存储介质与流程

本申请涉及计算机技术领域,特别是涉及一种控制虚拟对象与投掷物进行交互方法、装置和存储介质。



背景技术:

随着计算机技术的快速发展和智能终端的普及,越来越多的交互应用能够提供虚拟场景,并在虚拟场景中显示虚拟物品,如网络游戏、用于军事模拟演习的应用、基于体感设备的体感运动应用等。用户可以通过交互应用控制虚拟对象与虚拟物品进行交互。其中,投掷物是一种常用的虚拟物品,用户可以控制虚拟对象装备投掷物后对投掷物进行投掷操作。

然而,传统的虚拟场景中,用户需要触发装备、装备、瞄准及投掷等多种交互指令,才能控制虚拟对象完成一次投掷操作,如此服务器需要频繁响应,造成资源浪费。



技术实现要素:

基于此,有必要针对多种交互指令才能完成一次投掷操作的技术问题,提供一种控制虚拟对象与投掷物进行交互的方法、装置和存储介质。

一种控制虚拟对象与投掷物交互的方法,所述方法包括:

当触发交互指令时,获取虚拟对象与所述交互指令所指向的投掷物进行交互的目标动画;

在交互页面基于所述虚拟对象的视角方向展示所述目标动画;

当展示至所述目标动画中虚拟对象对投掷物执行瞄准动作时,在所述交互页面展示的虚拟场景中确定目标投掷位置;

基于所述目标投掷位置对应的虚拟对象视角方向继续展示所述目标动画。

一种控制虚拟对象与投掷物交互的装置,所述装置包括:

投掷准备模块,用于当触发交互指令时,获取虚拟对象与所述交互指令所指向的投掷物进行交互的目标动画;在交互页面基于所述虚拟对象的视角方向展示所述目标动画;

位置瞄准模块,用于当展示至所述目标动画中虚拟对象对投掷物执行瞄准动作时,在所述交互页面展示的虚拟场景中确定目标投掷位置;

物品投掷模块,用于基于所述目标投掷位置对应的虚拟对象视角方向继续展示所述目标动画。

一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可执行指令,所述计算机可执行指令被处理器执行时,使得所述处理器执行上述控制虚拟对象与投掷物交互的方法。

一种计算机设备,包括存储器和处理器,所述存储器中储存有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行上述控制虚拟对象与投掷物交互的方法。

上述控制虚拟对象与投掷物交互的方法、装置、计算机可读存储介质和计算机设备,当触发了交互制动后,自动获取虚拟对象与相应投掷物进行交互的目标动画,基于目标动画可以体现虚拟对象对投掷物依次执行不同交互动作的效果,即可以在一种交互动作执行完毕后自动切换至下一交互动作,无需额外的交互指令触发;当虚拟对象对投掷物执行瞄准动作时,根据自动确定的目标投掷位置调整目标动画中虚拟对象的视角方向,可以自动完成瞄准,继续展示动画即可控制将投掷物投掷到虚拟场景中目标投掷位置,同样不需要额外的交互指令触发,基于一种交互指令完成整个投掷操作,简化了用户操作,同时减少了服务器响应频次,节约服务器资源。

附图说明

图1为一个实施例中控制虚拟对象与投掷物交互的方法的应用环境图;

图2为一个实施例中控制虚拟对象与投掷物交互的方法的流程示意图;

图3a为一个实施例中虚拟对象对虚拟物品执行拉引线交互动作的示意图;

图3b为一个实施例中虚拟对象对虚拟物品执行瞄准交互动作的示意图;

图3c为一个实施例中虚拟对象对虚拟物品执行投掷交互动作的示意图;

图4a为一个实施例中基于第一人称视角的交互页面的页面示意图;

图4b为另一个实施例中基于第一人称视角的交互页面的页面示意图;

图5a为一个实施例中基于第三人称视角的交互页面的页面示意图;

图5b为另一个实施例中基于第三人称视角的交互页面的页面示意图;

图6a为一个实施例中虚拟对象进行交互状态切换的流程示意图;

图6b为一个实施例中在快速投掷模式下进行交互状态切换的流程示意图;

图6c为一个实施例中自适应投掷模式下进行交互状态切换的流程示意图;

图7为一个实施例中在虚拟场景中确定目标投掷位置步骤的流程示意图;

图8为另一个实施例中在虚拟场景中确定目标投掷位置步骤的流程示意图;

图9为一个实施例中用于获取交互模式配置数据的配置页面的页面示意图;

图10为一个实施例中虚拟对象在快速投掷模式下执行投掷操作的流程示意图;

图11为一个实施例中虚拟对象在自适应投掷模式下执行投掷操作的流程示意图;

图12为一个实施例中虚拟对象与投掷物进行交互的原理示意图;

图13为一个具体实施例中控制虚拟对象与投掷物交互的方法的流程示意图;

图14为另一个具体实施例中控制虚拟对象与投掷物交互的方法的流程示意图;

图15为又一个具体实施例中控制虚拟对象与投掷物交互的方法的流程示意图;

图16为一个实施例中控制虚拟对象与投掷物交互的装置的结构框图;

图17为另一个实施例中控制虚拟对象与投掷物交互的装置的结构框图;

图18为一个实施例中计算机设备的结构框图。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。

图1为一个实施例中控制虚拟对象与投掷物交互方法的应用环境图。参照图1,该控制虚拟对象与投掷物交互方法应用于控制虚拟对象与投掷物交互系统。该控制虚拟对象与投掷物交互系统包括终端110和服务器120。终端110和服务器120通过网络连接。终端110上运行了交互应用。交互应用是指能够展示交互页面,并在交互页面渲染的虚拟场景中控制虚拟对象与投掷物交互的应用,如网络游戏应用、三维地图应用、军事仿真演习应用、体感应用、vr(virtualreality)应用等。其中,网络游戏应用可以是fps(first-personshootinggame,第一人称射击类游戏)应用,moba(multiplayeronlinebattlearena,多人在线战术竞技游戏)应用等。终端110具体可以是台式终端或移动终端,移动终端具体可以手机、平板电脑、笔记本电脑等中的至少一种。服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。

如图2所示,在一个实施例中,提供了一种控制虚拟对象与投掷物交互方法。本实施例主要以该方法应用于上述图1中的终端110来举例说明。参照图2,该控制虚拟对象与投掷物交互方法具体包括如下步骤:

s202,当触发交互指令时,获取虚拟对象与交互指令所指向的投掷物进行交互的目标动画。

其中,交互指令是指在交互页面触发的能够触发虚拟对象与投掷物进行交互的指令。交互指令可以是基于交互页面的触发操作生成的指令。触发操作具体可以是触摸操作、光标操作、按键操作或者语音操作。其中,触摸操作可以是触摸点击操作、触摸按压操作或者触摸滑动操作,触摸操作可以是单点触摸操作或者多点触摸操作;光标操作可以是控制光标进行点击的操作或者控制光标进行按压的操作;按键操作可以是虚拟按键操作或者实体按键操作等。

交互页面是基于交互应用所展示的页面。交互页面能够向用户提供虚拟场景。虚拟场景是交互应用在终端上运行时提供的虚拟环境,可以是对真实世界的仿真环境,也可以是半仿真半虚构的环境,还可以是纯虚构的环境。该虚拟场景可以是二维虚拟场景,也可以是三维虚拟场景。例如,该虚拟场景中可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素。该虚拟场景还可以用于模拟不同天气下的真实环境,例如,晴天、雨天、雾天或黑夜等天气。该虚拟场景中还可以包括虚拟物品,虚拟对象可以装备虚拟物品、投掷已装备的虚拟物品或者丢弃已装备的虚拟物品。

虚拟对象是指在虚拟场景中的可活动立体模型,可以用于代表用户的形象。该虚拟对象可以是任一种形态,例如虚拟人物、虚拟动物、动漫人物等,比如:在虚拟场景中显示的人物、动物等。可选地,虚拟对象是在三维虚拟场景中基于动画骨骼技术创建的三维立体模型,每个虚拟对象在三维虚拟场景中具有自身的形状和体积,占据三维虚拟场景中的一部分空间。

虚拟物品是指在虚拟场景中布置的物品,可供虚拟对象装备、投掷或者丢弃。例如,该虚拟物品可以是衣物、头盔、防弹衣、医疗品、冷兵器或热兵器等。投掷物是虚拟场景中可以投掷或射击的虚拟物品,如爆炸物品、枪械物品、球类运动物品等。其中,爆炸物品具体可以是手雷、燃烧瓶、震爆弹等。枪械物品可以是冲锋枪、狙击枪、散弹枪等。球类运动物品具体可以是羽毛球、网球、乒乓球或桌球等在使用时需要投掷且需要瞄准方向的物体。

虚拟对象可以在虚拟场景中执行跑、跳、爬、趴、蹲、转向等单体动作,也可以对虚拟物品执行装备、瞄准、投掷等交互动作。单体动作及交互动作分别可以是基于预存储的动画实现。服务器预存储了虚拟对象执行多种单体动作的动画,也存储了虚拟对象对不同投掷物执行不同交互动作的动画。目标动画是指虚拟对象与交互指令所指向的投掷物执行不同交互动作的动画。

当虚拟对象与不同投掷物的交互时,所涉及交互动作的动作类型可能不同。比如,当投掷物为手雷时,虚拟对象与投掷物需要依次执行装备、拉引线、瞄准和投掷四种交互动作才能完成一次投掷。当投掷物为枪械时,虚拟对象与投掷物需要依次执行装备、瞄准和射击三种交互动作才能完成一次投掷。当投掷物为球类运动物品时,虚拟对象与投掷物需要依次执行装备、瞄准和投掷三种交互动作才能完成一次投掷。

参考图3a,图3a示出了一个实施例中虚拟对象对虚拟物品执行拉引线交互动作的动画中的一个图像帧,图像中投掷物位于虚拟对象一只手中,虚拟对象另一手也在伸向投掷物所在位置,能够模拟真实场景中拉引线的动作。参考图3b,图3b示出了一个实施例中虚拟对象对虚拟物品执行瞄准交互动作的动画中的一个图像帧。参考图3c,图3c示出了一个实施例中虚拟对象对虚拟物品执行投掷交互动作的动画中的一个图像帧。如图3a、图3b和图3c所示,虚拟对象在对虚拟物品执行不同交互动作时具有不同的形体姿态。

具体地,终端基于交互应用展示交互页面,并在交互页面渲染提供虚拟场景以及充当用户的虚拟对象。用户可以控制虚拟对象在虚拟场景中执行不同单体动作,以完成某项任务。在任务执行过程中,用户可以控制虚拟对象借助某个虚拟物品。当需要借助某虚拟物品时,用户可以基于交互页面对该虚拟物品的进行触发操作。

当发生触发操作时,终端获取触发操作所指向虚拟物品的配置数据。虚拟物品的配置数据可以包括物品标识、物品类型、可用状态等。当物品类型为投掷物类型时,表示针对这些虚拟物品,终端可以控制虚拟对象进行投掷操作。当可用状态为可用时,基于物品标识及物品类型生成交互指令,并将交互指令发送至服务器。交互指令携带有相应投掷物的物品标识。服务器查询虚拟对象与物品标识对应的投掷物进行交互的目标动画,将目标动画返回至终端。

参考图4a,图4a示出了一个实施例中基于交互页面触发交互指令的页面示意图。如图4a所示,交互页面提供了能够触发虚拟对象406与投掷物408进行交互的触发控件402,当发生对触发控件402的触发操作时,终端生成对应的交互指令,并基于交互指令从服务器拉取虚拟对象与触发控件402对应的投掷物进行交互的目标动画。

在一个实施例中,有些场景触发交互指令的速度直接影响任务执行情况,对交互指令的触发速度以及便捷性具有较高要求,如此可以在交互页面针对每个投掷物分别展示对应的触发控件。触发控件可以展示在交互页面边缘区域。

其中,可供虚拟对象拾取的投掷物可以为归属于该虚拟对象的投掷物,或者也可以为当前位于虚拟对象附近的、处于无归属状态的投掷物。例如,从虚拟物品的角度来说,终端可以建立归属关系表,该归属关系表中包括每个虚拟物品归属的虚拟对象,而从虚拟对象的角度来说,终端可以建立虚拟对象的物品库,归属于该虚拟对象的虚拟物品均可认为是存储于该物品库中。那么,当终端根据用户的操作打开虚拟对象的物品库时,显示归属于虚拟对象的虚拟物品,并显示投掷物的拾取按钮,当检测到用户对拾取按钮的确认操作时,控制虚拟对象拾取投掷物。

终端根据用户的操作控制虚拟对象在虚拟场景中移动,并显示预设范围内的虚拟场景的画面,当该预设范围内包括某一投掷物且根据归属关系表确定该投掷物处于无归属状态时,可以显示投掷物的拾取按钮,当检测到用户对拾取按钮的确认操作时,控制虚拟对象拾取投掷物。

当然,本发明实施例仅是以拾取一个投掷物为例进行说明,而虚拟对象的物品库或者预设范围内的虚拟场景中可以包括一个或多个投掷物,每个投掷物的拾取过程与此类似,在此不再赘述。

在一个实施例中,虚拟物品对应的触发控件可以根据用户在交互页面的控制区域适应性隐藏展示或实体展示。比如,当用户基于交互页面的触发操作所对应的触发点位于交互页面中心区域时,虚拟物品对应的触发控件可以隐藏展示,以减少触发控件对虚拟场景的遮挡,增大虚拟场景视野范围。触发操作具体可以是触摸操作、光标操作或按键操作。触发点是指触摸操作在交互页面所指向的位置,光标作或按键所在位置等。当用户基于交互页面的触发操作所对应的触发点位于交互页面边缘区域时,虚拟物品对应的触发控件可以实体展示,以供用户控制。触发点是指用户基于交互页面的触发操作所对应的触发点位于交互页面中心区域。

在一个实施例中,目标动画包括虚拟对象与交互指令所指向的投掷物执行每种交互动作的动作动画。不同交互动作具有对应的执行时序,对应地,每个动作动画具有对应的展示时序。终端可以基于交互指令从服务器拉取虚拟对象完成投掷操作需要对相应投掷物执行全部交互动作的动作动画,以减少与服务器之间的交互频次。

在一个实施例中,在虚拟对象执行投掷操作过程中,用户可能随时触发停止投掷当前投掷物、触发对另一投掷物进行投掷等突发指令。对此,终端也可以基于交互指令仅从服务器拉取虚拟对象对投掷物第一时序交互动作的动画,在检测到下一展示时序的动作动画展示完毕或即将展示完毕再从服务器拉取下一展示时序的动作动画,以提高动画资源利用率,进而节约终端与服务器之间的数据传输资源。

s204,在交互页面基于虚拟对象的视角方向展示目标动画。

其中,虚拟对象的视角方向是指虚拟对象在虚拟场景中的位置朝向。如图4a所示,终端可以采用第一人称视角展示虚拟对象,所显示的虚拟场景中仅包括虚拟对象的手部、手臂或者手中所持有的虚拟物品等,从而能够模拟通过该虚拟对象的视角方向观察虚拟场景的效果。如图5a所示,终端还可以采用第三人称视角展示虚拟对象506,第三人称视角与第一人称视角的方向一致,只是第三人称视角会在虚拟场景中显示背对终端屏幕的虚拟对象,以使得用户可以在虚拟场景中看到其控制的虚拟对象的动作、所处环境等。交互页面提供了能够触发虚拟对象506与投掷物进行交互的触发控件502,当发生对触发控件502的触发操作时,终端生成对应的交互指令,并基于交互指令从服务器拉取虚拟对象与触发控件502对应的投掷物进行交互的目标动画。

在一个时刻,终端基于交互页面只能展示整个虚拟场景中的局部场景,该局部场景即为虚拟对象当前能够观察到的那部分虚拟场景。如图5b所示,当虚拟对象的视角方向变化,即虚拟对象在虚拟场景中的位置朝向发生变化时,交互页面所展示的局部场景发生变化,从一种局部场景切换至另一种局部场景,从而模拟出虚拟对象转向的效果。

终端在虚拟场景中创建虚拟摄像机来模拟虚拟对象的视角方向。虚拟摄像机是虚拟场景中位于虚拟对象周围的三维模型。当采用第一人称视角展示虚拟对象时,虚拟摄像机位于虚拟对象的头部附近或位于虚拟对象的头部。当采用第三人称视角展示虚拟对象时,虚拟摄像机位于虚拟对象的后方,通过虚拟摄像机的视角观察虚拟场景。虚拟摄像机的拍摄方向与虚拟对象的视角方向一致。虚拟摄像机的拍摄方向是指以虚拟对象的第一人称视角或第三人称视角在虚拟场景中进行观察时的观察方向。

具体地,终端确定虚拟摄像机当前的拍摄方向,基于虚拟摄像机当前的拍摄方向展示目标动画,即控制目标动画中虚拟对象的视角方向为当前虚拟摄像机的拍摄方向,以使虚拟对象在触发交互指令前一时刻与触发交互指令后一时刻处于相同的视角方向,从而虚拟对象具有很好的动作衔接效果。

进一步地,终端基于定时器控制不同展示时序动作动画之间的自动切换。终端在交互页面展示第一展示时序的动作动画。终端启动定时器,确定第一展示时序动作动画的展示时长,并根据该展示时长对定时器的定时参数进行配置。终端自开始展示第一展示时序动作动画触发定时器开始计时,当达到定时参数对应的目标时间时,定时器生成触发展示第二展示时序的动作动画的定时指令。终端根据该至定时指令展示第二展示时序的动作动画,并将定时器计时时间清零,重新开始新一轮的计时,当第二展示时序动作动画的展示时长到达时,生成触发展示第三展示时序的动作动画的定时指令,如此类推,直至最后展示时序的动作动画展示完毕。

比如,当交互指令所指向的投掷物为手雷时,目标动画包括装备动作动画、拉引线动作动画、瞄准动作动画和投掷动作动画,依次对应的展示时长为0.5秒、0.5秒、1秒和0.5秒,终端首先展示装备动作动画,自开始展示装备动作动画0.5秒后自动触发展示拉引线动作动画,自开始展示拉引线动作动画0.5秒后自动触发展示瞄准动作动画,自开始展示瞄准动作动画1秒后自动触发展示投掷动作动画。

在一个实施例中,在展示目标动画过程中,终端屏蔽用户触发的对虚拟对象的其他控制操作。换言之,在虚拟对象对投掷物执行交互动作过程中,若用户触发了对虚拟对象的其他控制操作时,终端可以无需响应该控制操作。其他控制操作可以是触发虚拟对象执行某种单体动作的操作、终止当前投掷操作、或切换与虚拟对象交互的投掷物的操作等。

在一个实施例中,在展示目标动画过程中,终端响应用户触发的对虚拟对象的其他控制操作。若在展示目标动画过程中发生了触发虚拟对象执行某种单体动作的操作,终端获取虚拟对象执行相应单体动作的动画(记作控制动画),并将控制动画与当前展示的目标动画进行融合,在交互页面展示融合得到的融合动画。比如,虚拟对象包括上半身区域和下半身区域。终端将目标动画各图像帧中虚拟对象的上半身区域与控制动画个图像帧中虚拟对象的下半身区域进行拼接,展示拼接后的各个图像帧。若在展示目标动画过程中发生了终止当前投掷操作,终端停止展示目标动画,继续展示触发交互指令前一时刻虚拟对象对应的图像帧。若在展示目标动画过程中发生了切换与虚拟对象交互的投掷物的操作,终端停止展示当前的目标动画,按照上述方式获取虚拟对象与所切换的投掷物进行交互的目标动画,在交互页面展示新获取的目标动画。

s206,当展示至目标动画中虚拟对象对投掷物执行瞄准动作时,在交互页面展示的虚拟场景中确定目标投掷位置。

其中,虚拟对象对投掷物执行投掷操作时,投掷物在虚拟场景中从初始位置运动至终点位置。目标投掷位置是指投掷物所运动的终点位置。

具体地,在展示至瞄准动作的动画时,终端对动画中投掷物的位置进行追踪,确定投掷物当前在虚拟场景中的位置,将投掷物当前在虚拟场景中的位置作为投掷物的初始位置。终端按照预设的瞄准策略在虚拟场景中确定投掷物的目标投掷位置,将虚拟摄像机从当前拍摄方向调整至朝向目标投掷位置的方向,从而将虚拟对象从当前视角方向调整至朝向目标投掷位置的方向。预设的瞄准策略可以是将交互页面当前所展示的虚拟场景中一个随机位置确定为目标投掷位置。

在一个实施例中,预设的瞄准策略也可以是将距离被控虚拟对象最近的一个虚拟目标所在的位置确定为目标投掷位置。在多人在线交互应用中,被控虚拟对象会在虚拟场景中选取一个或多个虚拟目标作为对象进行攻击交互,其中一种攻击方式即为被控虚拟对象向虚拟目标投掷虚拟物品。虚拟目标是指虚拟场景中作为被控虚拟对象攻击目标的其他虚拟对象。

在一个实施例中,预设的瞄准策略还可以是将根据当前时间之前单位时长内投掷物的目标投掷位置(以下简称“历史投掷位置”)集中度确定的一个位置作为被控投掷物的目标投掷位置等。单位时长可以是预先设定的时间长度,如1分钟。具体可以将各投掷物的历史投掷位置集中度最高的一个作为当前被控投掷物的目标投掷位置,或将虚拟场景中距离每个历史投掷位置最近的一个位置作为当前被控投掷物的目标投掷位置。

在一个实施例中,终端可以在初始位置与目标投掷位置之间作一条线段,将该线段作为投掷物的运动轨迹,如上图4b中指向目标投掷位置404的运动轨迹410,或如上图5b中指向目标投掷位置504的运动轨迹508。终端在虚拟场景中显示运动轨迹,使用户在对投掷物进行投掷操作之前能够获知投掷物的运动轨迹,确定是否要对投掷物的投掷方向进行调整。

在一个实施例中,当按照上述方式确定的初始位置和目标投掷位置所形成的投掷物的投掷轨迹上存在障碍物时,将障碍物所在位置确定为最终的目标投掷位置。虚拟场景包括多个场景元素,如山体、树木、石头、建筑物等。障碍物是指虚拟场景中与当前被控投掷物的投掷轨迹存在空间位置交叉的场景元素。比如,场景元素石头所在位置c位于初始位置a与按照上述方式确定的目标投掷位置b所形成的线段ab上,则将场景元素石头所在位置c确定为最终的目标投掷位置,从而当前被控投掷物最终的投掷轨迹为ac。

s208,基于目标投掷位置对应的虚拟对象视角方向继续展示目标动画。

其中,虚拟摄像机的拍摄方向与虚拟对象的视角方向一致。两者中任何一者发生变化另一者跟随变化。用户可以通过控制操作控制虚拟对象旋转(即调整虚拟对象的视角方向)来调整摄像机的拍摄方向。如控制操作可以是滑动操作,终端检测到该滑动操作,可以基于该滑动操作的滑动方向、滑动距离以及滑动速度,确定该滑动操作对应的虚拟摄像机的转动方向、转动角度以及转动速度。例如,该滑动操作的滑动方向可以对应于虚拟摄像机的转动方向,该滑动操作的滑动距离大小可以与虚拟摄像机的转动角度正相关,该滑动操作的滑动速度可以与该虚拟摄像机的转动速度正相关。

终端也可以通过自动调整虚拟摄像机的拍摄方向来转变虚拟对象的视角方向。虚拟摄像机的拍摄方向可以采用向量的形式表示。虚拟摄像机的拍摄方向调整实质上是对虚拟摄像机在基于虚拟场景的三维空间坐标系中向量坐标的调整。虚拟场景包括地面。基于虚拟场景的三维空间坐标系可以是以虚拟摄像机所在位置为原点,以与地面平行的一个方向为x轴方向、与地面平行的与x轴垂直的另一个方向为y轴方向,垂直地面方向为z轴方向的坐标系。虚拟摄像机拍摄方向的向量可以是(x,y,z)。虚拟摄像机的移动可以时绕x轴、y轴或z轴的旋转,也可以是沿x轴的扫视、沿y轴的平移或沿z轴的升降等。

具体地,终端在确定投掷物的目标投掷位置后,将虚拟摄像机从当前拍摄方向调整至朝向目标投掷位置的方向。终端基于调整后的虚拟摄像机拍摄方向继续展示瞄准动作的动画,即可使得动画中虚拟对象朝向目标投掷位置继续执行瞄准动作。当继续展示至投掷动作的动画时,即可虚拟对象朝着调整后的视角方向执行投掷动作,进而可以将投掷物投掷至虚拟场景中目标投掷位置,完成一次投掷操作。

在一个实施例中,当交互页面展示虚拟对象对投掷物执行瞄准动作的动画时,终端可以监听用户对虚拟对象的控制操作,根据控制操作对虚拟摄像机拍摄方向进行调整。根据调整后的虚拟摄像机拍摄方向,可以确定投掷物的目标投掷位置,将调整后的虚拟摄像机的拍摄方向确定为投掷物的投掷方向。

上述控制虚拟对象与投掷物进行交互的方法,当触发了交互制动后,自动获取虚拟对象与相应投掷物进行交互的目标动画,基于目标动画可以体现虚拟对象对投掷物依次执行不同交互动作的效果,即可以在一种交互动作执行完毕后自动切换至下一交互动作,无需额外的交互指令触发;当虚拟对象对投掷物执行瞄准动作时,根据自动确定的目标投掷位置调整目标动画中虚拟对象的视角方向,可以自动完成瞄准,继续展示动画即可控制将投掷物投掷到虚拟场景中目标投掷位置,同样不需要额外的交互指令触发,基于一种交互指令完成整个投掷操作,简化了用户操作,同时减少了服务器响应频次,节约服务器资源。

在一个实施例中,上述控制虚拟对象与投掷物进行交互的方法还包括:获取虚拟对象与投掷物进行交互的初始动画;初始动画包括具有不同展示时序的多个动作动画;对展示时序相邻且动作动画中虚拟对象的动作类型符合拼接条件的至少两个动作动画进行拼接,得到一种交互状态下的状态动画;将不符合拼接条件的每个动作动画分别确定为一种状态动画,得到包含多个状态动画的目标动画。

其中,上述实施例所描述的目标动画实质上是本实施例的初始动画。如上述实施例所描述的目标动画,初始动画包括虚拟对象完成一次投掷操作所需对投掷物依次执行的每种交互动作的动作动画。不同的动作动画具有不同的展示时序。在本实施例目标动画是将初始动画中全部或部分展示时序相邻的动作动画进行拼接后得到的动画。本实施例的目标动画包括多个状态动画,其中至少一个状态动画是由至少两个动作动画拼接得到。当一个状态动画为一个动作动画时,表示是将未与其他动作动画拼接的动作动画确定为了一个独立交互状态下的状态动画。

每个动作动画具有对应的动作类型标签。如上文,虚拟对象对投掷物执行不同交互动作的动作类型包括装备、瞄准、投掷等中的至少一种。且当虚拟对象与不同投掷物交互时所涉及交互动作的动作类型不同。拼接条件是预先制定的能够进行拼接的动作类型的标签组合,如(拉引线,瞄准),(拉引线,瞄准,投掷)等。标签组合可以是根据不同交互动作之间的执行逻辑差异性确定的,比如可以将执行逻辑近似度小于阈值的多个交互动作对应的动作类型标签确定为一个标签组合。将两个动画进行拼接是基于图像帧拼接实现,具体可以是根据预设的参考帧建立拼接模板,后续帧使用模板参数进行投影融合得到。动画的拼接可以基于videostitch等软件工具完成。

具体地,终端获取虚拟对象与各虚拟对象进行交互的初始动画,根据拼接条件在初始动画中确定能够拼接的相邻展示时序的多个动作动画,将所确定的动作动画进行拼接,得到一种交互状态下的状态动画。而对于不符合拼接条件无法与其他动作动画拼接的每个动作动画直接单独确定为一种状态动画,由此得到包含多个状态动画的目标动画。当触发了交互指令时,终端可以基于定时器控制不同展示时序动作动画之间的自动切换。

比如,虚拟对象与投掷物m进行交互的初始动画包括装备动作动画a、握持动作动画b、拉引线动作动画c、瞄准动作动画d和投掷动作动画e,假设预设的交互动作的动作类型标签包括(装备,握持),则可以将a和b进行拼接,得到状态动画(ab),而不符合拼接条件的c、d和e可以分别直接作为一种状态动画(c)、(d)和(e),由此得到包含(ab)、(c)、(d)和(e)的目标动画。假设预设的交互动作的动作类型标签包括(拉引线,瞄准,投掷),则可以将c、d和e进行拼接,得到状态动画(cde),而不符合拼接条件的a和b可以分别直接作为一种状态动画(a)、(b),由此得到包含(a)、(b)和(cde)的目标动画。假设预设的交互动作的动作类型标签仅包括(拉引线,瞄准),则可以将c和d进行拼接,得到状态动画(cd),将不符合拼接条件的a、b、e分别直接确定为一种状态动画(a)、(b)、(e),由此得到包含(a)、(b)、(cd)和(e)的目标动画。

在一个实施例中,将初始动画转换为目标动画,即将动作动画拼接为状态动画的步骤可以是在终端完成的,终端将转换得到目标动画发送至服务器存储。将初始动画转换为目标动画的步骤也可以是在服务器完成的,还可以是在其他计算机设备完成的。其他计算机设备将转换得到的目标动画发送至服务器存储。

本实施例中,状态动画是预先拼接好的,当触发了交互指令时,直接基于状态动画响应交互指令即可,随取随用,提高了交互指令响应效率;预先将多个动作动画拼接在一起,减少了终端通过定时器控制不用动作动画之间进行切换的处理过程,可以进一步提高交互指令响应效率。

在一个实施例中,在交互页面基于虚拟对象的视角方向展示目标动画包括:根据状态动画的展示时长和展示时序,确定每个状态动画的等待时长;自触发了交互指令开始计时,并确定虚拟对象当前的视角方向;当达到一个状态动画对应的等待时长时,在交互页面触发基于当前的视角方向展示相应状态动画。

其中,状态动画在转换后目标动画中的展示时序与相应动作动画在初始动画中的展示时序一致。状态动画的展示时长可以是对相应一个或多个动作动画展示时长进行求和确定的。比如,上述状态动画(cde)的展示时长可以是c、d、e三个动作动画展示时长之和。

具体地,终端基于定时器控制不同展示时序状态动画之间的自动切换。参考图6a,图6a示出了一个实施例中虚拟对象与投掷物在不同交互状态之间进行切换的流程示意图。如图6a所示,当投掷物为手雷时,对应的目标动画包括(a)、(b)、(cd)和(e)四个状态动画。终端在交互页面展示第一展示时序的状态动画(a)。终端启动定时器,确定状态动画(a)的展示时长,并根据该展示时长对定时器的定时参数进行配置。终端自开始展示状态动画(a)触发定时器开始计时,当达到定时参数对应的目标时间时,定时器生成触发展示第二展示时序的状态动画(b)的定时指令。终端根据该定时指令展示状态动画(b),并将定时器计时时间清零,重新开始新一轮的计时,当状态动画(b)的展示时长到达时,生成触发展示第三展示时序的状态动画(cd)的定时指令,如此类推,直至最后展示时序的状态动画(e)展示完毕。

参考图6b,图6b示出了另一个实施例中虚拟对象与投掷物在交互状态之间进行切换的流程示意图。如图6b所示,目标动画包括状态动画(a)、(b)和(cde)三个状态动画。终端按照上述方式在交互页面依次展示状态动画(a)、状态动画(b)和状态动画(cde)。

本实施例中,基于转换后的目标动画响应交互指令,可以减少终端控制动画切换的次数,不仅减少终端数据处理负担,有助于提高交互指令响应效率;还增强了虚拟对象所执行不同交互动作之间的连贯性,具有较好的指令执行流畅性。

在一个实施例中,目标动画包括准备状态动画和快投状态动画;如图7所示,步骤s206,即当展示至目标动画中虚拟对象对投掷物执行瞄准动作时,在交互页面展示的虚拟场景中确定目标投掷位置的步骤包括:

s702,当准备状态动画展示完毕时,判断交互指令是否仍持续。

s704,当交互指令不再持续时,展示快投状态动画。

s706,当展示至快投状态动画中虚拟对象对投掷物执行瞄准动作时,在交互页面展示的虚拟场景中确定目标投掷位置。

步骤s208,即基于目标投掷位置对应的虚拟对象视角方向继续展示目标动画的步骤包括:

s708,基于目标投掷位置对应的虚拟对象视角方向继续展示快投状态动画。

其中,准备状态动画与快投状态动画是目标动画中展示时序相邻的两个状态动画。准备状态动画展示时序先于快投状态动画。准备状态动画是指不包含虚拟对象对投掷物执行瞄准动作的内容的状态动画。快投状态动画是包含虚拟对象对投掷物执行瞄准动作的内容的状态动画。

比如,在上述举例中,当虚拟对象与投掷物m进行交互的目标动画包括状态动画(a)、(b)和(cde)时,状态动画(a)和(b)可以是准备状态动画,状态动画(cde)可以是快投状态动画。当虚拟对象与投掷物m进行交互的目标动画包括状态动画(ab)、(cd)和(e)时,状态动画(ab)可以是准备状态动画,状态动画(cd)和(e)可以是快投状态动画。

交互指令具有对应的指令状态,包括持续状态和终止状态。用户可以控制交互指令从持续状态切换至终止状态。根据交互指令的触发方式,对应切换交互指令的指令状态的方式可以不同。比如,当交互指令是基于交互页面提供的投掷物的触发控件而触发,则可以通过控制触发控件的触发状态来调整交互指令的持续状态,如当触发控件一直被按下时,对应交互指令处于持续状态;当触发控件被松开时,对应交互指令处于终止状态。当交互指令是基于语音操作而触发,则可以通过输入不同的语音指令来调整交互指令的持续状态,如当用户发出“用手雷”语音指令时,对应交互指令处于持续状态;当用户发出“扔手雷”语音指令时,对应交互指令处于终止状态。

具体地,终端按照上述方式在交互页面依次展示准备状态动画和快投状态动画。参考图6c,图6c示出了又一个实施例中虚拟对象与投掷物在交互状态之间进行切换的流程示意图。如图6c所示,目标动画包括准备状态动画(a)和(b),拉引线状态动画(c)、瞄准状态动画(d)、投掷状态动画(e)和快投状态动画(cde)。当准备状态动画(a)和(b)展示完毕时,终端判断交互指令是否仍持续。若交互指令不再持续,即已经终止,则终端继续展示快投状态动画(cde),并在展示至快投状态动画(cde)中虚拟对象对投掷物执行瞄准动作时,按照上述方式自动在虚拟场景中确定投掷物的目标投掷位置。快投状态动画(cde)包括投掷动作动画e。终端基于目标投掷位置对应的虚拟对象视角方向继续展示快投状态动画即可控制虚拟对象将投掷物投掷到目标投掷位置。

本实施例中,根据交互指令的持续状态可以判断用户对投掷物投掷效率的要求,当交互指令在展示完准备状态动画时已不再持续,表示用户具有期望快速对投掷物进行投掷,此时终端自动完成瞄准,简化用户参与操作,提高交互执行响应效率,可以满足用户急迫的投掷物投掷需求。

在一个实施例中,在交互页面展示的虚拟场景中确定目标投掷位置包括:将交互页面中目标坐标点在虚拟场景所对应的位置确定为目标投掷位置。

其中,目标坐标点是指基于交互页面的二维坐标系中的一个坐标点。基于交互页面的二维坐标系可以是以矩形的交互页面中一个顶点作为原点,以包含原点的一条边为坐标轴形成的直角坐标系。目标坐标点具体可以是交互页面中预先制定的一个坐标点。如上图4b或图5b所示,目标坐标点可以是交互页面的中心点。可以理解,目标坐标点还可以是交互页面中其他任意预先制定的位置,对此不做限制。目标坐标点也可以是动态确定的一个坐标点。比如,可以将当前所展示的交互页面中虚拟目标密度最高的位置确定为目标坐标点等。

具体地,终端确定目标坐标点在基于交互页面的二维坐标系的位置坐标。终端将目标坐标点从基于交互页面的二维坐标系转换至基于虚拟摄像机的三维坐标系中,得到目标坐标点在基于虚拟摄像机的三维坐标系中的位置坐标。根据目标坐标点在基于虚拟摄像机的三维坐标系中的位置坐标,即可确定投掷物在虚拟场景中的目标投掷位置。

本实施例中,首先基于交互页面确定目标坐标点,在将目标坐标点在转换为虚拟场景中的目标投掷位置,相比直接计算确定投掷物在虚拟场景中的目标投掷位置,计算二维空间的位置坐标运算逻辑简单,有助于提高目标投掷位置确定效率。

在一个实施例中,在交互页面展示的虚拟场景中确定目标投掷位置包括:当虚拟场景中在虚拟对象对应的投掷距离范围内存在虚拟目标时,获取预先设置的优先级数据;根据优先级数据在投掷距离范围内选取虚拟目标;将选取的虚拟目标在虚拟场景中所处的位置确定为投掷物的目标位置。

其中,不同的投掷物具有不同的投掷距离范围。投掷距离范围具体可以是虚拟场景中以虚拟对象所在位置为原点,以目标投掷位置为边界点形成的圆形区域等。以目标投掷位置为边界点也可以理解为以连接投掷物初始位置和目标投掷位置所形成的直线线段在虚拟场景地面上的投影的长度为半径。

预先设置的优先级数据是指根据实际需要预先设置优先选取虚拟目标的条件。可提供一设置界面以便用户对选取虚拟目标的条件进行设置,例如,在游戏场景中通过提供的设置界面设置距离优先或者目标属性值优先等。该优先级数据可为优先按照距离从近至远选取虚拟目标,或者优先按照虚拟目标的属性值从低到高选取虚拟目标等。

在一个实施例中,终端通过设置界面获取到用户输入的优先级数据,可对应被控虚拟对象的标识进行存储。终端还可将被控虚拟对象的标识与对应的优先级数据上传到服务器进行存储。因此当终端从本地获取不到优先级数据时,可从服务器获取与被控虚拟对象的标识对应的优先级数据。

具体地,在目标动画展示至虚拟对象对投掷物执行瞄准动作时,终端获取各个虚拟目标以及被控的虚拟对象在虚拟场景中的位置数据,并根据位置数据计算场景中各个虚拟目标与被控虚拟对象的距离。若虚拟目标与被控虚拟对象的距离小于或等于投掷物的投掷距离,则该虚拟目标在投掷物对应的投掷距离范围内,若则,该虚拟目标在投掷物对应的投掷距离范围外。

举例说明,若手雷对应的投掷距离为5米,燃烧瓶对应的投掷距离为7米,那么当获取到的投掷物为手雷时,则会获取被控虚拟对象、各个虚拟目标在场景中位置数据,并根据位置数据计算各个虚拟目标与被控虚拟对象的距离,检测虚拟场景中是否有与被控虚拟对象的距离在5米范围内的虚拟目标。当获取到的投掷物为燃烧瓶时,则会检测虚拟场景中是否有与被控虚拟对象的距离在7米范围内的虚拟目标。

进一步地,如果预先设置的优先级数据为优先按照距离从近至远选取虚拟目标,那么在选取虚拟目标时,会优先选取距离最近的虚拟目标,在一个实施例中,如果距离最近的虚拟目标有两个以上,那么再从这两个以上的虚拟目标中随机选取虚拟目标或选取属性值最低的虚拟目标。如果预先设置的优先级数据为优先按照属性值从低到高选取虚拟目标,那么在选取虚拟目标时,会优先选取属性值最低的虚拟目标。在一个实施例中,如果属性值最低的虚拟目标有两个以上,那么再从这两个以上的虚拟目标中随机选取虚拟目标或选取距离最近的虚拟目标。

在一个实施例中,当获取的投掷物对应的投掷距离范围内没有虚拟目标时,则按照预设的其他确定目标投掷位置的方式在虚拟场景中确定一个位置作为投掷物额的目标投掷位置。比如,将被控虚拟角色当前的视角方向所对应的位置确定为目标投掷位置,或者将虚拟场景中默认的位置确定为目标投掷位置。

传统方式当被控虚拟对象会在虚拟场景中选取一个或多个虚拟目标作为对象进行攻击交互时,被控虚拟对象在获取控制指令之后,会默认将投掷物投向一个距离被控虚拟对象最近的虚拟目标。若选取的虚拟目标不是被控虚拟对象想要交互的虚拟目标,则还需要通过获取其他控制指令对被控虚拟对象进行位置调整,从而会产生很多不必要的数据处理,造成了资源浪费。

本实施例中,根据优先级数据在投掷距离范围内选取虚拟目标,相比于传统方法中默认选取一个距离被控虚拟对象最近的虚拟目标进行交互,可以根据预先设置的优先级数据在投掷距离范围内选取更合理的虚拟目标进行交互,减少了资源浪费。

在一个实施例中,目标动画包括准备状态动画、瞄准动作动画和投掷动作动画;如图8所示,步骤s206,即当展示至目标动画中虚拟对象对投掷物执行瞄准动作时,在交互页面展示的虚拟场景中确定目标投掷位置的步骤包括:

s802,当准备状态动画展示完毕时,判断交互指令是否仍持续。

s804,当交互指令仍持续时,展示瞄准状态动画。

s806,在展示瞄准动作动画过程中监听对虚拟对象的控制事件。

s808,根据控制事件中虚拟对象的视角方向确定目标投掷位置,返回判断交互指令是否仍持续的步骤。

步骤s208,即基于目标投掷位置对应的虚拟对象视角方向继续展示目标动画的步骤包括:

s810,当交互指令不再持续时,基于目标投掷位置对应的虚拟对象视角方向展示投掷动作动画。

其中,如上文,单独一个动作动画可以作为一种状态动画,因而目标动画中瞄准动作动画可以称作瞄准状态动画,投掷动作动画可以称作投掷状态动画。可以理解,本实施例采用的目标动画中瞄准动作动画一定是个独立的动作动画,未与其他动作动画拼接。准备状态动画是与瞄准动作动画是目标动画中展示时序相邻的两个状态动画。准备状态动画可以是独立的一个或多个动作动画,也可以是多个动作动画的拼接。

比如,在上述举例中,当虚拟对象与投掷物m进行交互的目标动画包括状态动画(a)、(b)、(c)和(d)时,(a)和(b)可以是准备状态动画,(c)为瞄准状态动画,(d)为投掷状态动画。当虚拟对象与投掷物m进行交互的目标动画包括状态动画(ab)、(c)和(d)时,(ab)可以是准备状态动画。

控制事件是指用户基于交互页面触发的对虚拟对象的控制操作的行为。如上文,在展示目标动画过程中,即在虚拟对象与投掷物交互过程中,用户可能触发了对虚拟对象的其他控制操作。控制操作具体可以是触发虚拟对象执行跑、跳、转向等单体动作的操作,终止当前投掷操作、或切换与虚拟对象交互的投掷物的操作等。其中触发虚拟对象执行跑、跳、转向等单体动作的操作可能会改变虚拟对象在虚拟场景中的视角方向,属于方向调整事件。

具体地,终端按照上述方式在交互页面依次展示准备状态动画、瞄准状态动画和投掷状态动画。如图6c所示,当准备状态动画(a)、(b)和(c)展示完毕时,终端判断交互指令是否仍持续。若交互指令仍持续,则终端继续展示瞄准动作动画d。在展示瞄准动作动画过程中,当用户希望对投掷物的投掷方向进行调整时,可以进行方向调整操作。在展示瞄准动作动画过程中,终端持续交互指令是否仍持续以及虚拟场景中是否发生对虚拟对象的控制事件。当监听到方向调整事件时,终端根据方向调整事件对虚拟摄像机的拍摄方向进行调整,将调整后虚拟摄像机的拍摄方向确定为投掷物调整后的投掷方向。

在一个实施例中,根据控制事件中虚拟对象的视角方向确定目标投掷位置的步骤包括:终端基于交互页面展示有视角调整控件,用户通过视角调整控件可以进行方向调整操作,控制虚拟摄像机的拍摄方向顺时针或者逆时针转动,从而调整投掷物的投掷方向。该方向调整操作可以为按压操作,用户在终端的视角调整控件上进行按压操作,终端可以基于该按压操作在该视角调整控件内的具体位置、该按压操作的按压力度和按压时间,确定拍摄方向的调整角度。

在一个实施例中,根据控制事件中虚拟对象的视角方向确定目标投掷位置的步骤包括:该方向调整操作还可以为对终端的转动操作,该终端检测到转动操作时,根据转动操作的转动方向、转动角度以及转动速度确定虚拟摄像机拍摄方向的调整角度。或者,该方向调整操作还可以为用户按压投掷物对应触发控件的过程中的滑动操作,该终端检测到滑动操作时,根据滑动操作的滑动方向和滑动距离确定虚拟摄像机拍摄方向的调整角度。可以理解,该方向调整操作还可以为按键操作或对摇杆设备的拨动操作等其他操作。

进一步地,在交互指令终止之前,若发生多次方向调整事件,则需要多次重新调整虚拟摄像机的拍摄方向,且在此期间若瞄准动画动作展示完毕则重复展示该瞄准动作动画。当监听到交互指令终止时,终端在交互页面结束展示瞄准动作动画,并基于最后一次调整后虚拟摄像机的拍摄方向展示投掷动作动画,即可控制虚拟对象将投掷物投掷到用户所制定的目标投掷位置。

本实施例中,根据交互指令的持续状态可以判断用户对投掷物投掷效率的要求,当交互指令在展示完准备状态动画时仍在持续,表示用户具有对投掷物的投掷速率并未有太高要求,反而对投掷准确性具有较高要求,此时终端支持用户对虚拟对象进行控制辅助瞄准,满足用户精准投掷的需求。

在一个实施例中,上述控制虚拟对象与投掷物进行交互的方法还包括:确定交互指令对应的交互模式;交互模式包括快速投掷模式;在交互页面展示的虚拟场景中确定目标投掷位置包括:在快速投掷模式下,基于虚拟对象当前在虚拟场景中的位置确定目标投掷位置。

其中,基于用户对虚拟对象投掷物的投掷速率、投掷精准性等的不同需求,本申请的实施例支持虚拟对象在不同交互模式下与投掷物进行交互。不同的交互模式用于满足用户不同的投掷需求。本申请的实施例中,交互应用提供了快速投掷模式、精准投掷模式和自适应投掷模式三者中的至少一种。

在快速投掷模式下,用户只需触发一次交互指令即可完成整个投掷操作。在精准投掷模式下,在用户触发了交互指令后,支持用户自行控制虚拟对象的瞄准动作,以保证投掷物投至用户意愿位置。在自适应投掷模式下,用户可以通过控制交互执行的持续状态来选定快速投掷模式和精准投掷模式中的一种。比如,若在触发了交互指令预设时长后交互指令仍持续,则基于精准投掷模式继续执行后续投掷操作;若在触发了交互指令预设时长后交互指令已终止,则基于快速投掷模式继续执行后续投掷操作。预设时长可以是小于或等于准备状态动画展示时长的一个时间长度。

具体地,当触发了交互指令时,终端获取交互模式配置数据。交互模式配置数据包括所选定的交互模式、交互模式适用范围等。交互模式适用范围是指适用所配置的该种交互模式的投掷物的范围,如可以是全部投掷物、某一种或几种特定类型的投掷物、某一个或几个特定投掷物等。终端将虚拟对象的标识与交互模式配置数据对应存储至服务器。

在一个实施例中,终端通过配置页面获取到用户输入的交互模式配置数据。参考图9,图9示出了一个实施例中用于获取交互模式配置数据的配置页面的页面示意图。如图9所示,配置页面提供了多种交互模式选项。用户通过制定投掷物并选定交互模式选项即可指定每个投掷物对应的交互模式。

进一步地,终端根据交互模式配置数据确定适用于当前交互指令所指向投掷物的交互模式。参考图10,图10示出了一个实施例中虚拟对象在快速投掷模式下与投掷物进行交互的流程示意图。如图10所示,若交互模式为快速投掷模式,终端根据交互指令所指向投掷物的配置数据判断投掷物是否可用。以所选定的投掷物为手雷为例,当投掷物可用时,终端获取虚拟对象与交互指令所指向的投掷物进行交互的目标动画。终端在交互页面基于虚拟对象的视角方向展示目标动画。在目标动画中,虚拟对象依次对投掷物执行装备动作动画、拉引线动作、瞄准动作和投掷动作。当展示至目标动画中虚拟对象对投掷物执行瞄准动作时,终端自动在交互页面展示的虚拟场景中确定目标投掷位置。终端基于目标投掷位置对应的虚拟对象视角方向继续展示目标动画。具体请参考对步骤s202至s208,以及图6b的描述,在此不再赘述。

在一个实施例中,当目标动画包括准备状态动画和快投状态动画时,终端在交互页面依次展示准备状态动画和快投状态动画。当准备状态动画展示完毕时,终端继续展示快投状态动画,并在展示至快投状态动画中虚拟对象对投掷物执行瞄准动作时,自动在虚拟场景中确定投掷物的目标投掷位置。终端基于目标投掷位置对应的虚拟对象视角方向继续展示快投状态动画即可控制虚拟对象将投掷物投掷到目标投掷位置。采用拼接了多个动作动画的状态动画响应交互指令,可以更好的满足用户的快速投掷需求。

自动在虚拟场景中确定投掷物的目标投掷位置的方式可以是:将交互页面当前所展示的虚拟场景中一个随机位置确定为目标投掷位置、将距离被控虚拟对象最近的一个虚拟目标所在的位置确定为目标投掷位置、将各投掷物的历史投掷位置集中度最高的一个作为当前被控投掷物的目标投掷位置、将交互页面中目标坐标点在虚拟场景所对应的位置确定为目标投掷位置、将距离被控虚拟对象最近的虚拟目标所处的位置确定为目标投掷位置、将根据优先级数据在投掷距离范围内所选取的虚拟目标在虚拟场景中的位置确定为目标投掷位置等。

本实施例中,支持用户选定不同的交互模式,在快速投掷模式下,用户只需触发一次交互指令,状态机便会自动触发完成整个投掷流程,并在投掷流程中瞄准环节自动确定投掷物的目标投掷位置进行释放,大大简化用户操作,提高交互指令响应效率。

在一个实施例中,上述控制虚拟对象与投掷物进行交互的方法还包括:确定交互指令对应的交互模式;交互模式包括自适应投掷模式;当展示至目标动画中虚拟对象与投掷物处于瞄准状态时,在交互页面展示的虚拟场景中确定目标投掷位置包括:在自适应投掷模式下,当展示至目标动画中虚拟对象与投掷物处于瞄准状态时,判断交互指令是否仍持续;若仍持续,基于所监听到的对虚拟对象的操控事件确定目标投掷位置;若已终止,基于虚拟对象当前在虚拟场景中的位置确定目标投掷位置。

具体地,当触发了交互指令时,终端根据交互模式配置数据确定适用于当前交互指令所指向投掷物的交互模式。参考图11,图11示出了一个实施例中虚拟对象在自适应投掷模式下与投掷物进行交互的流程示意图。如图11所示,当交互模式为自适应投掷时,终端根据交互指令所指向投掷物的配置数据判断投掷物是否可用。以所选定的投掷物为手雷为例,当投掷物可用时,终端获取虚拟对象与交互指令所指向的投掷物进行交互的准备状态动画。当准备状态动画展示完毕时,终端判断交互指令是否仍持续。

进一步地,若准备状态动画展示完毕时交互指令不再持续,触发投掷物进行快速投掷模式。在快速投掷模式下,终端获取快投状态动画,在交互页面展示快投状态动画,基于快投状态动画完成投掷操作,具体请参考对步骤s702至s708,以及图6c的描述,在此不再赘述。若准备状态动画展示完毕时交互指令仍持续,触发投掷物进行精准投掷模式。在精准投掷模式,终端获取瞄准动作动画和投掷动作动画,在交互页面展示瞄准动作动画,并基于监听到的对虚拟对象的控制事件调整虚拟摄像机的拍摄方向,基于调整后虚拟摄像机的拍摄方展示投掷动作动画,完成投掷操作,具体请参考对步骤s802至s808,以及图6c的描述,在此不再赘述。

在一个实施例中,终端可以在准备状态动画展示完毕前,即判断交互指令是否仍持续,即判断投掷物是否应当进入精准投掷模式的时机也可以早于准备状态动画展示结束时间。具体判断投掷物是否应当进入精准投掷模式的时机可以根据需求自由设定,只要早于瞄准动作动画展示起始时间即可。

在一个实施例中,当一个投掷物对应的交互模式为精准投掷模式时,则终端无需判断交互指令的持续状态,在展示完毕准备状态动画后继续展示瞄准动作动画。在展示瞄准动作动画过程中,终端持续虚拟场景中是否发生对虚拟对象的控制事件。当监听到方向调整事件时,终端根据方向调整事件对虚拟摄像机的拍摄方向进行调整,将调整后虚拟摄像机的拍摄方向确定为投掷物调整后的投掷方向。若自上一次方向调整事件结束预设时长内未再次发生新的方向调整事件,终端在交互页面结束展示瞄准动作动画,并基于最后一次调整后虚拟摄像机的拍摄方向展示投掷动作动画,即可控制虚拟对象将投掷物投掷到用户所制定的目标投掷位置。若自上一次方向调整事件结束预设时长内再次发生新的方向调整事件,终端根据新的方向调整事件重新调整虚拟摄像机的拍摄方向,且在此期间若瞄准动画动作展示完毕则循环展示该瞄准动作动画。

本实施例中,根据交互指令的持续状态可以判断用户对投掷物投掷效率的要求,对于对投掷物的投掷速率具有较高要求的投掷物,终端自动完成瞄准,简化用户参与操作;对于对投掷物的投掷准确性具有较高要求的投掷物,终端支持用户对虚拟对象进行控制辅助瞄准,满足用户多样化投掷需求。更重要的是无论哪种交互模式,均只需基于一种交互指令完成,可以节约服务器资源。

在一个实施例中,上述控制虚拟对象与投掷物进行交互的方法还包括:当在展示目标动画过程中监听到对虚拟对象的控制事件时,生成控制事件的通知消息;将通知消息发送至相应消息订阅接口,使消息订阅接口响应控制事件。

在本申请的实施例中,交互应用可以是基于观察者模式设计得到的面向对象的应用程序。观察者模式,又被称为发布/订阅模式,是一种软件设计模式。在观察者模式中,一个目标对象管理所有相依于它的观察者对象,并且在它本身的状态改变时主动发出通知,这通常透过呼叫各观察者所提供的方法来实现。观察者模式很好的将观察者对象和被观察对象分离开。例如,用户界面可以作为一个观察者对象,业务数据是被观察者对象。用户界面观察业务数据的变化,发现业务数据发生变化时,将变化后的业务数据显示在用户界面上。

在观察者模式中,观察者对象向被观察者对象提前订阅需要了解的信息,当被观察者对象对应信息发生变化时,主动将变化后的信息通知给每个订阅了该消息的观察者对象。在本申请的实施例中,交互应用包括多个模块系统,如场景系统、虚拟对象系统、投掷物系统、ui(userinterface,用户界面)系统、音效系统等。每个模块系统具有对应的消息订阅接口,用于向观察者订阅消息,并将获取到的信息提交给相应模块系统。

具体地,在展示目标动画过程中,用户随时可能触发对虚拟对象的控制操作。终端对这种控制操作对应的控制事件进行监听。当监听到控制事件时,终端生成控制事件的通知消息。控制事件的通知消息是指包括控制事件的事件标识的信息。终端通过消息订阅接口将控制事件的通知消息发送至订阅了该控制事件的模块系统。

比如,当交互页面某个投掷物对应的触发控件被触发时,交互应用中投掷物系统需要获知该事件。由于一个触发控件被触发可能会影响其他控件的展示效果,因而ui系统也需要获知该控件触发事件。由于按动控件可能需要有声音,因而音效系统也需要获知该控件触发事件。从而,投掷物系统、ui系统及音效系统分别预先订阅该触发控件对应的控制事件。

传统方式对控制事件的通知需要终端临时判断应当将控制事件发送至哪些模块系统,使得控制事件响应效率降低,且使得业务逻辑与数据逻辑存在较强的耦合,增加了交互应用的维护成本。而本实施例观察者模式将交互应用不同模块系统之间划定了清晰的界限,提高了交互应用的可维护性和重用性。

本实施例中,基于观察者模式的交互应用在监听到控制事件时,只需负责将控制事件通知给预先订阅了该控制事件的接口即可,无需进行临时计算,达到提高事件通知效率,且降低了交互应用数据逻辑和业务逻辑的耦合度,保持了交互应用代码的可维护性。

在一个实施例中,生成控制事件的通知消息包括:判断控制事件是否可执行;当控制事件可执行时,生成控制事件的通知消息;当控制事件不可执行时,对控制事件进行屏蔽。

具体的,若在展示目标动画过程中,用户触发了对虚拟对象的控制操作,终端首先从业务逻辑上判断该控制操作对应的控制事件与虚拟对象当前正在执行的交互动作是否冲突,即判断是否允许该控制操作对应控制事件的发生。比如,若在展示目标动画过程中,用户触发了虚拟对象执行跑、跳、转向等单体动作的控制事件,终端判断当前处于快速投掷模式下,判定该控制事件不可执行,或者当前处于精准投掷模式,判定该控制事件可执行。参考图12,图12示出了一个实施例中虚拟对象对投掷物执行不同交互动作的有向图。终端可以基于该有向图判断控件事件是否可执行。

进一步地,当判定控制事件可执行时,终端生成控制事件的通知消息,按照上述方式将控制事件的通知消息发送至订阅了该控制事件的模块系统。当判定控制事件不可执行时,终端直接将该控制事件屏蔽,即对该控制事件对应的控制指令不予响应。

传统方式对控制事件的通知是终端在监听到控制事件后立即进行事件的通知,由接收到通知消息的模块系统分别各自判断控制事件是否可执行。这种方式一旦控制事件不可执行则会造成较多通知消息的无效传输,浪费数据传输资源,造成较多的内存垃圾,增加了内存垃圾回收压力。

本实施例中,在进行事件通知事件对事件进行筛选,只有通过筛选的事件才会被通知给相应消息订阅接口,大大减少了事件触发的频率,减少了频繁的内存垃圾回收。

在一个具体的实施例中,如图13所示,本身请提供的控制虚拟对象与投掷物进行交互的方法包括以下步骤:

s1302,获取虚拟对象与投掷物进行交互的初始动画;初始动画包括具有不同展示时序的多个动作动画。

s1304,对展示时序相邻且动作动画中虚拟对象的动作类型符合拼接条件的至少两个动作动画进行拼接,得到一种交互状态下的状态动画。

s1306,将不符合拼接条件的每个动作动画分别确定为一种状态动画,得到包含多个状态动画的目标动画。

s1308,当触发交互指令时,获取虚拟对象与交互指令所指向的投掷物进行交互的目标动画。

s1310,根据状态动画的展示时长和展示时序,确定每个状态动画的等待时长。

s1313,自触发了交互指令开始计时,并确定虚拟对象当前的视角方向。

s1314,当达到一个状态动画对应的等待时长时,在交互页面触发基于所述当前的视角方向展示相应状态动画。

s1316,当展示至目标动画中虚拟对象对投掷物执行瞄准动作时,在交互页面展示的虚拟场景中确定目标投掷位置。

s1318,基于目标投掷位置对应的虚拟对象视角方向继续展示目标动画。

上述控制虚拟对象与投掷物进行交互的方法,当触发了交互制动后,自动获取虚拟对象与相应投掷物进行交互的目标动画,基于目标动画可以体现虚拟对象对投掷物依次执行不同交互动作的效果,即可以在一种交互动作执行完毕后自动切换至下一交互动作,无需额外的交互指令触发;当虚拟对象对投掷物执行瞄准动作时,根据自动确定的目标投掷位置调整目标动画中虚拟对象的视角方向,可以自动完成瞄准,继续展示动画即可控制将投掷物投掷到虚拟场景中目标投掷位置,同样不需要额外的交互指令触发,基于一种交互指令完成整个投掷操作,简化了用户操作,同时减少了服务器响应频次,节约服务器资源。

在另一个具体的实施例中,如图14所示,本身请提供的控制虚拟对象与投掷物进行交互的方法包括以下步骤:

s1402,当触发交互指令时,获取虚拟对象与交互指令所指向的投掷物进行交互的准备状态动画。

s1404,在交互页面基于虚拟对象的视角方向展示准备状态动画。

s1406,当准备状态动画展示完毕时,判断交互指令是否仍持续。

s1408,当准备状态动画展示完毕时交互指令不再持续时,获取快投状态动画,展示快投状态动画。

s1410,当展示至快投状态动画中虚拟对象对投掷物执行瞄准动作时,将交互页面中目标坐标点在虚拟场景所对应的位置确定为目标投掷位置。

s1412,基于目标投掷位置对应的虚拟对象视角方向继续展示快投状态动画。

s1414,当准备状态动画展示完毕时交互指令仍持续时,获取瞄准动作动画和投掷动作动画,展示瞄准动作动画。

s1416,在展示瞄准动作动画过程中监听对虚拟对象的控制事件。

s1418,根据控制事件中虚拟对象的视角方向确定目标投掷位置,返回判断交互指令是否仍持续的步骤。

s1420,当交互指令不再持续时,基于目标投掷位置对应的虚拟对象视角方向展示投掷动作动画。

上述控制虚拟对象与投掷物进行交互的方法,根据交互指令的持续状态可以判断用户对投掷物投掷效率的要求,当交互指令在展示完准备状态动画时已不再持续,表示用户具有期望快速对投掷物进行投掷,此时终端自动完成瞄准,简化用户参与操作,提高交互执行响应效率,可以满足用户急迫的投掷物投掷需求。当交互指令在展示完准备状态动画时仍在持续,表示用户具有对投掷物的投掷速率并未有太高要求,反而对投掷准确性具有较高要求,此时终端支持用户对虚拟对象进行控制辅助瞄准,满足用户精准投掷的需求。

在又一个具体的实施例中,如图15所示,本身请提供的控制虚拟对象与投掷物进行交互的方法包括以下步骤:

s1502,当触发交互指令时,确定交互指令对应的交互模式;交互模式包括快速投掷模式和自适应投掷模式。

s1504,当交互模式为快速投掷模式时,获取虚拟对象与交互指令所指向的投掷物进行交互的目标动画。

s1506,在交互页面基于虚拟对象的视角方向展示目标动画。

s1508,当展示至目标动画中虚拟对象对投掷物执行瞄准动作时,将交互页面中目标坐标点在虚拟场景所对应的位置确定为目标投掷位置。

s1510,在交互页面基于虚拟对象的视角方向继续展示目标动画。

s1512,当交互模式为自适应投掷模式时,获取虚拟对象与交互指令所指向的投掷物进行交互的准备状态动画。

s1514,在交互页面基于虚拟对象的视角方向展示准备状态动画。

s1516,当准备状态动画展示完毕时,判断交互指令是否仍持续。

s1518,当准备状态动画展示完毕时交互指令不再持续时,获取快投状态动画,展示快投状态动画。

s1520,当展示至快投状态动画中虚拟对象对投掷物执行瞄准动作时,将交互页面中目标坐标点在虚拟场景所对应的位置确定为目标投掷位置。

s1522,基于目标投掷位置对应的虚拟对象视角方向继续展示快投状态动画。

s1524,当准备状态动画展示完毕时交互指令仍持续时,获取瞄准动作动画和投掷动作动画,展示瞄准动作动画。

s1526,在展示瞄准动作动画过程中监听对虚拟对象的控制事件;

s1528,根据控制事件中虚拟对象的视角方向确定目标投掷位置,返回判断交互指令是否仍持续的步骤。

s1530,当交互指令不再持续时,基于目标投掷位置对应的虚拟对象视角方向展示投掷动作动画。

上述控制虚拟对象与投掷物进行交互的方法,支持用户选定不同的交互模式,在快速投掷模式下,用户只需触发一次交互指令,状态机便会自动触发完成整个投掷流程,并在投掷流程中瞄准环节自动确定投掷物的目标投掷位置进行释放,大大简化用户操作,提高交互指令响应效率。

图2、7、8、13、14和15为一个实施例中控制虚拟对象与投掷物进行交互方法的流程示意图。应该理解的是,虽然图2、7、8、13、14和15的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、7、8、13、14和15中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

在一个实施例中,如图16所示,提供了一种控制虚拟对象与投掷物进行交互装置1600,包括:投掷准备模块1602、位置瞄准模块1604和物品投掷模块1606,其中,

投掷准备模块1602,用于当触发交互指令时,获取虚拟对象与交互指令所指向的投掷物进行交互的目标动画;在交互页面基于虚拟对象的视角方向展示目标动画。

位置瞄准模块1604,用于当展示至目标动画中虚拟对象对投掷物执行瞄准动作时,在交互页面展示的虚拟场景中确定目标投掷位置。

物品投掷模块1606,用于基于目标投掷位置对应的虚拟对象视角方向继续展示目标动画。

在一个实施例中,如图17示,上述控制虚拟对象与投掷物进行交互装置1600还包括动画拼接模块1608,用于获取虚拟对象与投掷物进行交互的初始动画;初始动画包括具有不同展示时序的多个动作动画;对展示时序相邻且动作动画中虚拟对象的动作类型符合拼接条件的至少两个动作动画进行拼接,得到一种交互状态下的状态动画;将不符合拼接条件的每个动作动画分别确定为一种状态动画,得到包含多个状态动画的目标动画。

在一个实施例中,投掷准备模块1602还用于根据状态动画的展示时长和展示时序,确定每个状态动画的等待时长;自触发了交互指令开始计时,并确定虚拟对象当前的视角方向;当达到一个状态动画对应的等待时长时,在交互页面触发基于当前的视角方向展示相应状态动画。

在一个实施例中,目标动画包括准备状态动画和快投状态动画;位置瞄准模块1604还用于当准备状态动画展示完毕时,判断交互指令是否仍持续;当交互指令不再持续时,展示快投状态动画;当展示至快投状态动画中虚拟对象对投掷物执行瞄准动作时,在交互页面展示的虚拟场景中确定目标投掷位置;物品投掷模块1606还用于基于目标投掷位置对应的虚拟对象视角方向继续展示快投状态动画。

在一个实施例中,位置瞄准模块1604还用于将交互页面中目标坐标点在虚拟场景所对应的位置确定为目标投掷位置。

在一个实施例中,位置瞄准模块1604还用于当虚拟场景中在虚拟对象对应的投掷距离范围内存在虚拟目标时,获取预先设置的优先级数据;根据优先级数据在投掷距离范围内选取虚拟目标;将选取的虚拟目标在虚拟场景中所处位置确定为投掷物的目标投掷位置。

在一个实施例中,目标动画包括准备状态动画、瞄准动作动画和投掷动作动画;位置瞄准模块1604还用于当准备状态动画展示完毕时,判断交互指令是否仍持续;当交互指令仍持续时,展示瞄准动作动画;在展示瞄准动作动画过程中监听对虚拟对象的控制事件;根据控制事件中虚拟对象的视角方向确定目标投掷位置,返回判断交互指令是否仍持续的步骤;基于目标投掷位置对应的虚拟对象视角方向继续展示目标动画包括:当交互指令不再持续时,基于目标投掷位置对应的虚拟对象视角方向展示投掷动作动画。

在一个实施例中,上述控制虚拟对象与投掷物进行交互装置1600还包括模式确定模块1610,用于确定交互指令对应的交互模式;交互模式包括快速投掷模式;位置瞄准模块1604还用于在快速投掷模式下,基于虚拟对象当前在虚拟场景中的位置确定目标投掷位置。

在一个实施例中,模式确定模块1610还用于确定交互指令对应的交互模式;交互模式包括自适应投掷模式;位置瞄准模块1604还用于在自适应投掷模式下,当展示至目标动画中虚拟对象与投掷物处于瞄准状态时,判断交互指令是否仍持续;若仍持续,基于所监听到的对虚拟对象的控制事件确定目标投掷位置;若已终止,基于虚拟对象当前在虚拟场景中的位置确定目标投掷位置。

在一个实施例中,上述控制虚拟对象与投掷物进行交互装置1600还包括事件通知模块1612,用于当在展示目标动画过程中监听到对虚拟对象的控制事件时,生成控制事件的通知消息;将通知消息发送至相应消息订阅接口,使消息订阅接口响应控制事件。

在一个实施例中,事件通知模块1612还用于判断控制事件是否可执行当控制事件可执行时,生成控制事件的通知消息;当控制事件不可执行时,对控制事件进行屏蔽。

上述控制虚拟对象与投掷物进行交互的装置,当触发了交互制动后,自动获取虚拟对象与相应投掷物进行交互的目标动画,基于目标动画可以体现虚拟对象对投掷物依次执行不同交互动作的效果,即可以在一种交互动作执行完毕后自动切换至下一交互动作,无需额外的交互指令触发;当虚拟对象对投掷物执行瞄准动作时,根据自动确定的目标投掷位置调整目标动画中虚拟对象的视角方向,可以自动完成瞄准,继续展示动画即可控制将投掷物投掷到虚拟场景中目标投掷位置,同样不需要额外的交互指令触发,基于一种交互指令完成整个投掷操作,简化了用户操作,同时减少了服务器响应频次,节约服务器资源。

图18示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的终端110。如图18所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现控制虚拟对象与投掷物进行交互方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行控制虚拟对象与投掷物进行交互方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。

本领域技术人员可以理解,图18中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。

在一个实施例中,本申请提供的控制虚拟对象与投掷物进行交互装置可以实现为一种计算机程序的形式,计算机程序可在如图18所示的计算机设备上运行。计算机设备的存储器中可存储组成该控制虚拟对象与投掷物进行交互装置的各个程序模块,比如,图16所示的投掷准备模块、位置瞄准模块和物品投掷模块。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的控制虚拟对象与投掷物进行交互方法中的步骤。

例如,图18所示的计算机设备可以通过如图16所示的控制虚拟对象与投掷物进行交互装置中的投掷准备模块执行步骤s202和s204。计算机设备可通过位置瞄准模块执行步骤s206。计算机设备可通过物品投掷模块执行步骤s208。

在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述控制虚拟对象与投掷物进行交互方法的步骤。此处控制虚拟对象与投掷物进行交互的方法的步骤可以是上述各个实施例的控制虚拟对象与投掷物进行交互的方法中的步骤。

在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述控制虚拟对象与投掷物进行交互方法的步骤。此处控制虚拟对象与投掷物进行交互的方法的步骤可以是上述各个实施例的控制虚拟对象与投掷物进行交互的方法中的步骤。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。

以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上实施例仅表达了本申请的几种实施方式,其描述较为具体详细,但并不能因此而理解为对本申请专利范围的限制。应指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可做出若干变形和改进,这些均属本申请的保护范围。因此,本申请专利保护范围应以所附权利要求为准。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1