交互数据处理方法、装置、计算机设备和存储介质与流程

文档序号:16308965发布日期:2018-12-19 05:12阅读:137来源:国知局
交互数据处理方法、装置、计算机设备和存储介质与流程

本发明涉及计算机技术领域,特别是涉及一种交互数据处理方法、装置、计算机设备和存储介质。

背景技术

随着科学技术的飞速发展,各种通信技术越来越先进,人们对通信形式的需求也越来越多样化。目前的交互通信方式中,实时交互通信方式凭借及时性和良好互动性等优势,受到广大用户的欢迎。

实时交互通信,要求进行交互通信的信息接收方和信息发送方都保持在线状态,信息发送方在发送信息至信息接收方后,需要同步等待信息接收方的响应。

然而,目前实时交互通信过程中,都是进行实时收发处理的,为了满足实时性,每次实时收发的实时交互信息的信息量比较小。



技术实现要素:

基于此,有必要针对目前实时交互通信的交互信息的信息量比较小的问题,提供一种交互数据处理方法、装置、计算机设备和存储介质。

一种交互数据处理方法,所述方法包括:

在虚拟会话场景中通过虚拟会话成员进行实时交互;

获取异步消息的触发指令;

当所述触发指令所对应的异步消息获取方式与所述实时交互互斥时,则

中断与所述异步消息获取方式互斥的所述实时交互;

根据所述触发指令获取用于在所述虚拟会话场景中播放的异步消息;

发送获取的异步消息;

恢复中断的所述实时交互。

一种交互数据处理装置,所述装置包括:

实时交互模块,用于在虚拟会话场景中通过虚拟会话成员进行实时交互;

指令获取模块,用于获取异步消息的触发指令;

互斥处理模块,用于当所述触发指令所对应的异步消息获取方式与所述实时交互互斥时,则中断与所述异步消息获取方式互斥的所述实时交互;

异步消息获取模块,用于根据所述触发指令获取用于在所述虚拟会话场景中播放的异步消息;

发送模块,用于发送获取的异步消息;

所述互斥处理模块还用于恢复中断的所述实时交互。

一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如下步骤:

在虚拟会话场景中通过虚拟会话成员进行实时交互;

获取异步消息的触发指令;

当所述触发指令所对应的异步消息获取方式与所述实时交互互斥时,则

中断与所述异步消息获取方式互斥的所述实时交互;

根据所述触发指令获取用于在所述虚拟会话场景中播放的异步消息;

发送获取的异步消息;

恢复中断的所述实时交互。

一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如下步骤:

在虚拟会话场景中通过虚拟会话成员进行实时交互;

获取异步消息的触发指令;

当所述触发指令所对应的异步消息获取方式与所述实时交互互斥时,则

中断与所述异步消息获取方式互斥的所述实时交互;

根据所述触发指令获取用于在所述虚拟会话场景中播放的异步消息;

发送获取的异步消息;

恢复中断的所述实时交互。

上述交互数据处理方法、装置、计算机设备和存储介质,在虚拟会话场景中通过虚拟会话成员进行实时交互;获取异步消息的触发指令;当触发指令所对应的异步消息获取方式与实时交互互斥时,则中断与异步消息获取方式互斥的实时交互;根据触发指令获取用于在虚拟会话场景中播放的异步消息;发送获取的异步消息;恢复中断的实时交互。在实时交互中插入异步消息的发送处理,实现了实时交互和异步消息的整合,使得用户在实时交互通信过程中,能够通过发送异步交互信息来提高交互信息的信息量。

一种交互数据处理方法,所述方法包括:

在虚拟会话场景中通过虚拟会话成员进行实时交互;

接收异步消息;

当所述异步消息的播放方式与所述实时交互互斥时,则

中断与所述播放方式互斥的所述实时交互;

在所述虚拟会话场景中播放所述异步消息;

在播放所述异步消息结束后,恢复中断的所述实时交互。

一种交互数据处理装置,所述装置包括:

实时交互模块,用于在虚拟会话场景中通过虚拟会话成员进行实时交互;

接收模块,用于接收异步消息;

互斥处理模块,用于当所述异步消息的播放方式与所述实时交互互斥时,则中断与所述播放方式互斥的所述实时交互;

异步消息播放模块,用于在所述虚拟会话场景中播放所述异步消息;

所述互斥处理模块还用于在播放所述异步消息结束后,恢复中断的所述实时交互。

一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如下步骤:

在虚拟会话场景中通过虚拟会话成员进行实时交互;

接收异步消息;

当所述异步消息的播放方式与所述实时交互互斥时,则

中断与所述播放方式互斥的所述实时交互;

在所述虚拟会话场景中播放所述异步消息;

在播放所述异步消息结束后,恢复中断的所述实时交互。

一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如下步骤:

在虚拟会话场景中通过虚拟会话成员进行实时交互;

接收异步消息;

当所述异步消息的播放方式与所述实时交互互斥时,则

中断与所述播放方式互斥的所述实时交互;

在所述虚拟会话场景中播放所述异步消息;

在播放所述异步消息结束后,恢复中断的所述实时交互。

上述交互数据处理方法、装置、计算机设备和存储介质,在虚拟会话场景中通过虚拟会话成员进行实时交互;在虚拟会话场景中通过虚拟会话成员进行实时交互;接收异步消息;当异步消息的播放方式与实时交互互斥时,则中断与播放方式互斥的实时交互;在虚拟会话场景中播放异步消息;在播放异步消息结束后,恢复中断的实时交互。在实时交互中插入异步消息的播放处理,实现了实时交互和异步消息的整合,使得用户在实时交互通信过程中,能够通过播放异步交互信息来提高交互信息的信息量。

附图说明

图1为一个实施例中交互数据处理方法的应用环境图;

图2为一个实施例中计算机设备的内部结构示意图;

图3为一个实施例中交互数据处理方法的流程示意图;

图4a为一个实施例中实时交互的虚拟会话场景界面示意图;

图4b为一个实施例中获取异步消息的界面示意图;

图5为一个实施例中实现该交互数据处理方法的架构图;

图6为一个实施例中播放异步消息的界面示意图;

图7a至图7b为另一个实施例中播放异步消息的界面示意图;

图8为一个实施例中实时交互步骤的流程示意图;

图9为一个实施例中实现该交互数据处理方法的时序图;

图10为另一个实施例中交互数据处理方法的流程示意图;

图11为又一个实施例中交互数据处理方法的流程示意图;

图12为一个实施例中预设互动动作播放步骤的流程示意图;

图13为一个实施例中交互数据处理装置的结构框图;

图14为另一个实施例中交互数据处理装置的结构框图;

图15为又一个实施例中交互数据处理装置的结构框图。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

图1为一个实施例中交互数据处理方法的应用环境图。参照图1,该交互数据处理方法的应用环境包括第一终端110、第二终端120和服务器130。其中,第一终端110和第二终端120中安装有具备实现虚拟会话场景功能的应用程序,第一终端110和第二终端120既可以用于发送异步消息,又可以用于接收异步消息。服务器130可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群。服务器130可以包括开放服务平台,还可以包括接入开放服务平台的接入服务器。第一终端110和第二终端120可以是相同或者不同的终端。终端可以是移动终端、台式计算机或车载设备,移动终端可以包括手机、平板电脑、个人数字助理和穿戴式设备等中的至少一种。

在虚拟会话场景中,第一终端110可通过相应的虚拟会话成员与第二终端120相应的虚拟会话成员进行实时交互,其中,实时交互可以包括实时语音交互和/或实时表情交互。第一终端110可获取异步消息的触发指令,当触发指令所对应的异步消息获取方式与实时交互互斥时,则中断与异步消息获取方式互斥的实时交互,并根据触发指令获取用于在虚拟会话场景中播放的异步消息。第一终端110可发送获取的异步消息至服务器130,并恢复中断的实时交互。进一步地,服务器130可以将该异步消息转发至第二终端120,第二终端120可以在虚拟会话场景中播放该异步消息。其中,第二终端120为至少一个。

可以理解,在其它实施例中,第一终端110可以通过点对点的方式直接将异步消息发送至第二终端120,而不需要通过服务器130的转发。

图2为一个实施例中计算机设备的内部结构示意图。该计算机设备可以是图1中的第一终端110和第二终端120。参照图2,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、内存储器、网络接口、显示屏和输入装置。其中,该计算机设备的非易失性存储介质可存储操作系统和计算机可读指令,该计算机可读指令被执行时,可使得处理器执行一种交互数据处理方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种交互数据处理方法。计算机设备的网络接口用于进行网络通信,如发送异步消息和接收异步消息等。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。触摸层和显示屏构成触控屏。

本领域技术人员可以理解,图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。

图3为一个实施例中交互数据处理方法的流程示意图。该交互数据处理方法可以应用于图1中的第一终端110和/或第二终端120。本实施例主要以该方法应用于上述图1中的第一终端110来举例说明。参照图3,该方法具体包括如下步骤:

s302,在虚拟会话场景中通过虚拟会话成员进行实时交互。

其中,虚拟会话场景,是为虚拟会话成员提供的会话场景,加入该虚拟会话场景的成员进行形象展示时,皆以虚拟会话成员的形象进行展示。虚拟会话场景,可支持实时通信和异步通信。

在一个实施例中,虚拟会话场景可以是虚拟房间。虚拟会话场景可以是三维虚拟会话场景或二维虚拟会话场景。虚拟会话场景可以基于会话创建,具体地,虚拟会话场景可以基于多人会话(会话成员大于或等于3的会话)创建,也可以基于双人会话(会话成员仅为2个的会话)创建。

虚拟会话成员,是该虚拟会话场景中的成员进行展示时的虚拟形象。可以理解,虚拟形象是虚拟出的形象,不同于真实形象。虚拟会话成员包括虚拟的人物形象。虚拟会话成员还可以包括动物、植物或其它事物的虚拟形象。虚拟会话成员可以是三维虚拟会话成员或二维虚拟会话成员。虚拟会话成员可以是默认的虚拟形象(比如,虚拟会话初始模型),也可以是通过虚拟会话成员初始模型结合用户特征(比如用户面部特征)和/或用户自定义的属性(比如服装属性)得到的虚拟形象。

可以理解,在虚拟会话场景中,第一终端与要进行实时交互的第二终端之间已经预先建立了实时通信连接。第一终端可以通过该实时通信连接,在虚拟会话场景中,通过虚拟会话成员触发实时交互数据,以进行与第二终端之间的实时交互。实时交互数据,包括实时语音数据、实时表情数据和实时互动动作数据中的至少一种。其中,实时互动动作数据是不同于实时表情数据,是可以通过获取预设的实时互动动作生成的、且用于实现实时互动的动作数据。实时互动动作数据可以是单人互动动作,即一个虚拟会话成员实施该实时互动动作,也可以是多人(大于等于2)互动动作,即多个(大于等于2个)虚拟会话成员共同实现该实时互动动作。实时互动动作包括跳舞、拥抱、飞吻等。

在一个实施例中,可以是第一终端直接与第二终端之间建立实时通信连接,也可以是第一终端、第二终端分别与服务器之间建立实时通信连接,通过服务器实时转发相互间的实时交互数据,以实现实时交互。其中,实时通信连接,可以是基于udp协议(userdatagramprotocol,用户数据报协议)建立的连接。在一个实施例中,第一终端、第二终端可以分别与服务器中的实时交互服务程序之间建立实时通信连接。

s304,获取异步消息的触发指令。

其中,异步消息的触发指令,用于触发异步消息的获取和发送操作。异步消息不需要交互通信的双方实时处于在线状态就可以发送,消息发送方在发送异步消息后,不需要同步等待接收方的响应,就可以继续发送下一个消息。

异步消息可以是即时通信消息或短消息等。异步消息可以包括语音消息或表情消息。表情消息,是可以用于获取表情数据的消息。表情数据,是能够表示相应的表情动作的数据。

异步消息还可以包括预设互动动作消息、图片消息或文字消息等。可以理解,一条异步消息还可以是以上消息的组合。比如,语音表情消息(即既包含语音又包含表情的消息)或者文字图片消息(即既包含文字又包含图片的消息)。

具体地,第一终端中可运行具有实现虚拟会话场景的应用程序,并将该应用程序界面进行显示。用户可以通过在该应用程序的显示界面上进行异步消息触发操作,第一终端响应于该异步消息触发操作,生成异步消息的触发指令。

s306,当触发指令所对应的异步消息获取方式与实时交互互斥时,则中断与异步消息获取方式互斥的实时交互。

其中,异步消息获取方式,是获取异步消息的方式。异步消息获取方式,可以包括语音采集、图像采集或输入(包括选择输入)等方式。

可以理解,异步消息获取方式是根据触发指令来确定。不同类型的异步消息的获取方式可以不同。比如,语音消息可以通过语音采集来获取,表情消息可以通过图像采集来获取,文字消息可以通过获取输入的文字的方式来获取等等。相同类型的异步消息的触发指令可以不同,因而所对应的异步消息获取方式也就可以不同。比如,图片消息,可以是通过选择已有图片的方式来触发获取,也可以是通过触发图像采集设备拍照得到图片的方式来获取。

互斥,是互不相容,当双方需要使用同一个对象时,则双方就存在互斥关系。本实施例中,当异步消息获取方式需要使用实现实时交互的对象时,则该异步消息获取方式与该实时交互互斥。其中,实现实时交互的对象,包括实时交互数据的采集装置和/或虚拟会话成员。

在一个实施例中,当触发指令为录制语音的指令和/或采集图像的指令时,该触发指令所对应的异步消息获取方式则为语音采集和/或图像采集,则该异步获取方式与实时交互互斥。可以理解,通过图像采集得到的图像可以用于生成并输出图片(比如拍照),也可以用于表情特征的识别,得到表情数据。

中断与异步消息获取方式互斥的实时交互,是暂停当前与异步消息获取方式互斥的实时交互的执行,转而执行处理异步消息的获取。可以理解,中断并不是将实时交互完全结束掉,是指暂停,后续是可以恢复的(比如,异步消息发送后就可以恢复该中断的实时交互)。在一个实施例中,第一终端可以通过控制实现实时交互的接口暂停对实时交互的处理,而转成用于获取异步消息,以中断实时交互。

可以理解,第一终端在虚拟会话场景中通过虚拟会话成员所进行的实时交互可以为一种或多种,仅中断互斥与异步消息获取方式互斥的实时交互。在一个实施例中,实时交互包括实时语音交互和/或实时表情交互。实时表情交互,是实时发送所采集的实时表情数据。

比如,异步消息获取方式为语音采集,即需要使用语音采集装置录制语音数据生成异步的语音消息,而实时交互中也需要使用语音采集装置实时采集和发送语音数据,则该异步消息获取方式就与实时语音交互互斥,而由于不需要图像采集装置,因此该异步消息获取方式就与实时交互中的实时表情交互不互斥。

s308,根据触发指令获取用于在虚拟会话场景中播放的异步消息。

在一个实施例中,第一终端可以根据触发指令录制表情数据和/或语音数据表情数据,是能够表示相应的表情动作的数据。

采集图像(比如,头部图像)和/或录制语音数据,根据识别图像中的表情特征得到的表情数据和/或所录制的语音数据生成异步消息。第一终端还可以根据触发指令拍摄照片,并根据拍摄的照片生成异步消息(即图片消息)。

在一个实施例中,第一终端在根据触发指令采集并识别图像时,可以在第一终端所展示的虚拟会话场景中,将当前用户标识所对应的虚拟会话成员进行焦点显示,并控制该虚拟会话成员触发该表情数据所表示的表情动作。当前用户标识,是当前通过实现虚拟会话场景的应用程序登录于第一终端的用户标识。焦点显示,可以是将当前用户标识所对应的虚拟会话成员,在虚拟会话场景中的多个虚拟会话成员中以突出表现的方式进行显示,也可以是在该虚拟会话场景中只显示该当前用户标识所对应的虚拟会话成员。

图4a为一个实施例中实时交互的虚拟会话场景界面示意图。在实时交互时,虚拟会话场景中展示有3个虚拟会话成员a、b和c。图4b为一个实施例中获取异步消息的界面示意图。图4b中的虚拟会话成员a即为当前用户标识所对应的虚拟会话成员,用户可以通过按压按钮i来触发表情消息的触发指令,以采集表情数据,在采集表情数据过程中,在虚拟会话场景中,只显示当前用户标识所对应的虚拟会话成员a(即进行焦点显示)。

其中,获取的异步消息用于在虚拟会话场景中被播放。播放,是将该异步消息在虚拟会话场景中进行体现,可以以语音播放的形式和/或展示的形式进行体现。展示,可以是通过控制虚拟会话成员实施相应动作进行展示,也可以是与虚拟会话成员进行关联显示。

s310,发送获取的异步消息。

具体地,第一终端可以将异步消息直接发送至虚拟会话场景中的除当前用户标识以外的用户标识所对应的第二终端(以下简称第二终端)。其中,第二终端可以是全部或部分第二终端,第二终端为至少一个可以理解,当前用户标识和第二终端所对应的用户标识,用于唯一标识该虚拟会话场景中的相应成员。

其中,第一终端可以直接通过点对点的方式,直接将异步消息发送至第二终端,第一终端也可以将异步消息发送至服务器,使服务器将该异步消息转发至该虚拟会话场景中的第二终端。在一个实施例中,第一终端可以与服务器中的异步消息服务程序预先建立异步消息连接通道(比如,以tcp连接的方式建立异步消息连接通道)。图5为一个实施例中实现该交互数据处理方法的架构图。

进一步地,第二终端可以在虚拟会话场景中播放该异步消息。在一个实施例中,该第二终端可以根据该异步消息获取语音数据和/或表情数据,并在虚拟会话场景中播放该语音数据和/或表情数据。

在一个实施例中,当根据异步消息获取到语音数据和表情数据时,第二终端可以在虚拟会话场景中,播放语音数据,并控制与该表情数据对应的虚拟会话成员,触发该表情数据所对应的表情动作。其中,与该表情数据对应的虚拟会话成员,即是第一终端上登录的用户标识所对应的虚拟会话成员。第二终端在接收到异步消息后,可以直接播放异步消息,也可以通过相应的触发操作来播放异步消息。在一个实施例中,第二终端在接收到异步消息后,在虚拟会话场景界面中,显示与该异步消息对应的用户标识所对应的图标,根据所接收的对该图标的触发操作来触发语音数据的播放,以及触发将与该异步消息对应的用户标识所对应的虚拟会话成员进行焦点显示,并控制该虚拟会话成员触发该表情数据所表示的表情动作。其中,与该异步消息对应的用户标识所对应的图标可以是相应的虚拟会话成员的头像图标。可以理解,异步消息可以重复触发播放。

图6为一个实施例中播放异步消息的界面示意图。结合图4a中接收异步消息前的实时交互状态下的虚拟会话场景和图4b中录制异步消息的界面示意图,图6中所显示的虚拟会话成员a即为该异步消息对应的虚拟会话成员(图6中的虚拟会话成员a即为焦点显示状态),图6中的头像图标a为虚拟会话成员a的头像图标,通过触发该头像图标a可以播放语音数据,并控制虚拟会话成员a触发该表情数据所表示的表情动作。

s312,恢复中断的实时交互。

恢复中断的实时交互,是将所中断的实时交互恢复执行。第一终端在恢复中断的实时交互后,可以在虚拟会话场景中继续通过虚拟会话成员进行之前所中断的实时交互。比如,假设之前中断了实时表情交互,恢复该实时表情交互的执行后,则第一终端可以在虚拟会话场景中继续通过虚拟会话成员与第二终端进行实时表情交互。

上述交互数据处理方法,在实时交互中插入异步消息的播放处理,实现了实时交互和异步消息的整合,使得用户在实时交互通信过程中,能够通过播放异步交互信息来提高交互信息的信息量。

在一个实施例中,步骤s308包括:根据触发指令采集头部图像;识别头部图像中的表情特征,得到用于控制虚拟会话场景中的虚拟会话成员触发表情动作的表情数据;根据表情数据生成用于在虚拟会话场景中播放的异步消息。

具体地,用户可以通过按压或点击等方式用于触发图像采集的按钮来发起异步消息的触发操作,生成相应的异步消息触发指令。如触发图4b中的按钮i即可用于触发图像采集。

其中,头部图像,是对头部进行图像采集得到的图像数据。头部头像数据可以包括面部图像数据和头部动作图像数据。头部动作,包括头部扭转动作,比如低头、抬头、向左扭转或向右扭转等动作。

具体地,第一终端可以通过调用本机摄像头采集头部图像。其中,本机摄像头可以是本机的前置摄像头或后置摄像头。可以理解,所采集的头部图像数据可以是对任意出现在图像采集区域内的头部进行图像采集得到的,并不限定于当前用户标识所标识的用户。

表情特征,是能够表达感情或情绪的特征,包括面部表情特征和姿态表情特征。面部表情,是通过面部器官表达的表情,比如挑眉或眨眼等面部表情。姿态表情,是通过肢体动作表达的表情,比如转头等动作表情。

在一个实施例中,第一终端可以对头部图像数据进行解析,识别该头部图像数据中的面部表情特征和/或头部动作表情特征,得到表情数据。表情数据,是能够表示相应的表情动作的数据。该表情数据能够控制虚拟会话场景中相应的虚拟会话成员触发所表示的表情动作。

第一终端可以根据表情数据生成用于在虚拟会话场景中播放的异步消息。具体地,第一终端可以将直接将表情数据作为消息内容生成该异步消息,第一终端也可以将表情数据的下载地址作为消息内容生成该异步消息。

上述实施例中,通过发送包括表情数据的异步消息,以控制虚拟会话场景中相应的虚拟会话成员触发表情数据所对应的表情动作,是对真实表情的另外一种表现方式,提供了新的互动方式。

在一个实施例中,识别头部图像中的表情特征,得到用于控制虚拟会话场景中的虚拟会话成员触发表情动作的表情数据包括:识别按时序采集的头部图像中的表情特征,得到具有时序的表情数据帧,每个表情数据帧包括对应于表情类型的表情特征值。根据表情数据生成用于在虚拟会话场景中播放的异步消息包括:根据具有时序的表情数据帧生成异步消息,异步消息用于控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

其中,表情数据帧,是一帧一帧的表情数据。可以理解,头部图像是一帧一帧采集的,识别每帧头部图像中的表情特征,得到相应的表情数据帧。可以理解,每个表情数据帧中包括至少一个表情类型和相应的表情特征值。比如,一个表情数据帧中,可以同时包括闭眼和张嘴的表情类型和相应的表情特征值。

表情类型,是表情在动作表现维度的类别,包括张嘴、眨眼、笑、哭、转头或点头等。可以理解,上述所列举的表情类型仅用于举例,并不用于限定表情的分类,可以根据实际需要设置表情类型的种类。表情特征值,用于表征表情类型所对应的表情动作幅度和/或程度的大小。

具体地,第二终端可以根据表情数据帧中表情特征值所对应的表情类型,控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,第一终端识别按时序采集的头部图像中的表情特征,还可以得到具有时序的表情数据帧之间的时间间隔,并可以根据具有时序的表情数据帧和相互间的时间间隔生成异步消息。第二终端可以控制虚拟会话成员按照时序、且按照相应的时间间隔触发每个表情数据帧中的表情特征值所对应的表情动作。可以理解,不同表情数据帧之间的时间间隔可以不同。

上述实施例中,通过发送具有时序的表情数据帧的异步消息,该表情数据帧中包括对应于表情数据的特征值,以控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作,能够更加准确的确定表情动作,提高了所控制的表情动作的准确性。

在一个实施例中,步骤s308还包括:录制语音数据。根据表情数据生成用于在虚拟会话场景中播放的异步消息,包括:根据表情数据和语音数据,生成用于在虚拟会话场景中播放的异步消息。

本实施例中,用户可以同时触发一个控键或几个组合控键,来同时生成语音表情消息的触发指令,该触发指令触发第一终端既录制语音数据,又采集头部图像,识别得到表情数据。第一终端可以根据得到的表情数据和语音数据生成异步消息。该异步消息用于在虚拟会话场景中被播放。

在一个实施例中,接收到该异步消息的第二终端在播放该根据表情数据和语音数据生成异步消息时,可以在虚拟会话场景中,播放语音数据,并同时控制与该异步消息对应的虚拟会话成员触发该表情数据所对应的表情动作。

上述实施例中,通过一个触发指令,既采集表情数据又采集语音数据,根据表情数据和语音数据生成异步消息,提高了异步消息的信息量。

在一个实施例中,根据语音数据和表情数据,生成用于在虚拟会话场景中播放的异步消息,包括:上传语音数据和表情数据;获取语音数据的语音数据下载地址和表情数据的表情数据下载地址;根据语音数据下载地址和表情数据下载地址,生成用于在虚拟会话场景中播放的异步消息。

具体地,第一终端可以将录制的语音数据和识别到的表情数据上传至服务器进行存储。服务器可以返回语音数据的语音数据下载地址和表情数据的表情数据下载地址至第一终端。第一终端可以将语音数据下载地址和表情数据下载地址作为消息内容,生成异步消息。该异步消息用于被接收到该异步消息的第二终端在虚拟会话场景中播放。

进一步地,接收到该异步消息的第二终端可以根据该语音数据下载地址和表情数据下载地址下载语音数据和表情数据,并在虚拟会话场景中播放该语音数据和表情数据。

上述实施例中,根据语音数据下载地址和表情数据下载地址,生成用于在虚拟会话场景中播放的异步消息,减少了异步消息的数据量,提高了异步消息的发送效率。

在一个实施例中,在步骤s304之后,该方法还包括:当触发指令所对应的异步消息获取方式与实时交互不互斥时,则在进行实时交互时,执行根据触发指令获取用于在虚拟会话场景中播放的异步消息的步骤,以及发送获取的异步消息的步骤。

在一个实施例中,当触发指令所对应的异步消息获取方式不需要使用实现实时交互的对象时,则该异步消息获取方式与该实时交互不互斥。其中,实现实时交互的对象,包括实时交互数据的采集装置和/或虚拟会话成员。

在一个实施例中,当触发指令为获取文字消息和/或预设互动动作消息的指令时,其所对应的异步消息获取方式则为获取输入的文字消息和获取预设互动动作的标识,则该异步获取方式与实时交互不互斥。当触发指令为获取已有图片并生成图片消息的指令时,其所对应的异步消息获取方式与实时交互不互斥。

当触发指令所对应的异步消息获取方式与实时交互不互斥时,则第一终端在进行实时交互时,可以根据触发指令获取用于在虚拟会话场景中播放的异步消息。具体地,第一终端可以获取选择的已有图片以生成图片消息,也可以获取输入的文字以生成文字消息。

在一个实施例中,当触发指令所对应的异步消息获取方式与实时交互不互斥时,根据触发指令获取用于在虚拟会话场景中播放的异步消息,包括:根据触发指令获取预设互动动作的标识;根据预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中相应的虚拟会话成员,以实施预设互动动作。

其中,预设互动动作是预先设置好的通用互动动作。预设互动动作,可以是单人互动动作,即一个虚拟会话成员实施该互动动作,也可以是多人(大于等于2)互动动作,即多个(大于等于2个)虚拟会话成员共同实现该互动动作。预设互动动作包括跳舞、拥抱、飞吻等。

在一个实施例中,当触发指令所对应的异步消息获取方式与实时交互不互斥时,根据触发指令获取用于在虚拟会话场景中播放的异步消息还包括:获取当前用户标识;获取预设互动动作所针对的目标用户标识;根据预设互动动作的标识,生成异步消息,包括:根据当前用户标识、获取的目标用户标识和预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中与当前用户标识对应的虚拟会话成员,以实施针对目标用户标识所对应虚拟会话成员的预设互动动作。

其中,预设互动动作所针对的目标用户标识,是指要配合当前用户标识所对应的虚拟会话成员共同实现预设互动动作的虚拟会话成员所对应的用户标识。可以理解,目标用户标识所对应的虚拟会话成员可以是直接实施相应的预设互动动作,也可以是被动接收预设互动动作。

比如,预设互动动作为“亲脸颊”,在虚拟会话场景中,控制虚拟会话成员a对虚拟会话成员b实施亲脸颊的动作,则虚拟会话成员b就属于被动接收预设互动动作。又比如,预设互动动作为“拥抱”,在虚拟会话场景中,控制虚拟会话成员a和虚拟会话成员b共同实施拥抱的动作,则虚拟会话成员b就属于直接实施相应的预设互动动作。

上述实施例中,通过预设互动动作的标识生成异步消息,在播放该异步消息时,可以控制虚拟会话成员触发相应的互动动作,提供了新的互动方式。

在一个实施例中,第二终端接收到所对应的异步消息获取方式与实时交互不互斥的异步消息时,可以在虚拟会话场景中,将该异步消息与相应的虚拟会话成员进行关联显示。具体地,可以将展示该异步消息与虚拟会话成员本体进行关联显示,也可以是,将展示该异步消息与虚拟会话成员所对应的图标(比如头像图标)进行关联显示。如图7a和7b所示,图7a是将图片消息与虚拟会话成员a的头像图标a进行关联显示,图7b是将文字消息与虚拟会话成员a的头像图标a进行关联显示。

如图8所示,在一个实施例中,步骤s302(简称实时交互步骤)具体包括以下步骤:

s802,实时采集头部图像。

s804,识别实时采集的头部图像中的表情特征,得到实时表情数据。

在一个实施例中,第一终端可以识别实时采集的头部图像中的表情特征,得到表情类型和相对应的表情特征值;生成包括与识别得到的表情类型相对应的表情特征值的实时表情数据。

其中,表情类型,是表情在动作表现维度的类别,包括张嘴、眨眼、笑、哭、转头或点头等类型。第一终端识别头部图像数据中的表情特征所得到的表情类型为至少一个。表情特征值,用于表征表情类型所对应的表情动作幅度和/或程度的大小。比如,表情类型“哭”,所对应的表情特征值不同,则哭的程度不同,比如可以分为抽泣或大哭等不同程度。再比如,表情类型“左转头”,表情特征值可以是转头的角度,转头角度越大,则转头的幅度越大。

在一个实施例中,生成包括与识别得到的表情类型相对应的表情特征值的实时表情数据,包括:将与识别得到的表情类型相对应的表情特征值进行组合,得到实时表情数据。

具体地,第一终端可以直接根据与识别得到的表情类型和相对应的表情特征值进行组合,得到实时表情数据。第一终端也可以将与识别得到的表情类型相对应的表情特征值,添加至与相对应的表情类型对应的位置,以生成相应的实时表情数据。可以理解,第二用户标识所对应的终端可以根据实时表情数据所对应的位置,确定该实时表情数据所对应的表情类型。比如,表情类型“张嘴”对应于第1位置,则将与“张嘴”对应的表情特征值“10度”添加至第1位置,表情类型“左转头”对应于第2位置,则将与“左转头”对应的表情特征值“15度”添加至第2位置,依次类推,将表情特征值进行组合,以生成相应的实时表情数据。

可以理解,该实施例中,所生成的实时表情数据中所包含的表情特征值,可以仅是与识别得到的表情类型相对应的表情特征值。比如,仅识别到表情类型“左转头”和“张嘴”,则该实时表情数据中所包含的表情特征值,就只有与“左转头”和“张嘴”对应的表情特征值。

在另一个实施例中,识别得到的表情类型属于预设表情类型集合。生成包括与识别得到的表情类型相对应的表情特征值的实时表情数据,包括:对于预设表情类型集合中未识别到的表情类型,赋予表示不触发相应表情动作的表情特征值;按照预设表情类型集合中的各表情类型的预设顺序,将各表情类型各自对应的表情特征值组合,构成实时表情数据。

s806,实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

具体地,第一终端可以将实时表情数据实时发送至虚拟会话场景中的除当前用户标识以外的用户标识所对应的第二终端(以下简称第二终端)。其中,第二终端可以是全部或部分第二终端,第二终端为至少一个可以理解,当前用户标识和第二终端所对应的用户标识,用于唯一标识该虚拟会话场景中的成员。

其中,第一终端可以直接通过点对点的方式,直接将实时表情数据发送至第二终端,第一终端也可以将实时表情数据发送至服务器,使服务器将该实时表情数据转发至该虚拟会话场景中的第二终端。

进一步地,接收到实时表情数据的第二终端可以根据该实时表情数据,控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

在一个实施例中,第一终端还可以实时采集实时语音数据,将实时语音数据实时发送至第二终端,发送的实时语音数据用于在第二终端所显示的虚拟会话场景中播放。此外,第一终端还可以获取并实时发送实时互动动作数据,发送的实时互动动作数据用于在第二终端所显示的虚拟会话场景中,控制相应的虚拟会话成员实时触发实时表情数据所对应的互动动作。可以理解,用户可以选择实时互动动作图标,第一终端获取相应的实时互动动作数据,

上述实施例中,通过识别实时表情数据,发送的实时表情数据,以控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作,是对交互通信用户的真实表情的另外一种表现方式,提供了新的互动方式。

在一个实施例中,在虚拟会话场景中通过虚拟会话成员进行实时交互之前,方法还包括:获取当前用户标识;获取当前用户标识所对应的多人会话标识;将当前用户标识加入以多人会话标识所标识的虚拟会话场景的成员列表。

具体地,第一终端可以获取当前登录的用户标识,即当前用户标识,并获取当前用户标识所对应的多人会话标识;发送多人会话标识和当前用户标识至服务器,使服务器将当前用户标识加入以多人会话标识所标识的虚拟会话场景的成员列表。

其中,多人会话标识用于唯一标识多人会话。多人会话中的成员数量大于或等于3。多人会话可以是群组或临时多人聊天会话,还可以是其它类型的多人会话。

可以理解,当前用户标识,是与所对应的多人会话标识相对应的多人会话中的成员。以多人会话标识所标识的虚拟会话场景,相当于是基于多人会话标识所对应的多人会话创建的虚拟会话场景。以多人会话标识所标识的虚拟会话场景,可以是以多人会话标识作为直接标识的虚拟会话场景,即虚拟会话场景的唯一标识就是多人会话标识本身。以多人会话标识所标识的虚拟会话场景,也可以是以多人会话标识作为间接标识的虚拟会话场景,即虚拟会话场景的唯一标识是与多人会话标识唯一对应的虚拟会话场景标识,根据多人会话标识可以确定虚拟会话场景标识,进而确定对应的虚拟会话场景,因此,多人会话标识可以间接唯一标识虚拟会话场景。

具体地,用户可以通过当前用户标识登录用于实现虚拟会话场景的应用程序,并于登录成功后,在第一终端中打开多人会话界面,该打开的多人会话界面即为与当前用户标识对应的多人会话标识所对应的多人会话的界面。用户可以在打开的多人会话界面中发起加入虚拟会话场景的操作。第一终端响应于该操作,获取当前登录的当前用户标识所对应的多人会话标识,并将多人会话标识和当前用户标识发送至服务器,服务器将当前用户标识加入以该多人会话标识所标识的虚拟会话场景的成员列表,以实现将该当前用户标识加入相应的虚拟会话场景。

在一个实施例中,服务器可以将以多人会话标识所标识的虚拟会话场景的接入信息返回至第一终端,第一终端可以根据该接入信息加入虚拟会话场景。其中,接入信息包括接入ip地址和端口。

上述实施例中,相当于通过将当前登录的当前用户标识加入基于所对应的多人会话创建的虚拟会话场景,进而实现了由虚拟会话场景中的虚拟会话成员触发表情数据所对应的表情动作的交互通信方式,相当于在多人会话上进行了改进,提出了一种新的交互互动方式。

图9为一个实施例中实现该交互数据处理方法的时序图,具体包括以下步骤:

1)需要通过虚拟会话场景进行实时交互的终端打开会话,申请加入相应的虚拟会话场景。

2)各个终端启动音频设备和图像采集设备,采集实时语音数据和实时表情数据。

3)各个终端将该实时语音数据和实时表情数据发送至服务器。

4)服务器将该实时语音数据和实时表情数据转发至该虚拟会话场景的其它成员所对应的终端。

5)接收到实时语音数据和实时表情数据的终端在虚拟会话场景中,播放实时语音数据和实时表情数据。

6)第一终端接收异步语音和/或表情消息的触发指令,中断与异步消息获取方式互斥的实时语音交互或实时表情交互。

7)第一终端根据触发指令获取异步语音和/或表情消息。

8)第一终端发送异步语音和/或表情消息至服务器。

9)第一终端恢复实时语音交互或实时表情交互。

10)服务器将异步语音和/或表情消息转发至该虚拟会话场景的其它成员所对应的终端。

11)接收到异步语音和/或表情消息的终端在虚拟会话场景中,播放异步语音和/或表情消息。

12)第一终端接收图片和/或文字消息的触发指令,在进行实时交互时,获取图片和/或文字消息。

13)第一终端将图片和/或文字消息发送至服务器。

14)服务器将图片和/或文字消息转发至该虚拟会话场景的其它成员所对应的终端。

如图10所示,在一个实施例中,提供了另一种交互数据处理方法,该方法包括以下步骤:

s1002,获取当前用户标识所对应的多人会话标识,将当前用户标识加入以多人会话标识所标识的虚拟会话场景的成员列表。

s1004,在虚拟会话场景中通过虚拟会话成员进行实时交互。

在一个实施例中,在虚拟会话场景中通过虚拟会话成员进行实时交互包括:实时采集头部图像;识别实时采集的头部图像中的表情特征,得到实时表情数据;实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

s1006,获取异步消息的触发指令。

s1008,确定该触发指令所对应的异步消息获取方式是否与实时交互互斥,若互斥,则进入步骤s1010,若不互斥,则进入步骤s1020。

s1010,中断与异步消息获取方式互斥的实时交互。

s1012,根据触发指令采集头部图像,识别按时序采集的头部图像中的表情特征,得到具有时序的表情数据帧。

其中,每个表情数据帧中包括对应于表情类型的表情特征值。

s1014,录制语音数据,上传语音数据和表情数据帧。

s1016,获取语音数据的语音数据下载地址和表情数据帧的表情数据下载地址;根据语音数据下载地址和表情数据下载地址,生成用于在虚拟会话场景中播放的异步消息。

其中,该异步消息用于控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作,以及用于在虚拟会话场景中播放语音数据。

s1018,发送获取的异步消息,恢复中断的实时交互。

s1020,在进行实时交互时,根据触发指令获取预设互动动作的标识;

s1022,获取当前用户标识,获取预设互动动作所针对的目标用户标识。

s1024,根据当前用户标识、获取的目标用户标识和预设互动动作的标识,生成异步消息。

其中,异步消息,用于控制虚拟会话场景中与当前用户标识对应的虚拟会话成员,以实施针对目标用户标识所对应虚拟会话成员的预设互动动作。

s1026,发送获取的异步消息。

上述交互数据处理方法,在实时交互中插入异步消息的播放处理,实现了实时交互和异步消息的整合,使得用户在实时交互通信过程中,能够通过播放异步交互信息来提高交互信息的信息量。

其次,通过发送包括表情数据的异步消息,以控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作,是对真实表情的另外一种表现方式,提供了新的互动方式。

然后,通过发送具有时序的表情数据帧的异步消息,该表情数据帧中包括对应于表情数据的特征值,以控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作,能够更加准确的确定表情动作,提高了所控制的表情动作的准确性。

接着,根据表情数据和语音数据生成异步消息,提高了异步消息的信息量。

最后,根据语音数据下载地址和表情数据下载地址,生成用于在虚拟会话场景中播放的异步消息,减少了异步消息的数据量,提高了异步消息的发送效率。

如图11所示,在一个实施例中,提供了又一种交互数据处理方法,该交互数据处理方法可以应用于图1中的第一终端110和/或第二终端120。本实施例主要以该方法应用于上述图1中的第二终端120来举例说明。参照图10,该方法具体包括以下步骤:

s1102,在虚拟会话场景中通过虚拟会话成员进行实时交互。

s1104,接收异步消息。

具体地,第二终端可以通过点对点的方式直接接收第一终端发送的异步消息。也可以接收服务器转发的第一终端所发送的异步消息。

当异步消息为语音消息、表情消息、语音表情消息、预设互动动作消息、图片消息或文字消息中的至少一种。

s1106,当异步消息的播放方式与实时交互互斥时,则中断与播放方式互斥的实时交互。

异步消息的播放方式,是播放异步消息的方式。异步消息的播放方式,可以包括语音播放、控制虚拟会话成员触发相应动作或图片或文字形式显示等方式中的至少一种。

其中,当异步消息的播放方式需要使用实现实时交互的对象时,则该异步消息的播放方式与该实时交互互斥。其中,实现实时交互的对象,包括实时交互数据的播放装置和/或虚拟会话成员。

在一个实施例中,当异步消息为语音消息、表情消息、语音表情消息或预设互动动作消息时,该异步消息的播放方式与该实时交互互斥。

可以理解,播放语音消息和语音表情消息时,需要使用语音播放装置,则与实时语音交互互斥,在播放表情消息或语音表情消息或预设互动动作消息时,需要控制虚拟会话成员执行相应的表情动作或互动动作,则与实时表情交互互斥。此外,当预设互动动作消息还有对应的背景音时,第二终端在播放该预设互动动作消息时,还需要使用语音播放装置,则还会与实时语音交互互斥。

中断与播放方式互斥的实时交互,是暂停当前与异步消息的播放方式互斥的实时交互的执行,转而执行异步消息的播放处理。可以理解,中断并不是将实时交互完全结束掉,是指暂停,后续是可以恢复的(比如,异步消息播放结束后就可以恢复该中断的实时交互)。

s1108,在虚拟会话场景中播放异步消息。

具体地,第二终端在接收到异步消息后,可以直接播放异步消息,也可以通过相应的触发操作来播放异步消息。

在一个实施例中,第二终端在接收到异步消息后,可以在虚拟会话场景界面中,显示与该异步消息对应的用户标识所对应的图标,根据所接收的对该图标的触发操作触发语音数据的播放,以及触发将与该异步消息对应的用户标识所对应的虚拟会话成员进行焦点显示,并控制该虚拟会话成员触发该表情数据所表示的表情动作。其中,与该异步消息对应的用户标识所对应的图标可以是相应的虚拟会话成员的头像图标。可以理解,异步消息可以重复触发播放。

在一个实施例中,第二终端可以控制虚拟会话场景中与该异步消息对应的虚拟会话成员触发该异步消息所表示的动作,也可以在虚拟会话场景中,将异步消息与对应的虚拟会话成员进行关联显示,还可以在虚拟会话场景中直接播放该异步消息。

在一个实施例中,当异步消息为语音消息时,第二终端在播放语音消息时,可以同时控制相应的虚拟会话成员触发预设的表情动作。

s1110,在播放异步消息结束后,恢复中断的实时交互。

恢复中断的实时交互,是将所中断的实时交互恢复执行。第二终端在恢复中断的实时交互后,可以在虚拟会话场景中继续通过虚拟会话成员进行之前所中断的实时交互。比如,假设之前中断了实时表情交互,恢复该实时表情交互的执行后,则第二终端可以在虚拟会话场景中继续通过虚拟会话成员与虚拟会话场景中的其它成员所对应的终端进行实时表情交互。可以理解,这里的虚拟会话场景中的其它成员所对应的终端,不仅限于发送异步消息的第一终端,还可以是其它第二终端。

上述实施例中,在实时交互中插入异步消息的播放处理,实现了实时交互和异步消息的整合,使得用户在实时交互通信过程中,能够通过播放异步交互信息来提高交互信息的信息量。

在一个实施例中,步骤s1108包括:根据异步消息获取相应的表情数据;确定虚拟会话场景中与异步消息对应的虚拟会话成员;控制确定的虚拟会话成员触发表情数据所表示的表情动作。

其中,与异步消息对应的虚拟会话成员,是与发送该异步消息的第一终端上所登录的用户标识对应的虚拟会话成员。比如,用户通过用户标识p登录第一终端,并发送异步消息至第二终端,则第二终端所确定的与异步消息对应的虚拟会话成员,即为与该用户标识p对应的虚拟会话成员。

在一个实施例中,确定虚拟会话场景中与异步消息对应的虚拟会话成员,包括:确定发送该异步消息的用户标识,确定虚拟会话场景中与发送该异步消息的用户标识对应的虚拟会话成员。其中,可以是异步消息中携带了发送该异步消息的用户标识,也可以是第二终端根据异步消息所对应的异步消息通道,确定发送该异步消息的用户标识。

控制确定的虚拟会话成员触发表情数据所表示的表情动作,包括:虚拟会话场景中,控制确定的虚拟会话成员实施该表情数据所表示的表情动作,或根据该表情数据生成相应的纹理信息,将该生成的纹理信息展示在对应的虚拟会话成员的表情展示部位。

上述实施例中,通过播放包括表情数据的异步消息,以控制虚拟会话场景中相应的虚拟会话成员触发表情数据所对应的表情动作,是对真实表情的另外一种表现方式,提供了新的互动方式。

在一个实施例中,根据异步消息获取相应的表情数据包括:根据异步消息获取相应的具有时序的表情数据帧,每个表情数据帧中包括对应于表情类型的表情特征值;控制确定的虚拟会话成员触发表情数据所表示的表情动作,包括:在虚拟会话场景中,控制确定的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

其中,表情数据帧,是一帧一帧的表情数据。可以理解,头部图像是一帧一帧采集的,识别每帧头部图像中的表情特征,得到相应的表情数据帧。可以理解,每个表情数据帧中包括至少一个表情类型和相应的表情特征值。比如,一个表情数据帧中,可以同时包括闭眼和张嘴的表情类型和相应的表情特征值。

表情类型,是表情在动作表现维度的类别,包括张嘴、眨眼、笑、哭、转头或点头等。可以理解,上述所列举的表情类型仅用于举例,并不用于限定表情的分类,可以根据实际需要设置表情类型的种类。表情特征值,用于表征表情类型所对应的表情动作幅度和/或程度的大小。

具体地,第二终端可以根据表情数据帧中表情特征值所对应的表情类型,控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,第二终端还可以从异步消息中获取具有时序的表情数据帧之间的时间间隔,可以控制虚拟会话成员按照时序、且按照相应的时间间隔触发每个表情数据帧中的表情特征值所对应的表情动作。可以理解,不同表情数据帧之间的时间间隔可以不同。

上述实施例中,通过播放具有时序的表情数据帧的异步消息,该表情数据帧中包括对应于表情数据的特征值,以控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作,能够更加准确的确定表情动作,提高了所控制的表情动作的准确性。

在一个实施例中,根据异步消息获取相应的表情数据,包括:提取异步消息中的表情数据下载地址,根据表情数据下载地址下载表情数据。

具体地,异步消息中包括表情数据下载地址,第二终端可以提取异步消息中的表情数据下载地址,根据该表情数据下载地址向服务器发送表情数据下载请求,服务器将该表情数据下载地址对应的表情数据发送至第二终端。

在一个实施例中,该方法还包括:提取异步消息中的语音数据下载地址。根据语音数据下载地址下载语音数据。在虚拟会话场景中,播放语音数据。

其中,异步消息中还包括语音数据下载地址。

第二终端可以提取异步消息中的语音数据下载地址,根据该语音数据下载地址向服务器发送语音数据下载请求,服务器将该语音数据下载地址对应的语音数据发送至第二终端。第二终端可以在虚拟会话场景中播放该语音数据。

上述实施例中,根据异步消息中的语音数据下载地址和表情数据下载地址,获取相应的表情数据和语音数据,减少了异步消息的数据量,提高了异步消息的接收效率。

如图12所示,在一个实施例中,步骤s1108(简称预设互动动作播放步骤),具体包括以下步骤:

s1108a,获取发送异步消息的第一用户标识。

具体地,第二终端可以直接获取异步消息中包含的发送异步消息的第一用户标识,也可以根据异步消息所对应的异步消息通道,确定发送该异步消息的第一用户标识。

s1108b,提取异步消息中的预设互动动作的标识。

其中,异步消息中还包括预设互动动作的标识。预设互动动作是预先设置好的通用互动动作。预设互动动作,可以是单人互动动作,即一个虚拟会话成员实施该互动动作,也可以是多人(大于等于2)互动动作,即多个(大于等于2个)虚拟会话成员共同实现该互动动作。预设互动动作包括跳舞、拥抱、飞吻等。

可以理解,该预设互动动作还可以有对应的背景声音,在播放预设互动动作时,可以控制虚拟会话场景中相应的虚拟会话成员,以实施预设互动动作,并播放相应的背景声音。

s1108c,在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员触发预设互动动作。

具体地,第二终端可以根据预设互动动作的标识获取对应的预设互动动作逻辑代码,在虚拟会话场景中,根据该预设互动动作逻辑代码,控制与第一用户标识对应的虚拟会话成员触发预设互动动作。

在一个实施例中,控制与第一用户标识对应的虚拟会话成员触发预设互动动作,包括:在虚拟会话场景中,根据该预设互动动作逻辑代码,控制与第一用户标识对应的虚拟会话成员实施该预设互动动作,或根据该预设互动动作逻辑代码获取相应的预设纹理信息,并将该预设纹理信息展示于与第一用户标识对应的虚拟会话成员的预设展示部位。

在一个实施例中,步骤s1108还包括:从异步消息中,提取第二用户标识。步骤s1108c包括:在虚拟会话场景中,控制虚拟会话场景中与第一用户标识对应的虚拟会话成员,以实施针对第二用户标识所对应虚拟会话成员的预设互动动作。

其中,第二用户标识,是预设互动动作所针对的用户标识,即要配合第一用户标识所对应的虚拟会话成员共同实现预设互动动作的虚拟会话成员所对应的用户标识。第二用户标识所对应的虚拟会话成员可以是直接实施相应的预设互动动作,也可以是被动接收预设互动动作。需要说明的是,这里的第二用户标识和第二终端并没有必然的对应关系。

具体地,第二终端可以在虚拟会话场景中,控制虚拟会话场景中与第一用户标识对应的虚拟会话成员和与第二用户标识对应的虚拟会话成员,共同实施相应的预设互动动作。比如,预设互动动作为“拥抱”,在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员和与第二用户标识对应的虚拟会话成员共同实施“拥抱”的动作。

第二终端也可以在虚拟会话场景中,控制虚拟会话场景中与第一用户标识对应的虚拟会话成员,对与第二用户标识对应的虚拟会话成员实施相应的预设互动动作。比如,预设互动动作为“亲脸颊”,在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员对与第二用户标识对应的虚拟会话成员实施亲脸颊的动作。

该预设互动动作还可以有对应的背景声音。第二终端可以预设互动动作的标识获取对应的背景声音,在播放预设互动动作时,可以控制虚拟会话场景中相应的虚拟会话成员,以实施预设互动动作,并播放相应的背景声音。

上述实施例中,通过预设互动动作的标识生成异步消息,在播放该异步消息时,可以控制虚拟会话成员触发相应的互动动作,提供了新的互动方式。

在一个实施例中,该方法还包括:当异步消息的播放方式与实时交互不互斥时,则在进行实时交互时,执行在虚拟会话场景中播放异步消息的步骤。

其中,当异步消息的播放方式不需要使用实现实时交互的对象时,则该异步消息的播放方式与该实时交互不互斥。其中,实现实时交互的对象,包括实时交互数据的采集装置和/或虚拟会话成员。

当异步消息的播放方式与实时交互不互斥时,则第二终端在进行实时交互时,可以根据触发指令获取用于在虚拟会话场景中播放的异步消息。

在一个实施例中,当异步消息为图片消息或文字消息时,则异步消息的播放方式与实时交互不互斥。

在一个实施例中,当异步消息的播放方式与实时交互不互斥时,在虚拟会话场景中播放异步消息包括:根据异步消息获取相应的文字和/或图片。在虚拟会话场景中,将文字和/或图片与相应的虚拟会话成员进行关联显示。

具体地,第二终端可以将展示该异步消息与虚拟会话成员本体进行关联显示,也可以是,将展示该异步消息与虚拟会话成员所对应的图标(比如头像图标)进行关联显示。

上述实施例中,将异步消息与虚拟会话成员关联显示,使交互的异步消息更加清楚的呈现,从而提高用户的信息获知效率。

在一个实施例中,在虚拟会话场景中通过虚拟会话成员进行实时交互包括:实时采集头部图像。识别实时采集的头部图像中的表情特征,得到实时表情数据。实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

具体地,第一终端可以识别实时采集的头部图像中的表情特征,得到表情类型和相对应的表情特征值;生成包括与识别得到的表情类型相对应的表情特征值的表情数据。

其中,表情类型,是表情在动作表现维度的类别,包括张嘴、眨眼、笑、哭、转头或点头等类型。第一终端识别头部图像数据中的表情特征所得到的表情类型为至少一个。表情特征值,用于表征表情类型所对应的表情动作幅度和/或程度的大小。比如,表情类型“哭”,所对应的表情特征值不同,则哭的程度不同,比如可以分为抽泣或大哭等不同程度。再比如,表情类型“左转头”,表情特征值可以是转头的角度,转头角度越大,则转头的幅度越大。

在一个实施例中,生成包括与识别得到的表情类型相对应的表情特征值的表情数据,包括:将与识别得到的表情类型相对应的表情特征值进行组合,得到表情数据。

具体地,第一终端可以直接根据与识别得到的表情类型和相对应的表情特征值进行组合,得到表情数据。第一终端也可以将与识别得到的表情类型相对应的表情特征值,添加至与相对应的表情类型对应的位置,以生成相应的表情数据。可以理解,第二用户标识所对应的终端可以根据表情数据所对应的位置,确定该表情数据所对应的表情类型。比如,表情类型“张嘴”对应于第1位置,则将与“张嘴”对应的表情特征值“10度”添加至第1位置,表情类型“左转头”对应于第2位置,则将与“左转头”对应的表情特征值“15度”添加至第2位置,依次类推,将表情特征值进行组合,以生成相应的表情数据。

可以理解,该实施例中,所生成的表情数据中所包含的表情特征值,可以仅是与识别得到的表情类型相对应的表情特征值。比如,仅识别到表情类型“左转头”和“张嘴”,则该表情数据中所包含的表情特征值,就只有与“左转头”和“张嘴”对应的表情特征值。

在另一个实施例中,识别得到的表情类型属于预设表情类型集合。生成包括与识别得到的表情类型相对应的表情特征值的表情数据,包括:对于预设表情类型集合中未识别到的表情类型,赋予表示不触发相应表情动作的表情特征值;按照预设表情类型集合中的各表情类型的预设顺序,将各表情类型各自对应的表情特征值组合,构成表情数据。

具体地,第一终端可以将实时表情数据实时发送至虚拟会话场景中的除当前用户标识以外的用户标识所对应的第二终端(以下简称第二终端)。其中,第二终端可以是全部或部分第二终端,第二终端为至少一个可以理解,当前用户标识和第二终端所对应的用户标识,用于唯一标识该虚拟会话场景中的成员。

其中,第一终端可以直接通过点对点的方式,直接将实时表情数据发送至第二终端,第一终端也可以将实时表情数据发送至服务器,使服务器将该实时表情数据转发至该虚拟会话场景中的第二终端。

进一步地,接收到实时表情数据的第二终端可以根据该实时表情数据,控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

在一个实施例中,第一终端还可以实时采集实时语音数据,将实时语音数据实时发送至第二终端,发送的实时语音数据用于在第二终端所显示的虚拟会话场景中播放。此外,第一终端还可以获取并实时发送实时互动动作数据,发送的实时互动动作数据用于在第二终端所显示的虚拟会话场景中,控制相应的虚拟会话成员实时触发实时表情数据所对应的互动动作。可以理解,用户可以选择实时互动动作图标,第一终端获取相应的实时互动动作数据,

上述实施例中,通过识别实时表情数据,发送的实时表情数据,以控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作,是对交互通信用户的真实表情的另外一种表现方式,提供了新的互动方式。

如图13所示,在一个实施例中,提供了一种交互数据处理装置1300,其特征在于,该装置1300包括:实时交互模块1302、指令获取模块1304、互斥处理模块1306、异步消息获取模块1308以及发送模块1310,其中:

实时交互模块1302,用于在虚拟会话场景中通过虚拟会话成员进行实时交互。

指令获取模块1304,用于获取异步消息的触发指令。

互斥处理模块1306,用于当触发指令所对应的异步消息获取方式与实时交互互斥时,则中断与异步消息获取方式互斥的实时交互。

异步消息获取模块1308,用于根据触发指令获取用于在虚拟会话场景中播放的异步消息。

发送模块1310,用于发送获取的异步消息。

互斥处理模块1306还用于恢复中断的实时交互。

在一个实施例中,异步消息获取模块1308还用于根据触发指令采集头部图像;识别头部图像中的表情特征,得到用于控制虚拟会话场景中的虚拟会话成员触发表情动作的表情数据;根据表情数据生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,异步消息获取模块1308还用于识别按时序采集的头部图像中的表情特征,得到具有时序的表情数据帧,每个表情数据帧中包括对应于表情类型的表情特征值;根据具有时序的表情数据帧生成异步消息,异步消息用于控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,异步消息获取模块1308还用于录制语音数据;根据语音数据和表情数据,生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,异步消息获取模块1308还用于上传语音数据和表情数据;获取语音数据的语音数据下载地址和表情数据的表情数据下载地址;根据语音数据下载地址和表情数据下载地址,生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,当触发指令所对应的异步消息获取方式与实时交互不互斥时,异步消息获取模块1308还用于在进行实时交互时,根据触发指令获取用于在虚拟会话场景中播放的异步消息,并在获取异步消息后通知发送模块1310发送获取的异步消息。

在一个实施例中,当触发指令所对应的异步消息获取方式与实时交互不互斥时,异步消息获取模块1308还用于根据触发指令获取预设互动动作的标识;根据预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中相应的虚拟会话成员,以实施预设互动动作。

在一个实施例中,当触发指令所对应的异步消息获取方式与实时交互不互斥时,异步消息获取模块1308还用于获取当前用户标识;获取预设互动动作所针对的目标用户标识;根据当前用户标识、获取的目标用户标识和预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中与当前用户标识对应的虚拟会话成员,以实施针对目标用户标识所对应虚拟会话成员的预设互动动作。

在一个实施例中,实时交互模块1302还用于实时采集头部图像;识别实时采集的头部图像中的表情特征,得到实时表情数据;实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

如图14所示,在一个实施例中,该装置1300还包括:

虚拟会话场景加入模块1301,用于获取当前用户标识;获取当前用户标识所对应的多人会话标识;将当前用户标识加入以多人会话标识所标识的虚拟会话场景的成员列表。

如图15所示,在一个实施例中,提供了另一种交互数据处理装置1500,该装置1500包括:实时交互模块1502、接收模块1504、互斥处理模块1506以及异步消息播放模块1508,其中:

实时交互模块1502,用于在虚拟会话场景中通过虚拟会话成员进行实时交互;

接收模块1504,用于接收异步消息。

互斥处理模块1506,用于当异步消息的播放方式与实时交互互斥时,则中断与播放方式互斥的实时交互。

异步消息播放模块1508,用于在虚拟会话场景中播放异步消息;

互斥处理模块1506还用于在播放异步消息结束后,恢复中断的实时交互。

在一个实施例中,异步消息播放模块1508还用于根据异步消息获取相应的表情数据;确定虚拟会话场景中与异步消息对应的虚拟会话成员;控制确定的虚拟会话成员触发表情数据所表示的表情动作。

在一个实施例中,异步消息播放模块1508还用于根据异步消息获取相应的具有时序的表情数据帧,每个表情数据帧中包括对应于表情类型的表情特征值;在虚拟会话场景中,控制确定的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,异步消息播放模块1508还用于提取异步消息中的表情数据下载地址;根据表情数据下载地址下载表情数据。

在一个实施例中,异步消息播放模块1508还用于提取异步消息中的语音数据下载地址;根据语音数据下载地址下载语音数据;在虚拟会话场景中,播放语音数据。

在一个实施例中,异步消息播放模块1508还用于获取发送异步消息的第一用户标识;提取异步消息中的预设互动动作的标识;在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员触发预设互动动作。

在一个实施例中,异步消息播放模块1508还用于从异步消息中,提取第二用户标识;在虚拟会话场景中,控制虚拟会话场景中与第一用户标识对应的虚拟会话成员,以实施针对第二用户标识所对应虚拟会话成员的预设互动动作。

在一个实施例中,当异步消息的播放方式与实时交互不互斥时,异步消息播放模块1508还用于在进行实时交互时,在虚拟会话场景中播放异步消息。

在一个实施例中,当异步消息的播放方式与实时交互不互斥时,异步消息播放模块1508还用于根据异步消息获取相应的文字和/或图片;在虚拟会话场景中,将文字和/或图片与相应的虚拟会话成员进行关联显示。

在一个实施例中,实时交互模块1502还用于实时采集头部图像;识别实时采集的头部图像中的表情特征,得到实时表情数据;实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行如下步骤:在虚拟会话场景中通过虚拟会话成员进行实时交互;获取异步消息的触发指令;当触发指令所对应的异步消息获取方式与实时交互互斥时,则中断与异步消息获取方式互斥的实时交互;根据触发指令获取用于在虚拟会话场景中播放的异步消息;发送获取的异步消息;恢复中断的实时交互。

在一个实施例中,处理器所执行的根据触发指令获取用于在虚拟会话场景中播放的异步消息,包括:根据触发指令采集头部图像;识别头部图像中的表情特征,得到用于控制虚拟会话场景中的虚拟会话成员触发表情动作的表情数据;根据表情数据生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,处理器所执行的识别头部图像中的表情特征,得到用于控制虚拟会话场景中的虚拟会话成员触发表情动作的表情数据,包括:识别按时序采集的头部图像中的表情特征,得到具有时序的表情数据帧,每个表情数据帧中包括对应于表情类型的表情特征值;处理器所执行的根据表情数据生成用于在虚拟会话场景中播放的异步消息包括:根据具有时序的表情数据帧生成异步消息,异步消息用于控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,处理器所执行的根据触发指令获取用于在虚拟会话场景中播放的异步消息还包括:录制语音数据。处理器所执行的根据表情数据生成用于在虚拟会话场景中播放的异步消息包括:根据语音数据和表情数据,生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,处理器所执行的根据语音数据和表情数据,生成用于在虚拟会话场景中播放的异步消息,包括:上传语音数据和表情数据;获取语音数据的语音数据下载地址和表情数据的表情数据下载地址;根据语音数据下载地址和表情数据下载地址,生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,在获取异步消息的触发指令之后,该计算机可读指令还使得处理器执行以下步骤:当触发指令所对应的异步消息获取方式与实时交互不互斥时,则在进行实时交互时,执行根据触发指令获取用于在虚拟会话场景中播放的异步消息的步骤,以及发送获取的异步消息的步骤。

在一个实施例中,处理器所执行的当触发指令所对应的异步消息获取方式与实时交互不互斥时,根据触发指令获取用于在虚拟会话场景中播放的异步消息,包括:根据触发指令获取预设互动动作的标识;根据预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中相应的虚拟会话成员,以实施预设互动动作。

在一个实施例中,处理器所执行的当触发指令所对应的异步消息获取方式与实时交互不互斥时,根据触发指令获取用于在虚拟会话场景中播放的异步消息还包括:获取当前用户标识;获取预设互动动作所针对的目标用户标识;处理器所执行的根据预设互动动作的标识,生成异步消息,包括:根据当前用户标识、获取的目标用户标识和预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中与当前用户标识对应的虚拟会话成员,以实施针对目标用户标识所对应虚拟会话成员的预设互动动作。

在一个实施例中,处理器所执行的在虚拟会话场景中通过虚拟会话成员进行实时交互包括:实时采集头部图像;识别实时采集的头部图像中的表情特征,得到实时表情数据;实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

在一个实施例中,在虚拟会话场景中通过虚拟会话成员进行实时交互之前,该计算机可读指令还使得处理器执行以下步骤:获取当前用户标识;获取当前用户标识所对应的多人会话标识;将当前用户标识加入以多人会话标识所标识的虚拟会话场景的成员列表。

在一个实施例中,提供了一种存储有计算机可读指令的存储介质,计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如下步骤:在虚拟会话场景中通过虚拟会话成员进行实时交互;获取异步消息的触发指令;当触发指令所对应的异步消息获取方式与实时交互互斥时,则中断与异步消息获取方式互斥的实时交互;根据触发指令获取用于在虚拟会话场景中播放的异步消息;发送获取的异步消息;恢复中断的实时交互。

在一个实施例中,处理器所执行的根据触发指令获取用于在虚拟会话场景中播放的异步消息,包括:根据触发指令采集头部图像;识别头部图像中的表情特征,得到用于控制虚拟会话场景中的虚拟会话成员触发表情动作的表情数据;根据表情数据生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,处理器所执行的识别头部图像中的表情特征,得到用于控制虚拟会话场景中的虚拟会话成员触发表情动作的表情数据,包括:识别按时序采集的头部图像中的表情特征,得到具有时序的表情数据帧,每个表情数据帧中包括对应于表情类型的表情特征值;处理器所执行的根据表情数据生成用于在虚拟会话场景中播放的异步消息包括:根据具有时序的表情数据帧生成异步消息,异步消息用于控制虚拟会话场景中相应的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,处理器所执行的根据触发指令获取用于在虚拟会话场景中播放的异步消息还包括:录制语音数据。处理器所执行的根据表情数据生成用于在虚拟会话场景中播放的异步消息包括:根据语音数据和表情数据,生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,处理器所执行的根据语音数据和表情数据,生成用于在虚拟会话场景中播放的异步消息,包括:上传语音数据和表情数据;获取语音数据的语音数据下载地址和表情数据的表情数据下载地址;根据语音数据下载地址和表情数据下载地址,生成用于在虚拟会话场景中播放的异步消息。

在一个实施例中,在获取异步消息的触发指令之后,该计算机可读指令还使得处理器执行以下步骤:当触发指令所对应的异步消息获取方式与实时交互不互斥时,则在进行实时交互时,执行根据触发指令获取用于在虚拟会话场景中播放的异步消息的步骤,以及发送获取的异步消息的步骤。

在一个实施例中,处理器所执行的当触发指令所对应的异步消息获取方式与实时交互不互斥时,根据触发指令获取用于在虚拟会话场景中播放的异步消息,包括:根据触发指令获取预设互动动作的标识;根据预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中相应的虚拟会话成员,以实施预设互动动作。

在一个实施例中,处理器所执行的当触发指令所对应的异步消息获取方式与实时交互不互斥时,根据触发指令获取用于在虚拟会话场景中播放的异步消息还包括:获取当前用户标识;获取预设互动动作所针对的目标用户标识;处理器所执行的根据预设互动动作的标识,生成异步消息,包括:根据当前用户标识、获取的目标用户标识和预设互动动作的标识,生成异步消息;异步消息,用于控制虚拟会话场景中与当前用户标识对应的虚拟会话成员,以实施针对目标用户标识所对应虚拟会话成员的预设互动动作。

在一个实施例中,处理器所执行的在虚拟会话场景中通过虚拟会话成员进行实时交互包括:实时采集头部图像;识别实时采集的头部图像中的表情特征,得到实时表情数据;实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

在一个实施例中,在虚拟会话场景中通过虚拟会话成员进行实时交互之前,该计算机可读指令还使得处理器执行以下步骤:获取当前用户标识;获取当前用户标识所对应的多人会话标识;将当前用户标识加入以多人会话标识所标识的虚拟会话场景的成员列表。

在一个实施例中,提供了另一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行如下步骤:在虚拟会话场景中通过虚拟会话成员进行实时交互;接收异步消息;当异步消息的播放方式与实时交互互斥时,则中断与播放方式互斥的实时交互;在虚拟会话场景中播放异步消息;在播放异步消息结束后,恢复中断的实时交互。

在一个实施例中,处理器所执行的在虚拟会话场景中播放异步消息,包括:根据异步消息获取相应的表情数据;确定虚拟会话场景中与异步消息对应的虚拟会话成员;控制确定的虚拟会话成员触发表情数据所表示的表情动作。

在一个实施例中,处理器所执行的根据异步消息获取相应的表情数据包括:根据异步消息获取相应的具有时序的表情数据帧,每个表情数据帧中包括对应于表情类型的表情特征值。处理器所执行的控制确定的虚拟会话成员触发表情数据所表示的表情动作,包括:在虚拟会话场景中,控制确定的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,处理器所执行的根据异步消息获取相应的表情数据,包括:提取异步消息中的表情数据下载地址;根据表情数据下载地址下载表情数据。

在一个实施例中,计算机可读指令还使得处理器执行以下步骤:提取异步消息中的语音数据下载地址;根据语音数据下载地址下载语音数据;在虚拟会话场景中,播放语音数据。

在一个实施例中,处理器所执行的在虚拟会话场景中播放异步消息包括:获取发送异步消息的第一用户标识;提取异步消息中的预设互动动作的标识;在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员触发预设互动动作。

在一个实施例中,处理器所执行的在虚拟会话场景中播放异步消息还包括:从异步消息中,提取第二用户标识。处理器所执行的在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员触发预设互动动作,包括:在虚拟会话场景中,控制虚拟会话场景中与第一用户标识对应的虚拟会话成员,以实施针对第二用户标识所对应虚拟会话成员的预设互动动作。

在一个实施例中,计算机可读指令还使得处理器执行以下步骤:当异步消息的播放方式与实时交互不互斥时,则在进行实时交互时,执行在虚拟会话场景中播放异步消息的步骤。

在一个实施例中,当异步消息的播放方式与实时交互不互斥时,处理器所执行的在虚拟会话场景中播放异步消息包括:根据异步消息获取相应的文字和/或图片;在虚拟会话场景中,将文字和/或图片与相应的虚拟会话成员进行关联显示。

在一个实施例中,处理器所执行的在虚拟会话场景中通过虚拟会话成员进行实时交互包括:实时采集头部图像;识别实时采集的头部图像中的表情特征,得到实时表情数据;实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

在一个实施例中,提供了另一种存储有计算机可读指令的存储介质,计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如下步骤:在虚拟会话场景中通过虚拟会话成员进行实时交互;接收异步消息;当异步消息的播放方式与实时交互互斥时,则中断与播放方式互斥的实时交互;在虚拟会话场景中播放异步消息;在播放异步消息结束后,恢复中断的实时交互。

在一个实施例中,处理器所执行的在虚拟会话场景中播放异步消息,包括:根据异步消息获取相应的表情数据;确定虚拟会话场景中与异步消息对应的虚拟会话成员;控制确定的虚拟会话成员触发表情数据所表示的表情动作。

在一个实施例中,处理器所执行的根据异步消息获取相应的表情数据包括:根据异步消息获取相应的具有时序的表情数据帧,每个表情数据帧中包括对应于表情类型的表情特征值。处理器所执行的控制确定的虚拟会话成员触发表情数据所表示的表情动作,包括:在虚拟会话场景中,控制确定的虚拟会话成员,按照时序触发每个表情数据帧中的表情特征值所对应的表情动作。

在一个实施例中,处理器所执行的根据异步消息获取相应的表情数据,包括:提取异步消息中的表情数据下载地址;根据表情数据下载地址下载表情数据。

在一个实施例中,计算机可读指令还使得处理器执行以下步骤:提取异步消息中的语音数据下载地址;根据语音数据下载地址下载语音数据;在虚拟会话场景中,播放语音数据。

在一个实施例中,处理器所执行的在虚拟会话场景中播放异步消息包括:获取发送异步消息的第一用户标识;提取异步消息中的预设互动动作的标识;在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员触发预设互动动作。

在一个实施例中,处理器所执行的在虚拟会话场景中播放异步消息还包括:从异步消息中,提取第二用户标识。处理器所执行的在虚拟会话场景中,控制与第一用户标识对应的虚拟会话成员触发预设互动动作,包括:在虚拟会话场景中,控制虚拟会话场景中与第一用户标识对应的虚拟会话成员,以实施针对第二用户标识所对应虚拟会话成员的预设互动动作。

在一个实施例中,计算机可读指令还使得处理器执行以下步骤:当异步消息的播放方式与实时交互不互斥时,则在进行实时交互时,执行在虚拟会话场景中播放异步消息的步骤。

在一个实施例中,当异步消息的播放方式与实时交互不互斥时,处理器所执行的在虚拟会话场景中播放异步消息包括:根据异步消息获取相应的文字和/或图片;在虚拟会话场景中,将文字和/或图片与相应的虚拟会话成员进行关联显示。

在一个实施例中,处理器所执行的在虚拟会话场景中通过虚拟会话成员进行实时交互包括:实时采集头部图像;识别实时采集的头部图像中的表情特征,得到实时表情数据;实时发送实时表情数据,发送的实时表情数据用于控制虚拟会话场景中相应的虚拟会话成员实时触发实时表情数据所对应的表情动作。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)等非易失性存储介质,或随机存储记忆体(randomaccessmemory,ram)等。

以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1