直播互动方法、装置及系统与流程

文档序号:17898246发布日期:2019-06-13 16:09阅读:277来源:国知局
直播互动方法、装置及系统与流程

本发明涉及计算机技术领域,尤其涉及一种直播互动方法、装置及系统。



背景技术:

随着计算机技术的发展,利用互联网及流媒体技术进行数据实时共享的直播方式已成为当下一种热门的互动通信方式。

具体而言,主播客户端可以在线建立直播间,以向接入该直播间的直播客户端分享直播视频,对于直播客户端而言,则可以在直播间中播放的直播画面内展示直播内容,例如,直播视频。

为了提高直播活跃度,主播用户和观众用户可以相互发送互动资源,例如,互动资源包括虚拟礼物、虚拟表情、电子红包等等,或者,主播用户可以为自身配置一个虚拟形象,并配置该虚拟形象与其自身直播时的形态同步,以通过直播画面中动态显示的虚拟形象进行直播,使得观众用户获得超越现实的体验。

然而,上述直播过程中,受限于主播用户的参与度,直播内容的形式过于单一。



技术实现要素:

为了解决上述技术问题,本发明的一个目的在于提供一种直播互动方法、装置及系统。

其中,本发明所采用的技术方案为:

一种直播互动方法,包括:主播客户端获取主播用户对应的主播虚拟形象;在接入直播间的至少一个直播客户端中显示包括主播虚拟形象的直播画面;在播放包括主播虚拟形象的直播画面时,为指定用户进行直播授权,以允许所述指定用户参与直播互动;根据所述指定用户的直播授权获取所述指定用户对应的观众虚拟形象;在所述至少一个直播客户端中显示包括观众虚拟形象和主播虚拟形象的直播画面。

一种直播互动系统,包括:主播客户端,用于获取主播用户对应的主播虚拟形象;接入直播间的至少一个直播客户端,用于显示包括主播虚拟形象的直播画面;所述主播客户端,还用于在播放包括主播虚拟形象的直播画面时,为指定用户进行直播授权,以允许所述指定用户参与直播互动;所述主播客户端,还用于根据所述指定用户的直播授权获取所述指定用户对应的观众虚拟形象;所述至少一个直播客户端,还用于显示包括观众虚拟形象和主播虚拟形象的直播画面。

一种直播互动装置,包括处理器及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如上所述的直播互动方法。

一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的直播互动方法。

在上述技术方案中,在接入直播间的至少一个直播客户端中播放包括主播用户对应主播虚拟形象的直播画面时,为指定用户进行直播授权,以允许指定用户参与直播互动,进而通过指定用户的直播授权获取指定用户对应的观众虚拟形象,并使得该至少一个直播客户端中显示的直播画面同时包括主播虚拟形象和观众虚拟形象,也就是说,直播过程中,不再依赖于主播用户的参与度,指定用户也通过观众虚拟形象而参与直播互动,使得直播内容的形式同时取决于指定用户的参与度,以此解决了现有技术中存在的直播内容形式单一的问题。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。

图1是根据本发明所涉及的实施环境的示意图。

图2是根据一示例性实施例示出的一种用户端的硬件结构框图。

图3是根据一示例性实施例示出的一种用户端的另一硬件结构框图。

图4是根据一示例性实施例示出的一种直播互动方法的流程图。

图5是根据一示例性实施例示出的一种直播互动方法的流程图。

图6是根据一示例性实施例示出的在直播间通过主播用户所配置主播虚拟形象进行的直播过程的流程图。

图7是图5对应实施例中步骤310在一个实施例的流程图。

图8是根据一示例性实施例示出的直播互动请求发起过程的流程图。

图9是根据一示例性实施例示出的另一种直播互动方法的流程图。

图10是根据一示例性实施例示出的另一种直播互动方法的流程图。

图11是根据一示例性实施例示出的另一种直播互动方法的流程图。

图12是一应用场景中一种直播互动方法的具体实现示意图。

图13是一应用场景中动态显示主播虚拟形象和观众虚拟形象的直播画面的示意图。

图14是一应用场景中动态显示主播虚拟形象和观众虚拟形象的直播画面的示意图。

图15是根据一示例性实施例示出的一种直播互动装置的框图。

图16是根据一示例性实施例示出的另一种直播互动装置的框图。

图17是图15对应实施例中授权指令生成模块1010在一个实施例的框图。

图18是根据一示例性实施例示出的另一种直播互动装置的框图。

图19是根据一示例性实施例示出的另一种直播互动装置的框图。

图20是图19对应实施例中直播授权获取模块1310在一个实施例的框图。

图21是图20对应实施例中请求发起单元1311在一个实施例的框图。

图22是根据一示例性实施例示出的另一种直播互动装置的框图。

通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。

具体实施方式

这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。

如前所述,直播过程中,受限于主播用户的参与度,直播内容的形式过于单一。举例来说,直播间在通过主播用户所配置的虚拟形象进行直播时,直播画面中显示的虚拟形象仅跟随主播用户直播时的形态产生相应的变化,使得直播内容的形式依赖于主播用户的参与,此外,这也将造成主播用户与其他用户(例如其他主播用户或者观众用户)之间的沟通和互动相对匮乏。

为此,直播间被允许配置为由多个主播用户共同进行直播,在此直播过程中,如果多个主播用户处于不同地域,直播内容是以每一个主播用户对应一个直播窗口的方式来向观众用户呈现的。考虑用户视觉体验,如果对每一个直播窗口进行全屏展示,观众用户不仅需要对多个直播窗口来回手动切换,操作过于繁琐,而且并不能够同时观看到所有的主播用户,仍然存在直播内容的形式过于单一的缺陷。

因此,本发明特提出了一种直播互动方法,该种直播互动方法能够有效地解决直播内容形式过于单一的问题。

图1为一种直播互动方法所涉及的实施环境的示意图。该实施环境包括客户端100和服务端200。

其中,客户端100根据用户的不同区分为主播客户端和直播客户端,该客户端所运行的电子设备可以是台式电脑、笔记本电脑、平板电脑、智能手机或者其他提供视频和网络连接功能的电子设备,提供视频功能的可以是运行于电子设备中的应用程序客户端,也可以是网页客户端,在此不进行限定。

服务端200可以是一台服务器、或者由多台服务器构成的服务器集群,还可以是一个云计算中心,即由一整片服务器集群形成的虚拟计算平台。

客户端100和服务端200之间将通过无线网络或者有线网络建立通信连接,并以此在主播客户端与直播客户端之间进行数据实时共享。

具体地,主播客户端可以在线建立直播间,并基于该直播间将本地摄像头采集到的直播视频上传给服务端200,然后由服务端200将该直播视频转发给直播客户端。

基于主播客户端所建立的直播间,可以同时接入多个直播客户端,例如百万个直播客户端或者千万个直播客户端。

由此,任一个直播客户端可以将互动数据上传给服务端200,由服务端200将该互动数据转发给主播客户端和其余直播客户端。

相应地,每一个直播客户端均可以接收到服务端200发送的直播视频和互动数据,并在直播间中播放的直播画面内进行展示。

请参阅图2,图2是根据一示例性实施例示出的一种电子设备的框图。

如图2所示,电子设备100包括存储器101、存储控制器103、一个或多个(图2中仅示出一个)处理器105、外设接口107、射频模块109、定位模块111、摄像模块113、音频模块115、触控屏幕117以及按键模块119。这些组件通过一条或多条通讯总线/信号线121相互通讯。

其中,存储器101可用于存储软件程序以及模块,如本发明示例性实施例中的直播互动方法及装置对应的程序指令及模块,处理器105通过运行存储在存储器101内的程序指令,从而执行各种功能以及数据处理,即完成直播互动方法。

存储器101作为资源存储的载体,可以是随机存储器、例如高速随机存储器、非易失性存储器,如一个或多个磁性存储装置、闪存、或者其它固态存储器。存储方式可以是短暂存储或者永久存储。

外设接口107可以包括至少一有线或无线网络接口、至少一串并联转换接口、至少一输入输出接口以及至少一usb接口等,用于将外部各种输入/输出装置耦合至存储器101以及处理器105,以实现与外部各种输入/输出装置的通信。

射频模块109用于收发电磁波,实现电磁波与电信号的相互转换,从而通过通讯网络与其他设备进行通讯。通信网络包括蜂窝式电话网、无线局域网或者城域网,上述通信网络可以使用各种通信标准、协议及技术。

定位模块111用于获取电子设备100的当前所在的地理位置。定位模块111的实例包括但不限于全球卫星定位系统(gps)、基于无线局域网或者移动通信网的定位技术。

摄像模块113隶属于摄像头,用于拍摄图片或者视频。拍摄的图片或者视频可以存储至存储器101内,还可以通过射频模块109发送至上位机。

音频模块115向用户提供音频接口,其可包括一个或多个麦克风接口、一个或多个扬声器接口以及一个或多个耳机接口。通过音频接口与其它设备进行音频数据的交互。音频数据可以存储至存储器101内,还可以通过射频模块109发送。

触控屏幕117在电子设备100与用户之间提供一个输入输出界面。具体地,用户可通过触控屏幕117进行输入操作,例如点击、触摸、滑动等手势操作,以使电子设备100对该输入操作进行响应。电子设备100则将文字、图片或者视频任意一种形式或者组合所形成的输出内容通过触控屏幕117向用户显示输出。

按键模块119包括至少一个按键,用以提供用户向电子设备100进行输入的接口,用户可以通过按下不同的按键使电子设备100执行不同的功能。例如,声音调节按键可供用户实现对电子设备100播放的声音音量的调节。

图3是根据一示例性实施例示出的一种电子设备100的另一硬件结构框图。

该电子设备100的硬件结构可因配置或者性能的不同而产生较大的差异,如图3所示,电子设备100包括:电源110、接口130、至少一存储器150、以及至少一中央处理器(cpu,centralprocessingunits)170。

其中,电源110用于为电子设备100上的各硬件设备提供工作电压。

接口130包括至少一有线或无线网络接口131、至少一串并转换接口133、至少一输入输出接口135以及至少一usb接口137等,用于与外部设备通信。

存储器150作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统151、应用程序153及数据155等,存储方式可以是短暂存储或者永久存储。其中,操作系统151用于管理与控制电子设备100上的各硬件设备以及应用程序153,以实现中央处理器170对海量数据155的计算与处理,其可以是windowsservertm、macosxtm、unixtm、linuxtm、freebsdtm等。应用程序153是基于操作系统151之上完成至少一项特定工作的计算机程序,其可以包括至少一模块(图3中未示出),每个模块都可以分别包含有对电子设备100的一系列计算机可读指令。数据155可以是存储于磁盘中的照片、图片等。

中央处理器170可以包括一个或多个以上的处理器,并设置为通过总线与存储器150通信,用于运算与处理存储器150中的海量数据155。

如上面所详细描述的,适用本发明的电子设备100将通过中央处理器170读取存储器150中存储的一系列计算机可读指令的形式来完成直播互动方法。

需要说明的是,图2或图3中示出的电子设备100只是一个适配于本发明的示例,不能认为是提供了对本发明的使用范围的任何限制。该电子设备100也不能解释为需要依赖于或者必须具有图2或图3中示出的示例性的电子设备100中的一个或者多个组件。

可以理解,图2或图3所示的结构仅为示意,电子设备100还可包括比图2或图3中所示更多或更少的组件,或者具有与图2或图3所示不同的组件。图2或图3中所示的各组件可以采用硬件、软件或者其组合来实现。

请参阅图4,在一示例性实施例中,一种直播互动方法可以包括以下步骤:

步骤810,主播客户端获取主播用户对应的主播虚拟形象。

步骤830,在接入直播间的至少一个直播客户端中显示包括主播虚拟形象的直播画面。

步骤850,在播放包括主播虚拟形象的直播画面时,为指定用户进行直播授权,以允许指定用户参与直播互动。

步骤870,根据指定用户的直播授权获取指定用户对应的观众虚拟形象。

步骤890,在至少一个直播客户端中显示包括观众虚拟形象和主播虚拟形象的直播画面。

上述直播互动过程中,基于主播客户端所建立的直播间,接入直播间的至少一个直播客户端将显示包括主播虚拟形象的直播画面,随着直播进行,主播客户端能够为指定用户进行直播授权,并以此获取指定用户对应的观众虚拟形象,进而使得该至少一个直播客户端显示出包括观众虚拟形象和主播虚拟形象的直播画面。

也就是说,直播内容的形式不再依赖于主播用户的参与度,指定用户也通过观众虚拟形象而参与直播互动,使得直播内容的形式同时取决于指定用户的参与度,以此解决了现有技术中存在的直播内容形式单一的问题。

下面分别通过主播客户端和直播客户端的执行动作、以及二者与服务端之间的交互对直播互动过程加以说明。

请参阅图5,在一示例性实施例中,一种直播互动方法适用于图1所示实施环境的主播客户端,该主播客户端的结构可以如图2或图3所示。

该种直播互动方法可以由主播客户端执行,可以包括以下步骤:

步骤310,根据主播用户配置的主播虚拟形象播放融入主播虚拟形象的直播画面。

首先对直播间内通过主播用户所配置主播虚拟形象进行的直播加以说明如下。

在一实施例的具体实现中,如图6所示,在直播间通过主播用户所配置主播虚拟形象进行直播的过程可以包括以下步骤:

步骤410,根据触发进行的直播开启操作,建立通过主播用户所配置主播虚拟形象进行直播的直播间。

其中,直播开启操作是指主播用户为建立直播间所触发的相关操作,例如,直播间背景界面的选择操作、主播虚拟形象的选择操作、直播启动的确认操作等等。

举例来说,直播间中增设了主播虚拟形象的选择入口,譬如对应于可供选择的主播虚拟形象的按钮,若需要进行主播虚拟形象选择,将检测到直播间内对主播虚拟形象的选择入口触发的点击操作,该点击操作即视为主播虚拟形象的选择操作。

基于此,在主播用户完成上述一系列操作之后,直播间便建立,并且该直播间内播放的直播画面中显示了主播用户所配置的主播虚拟形象。

需要说明的是,主播虚拟形象在直播画面中的显示是通过二维模型实现的,即直播间内播放的直播画面是由直播间背景界面所在的背景层与主播虚拟形象所在的前景层叠加形成的。由此,主播虚拟形象在直播画面中的显示位置能够通过叠加进行调整。例如,在直播画面中居中显示主播虚拟形象。

进一步地,对于主播客户端而言,通过配置虚拟形象同步,即主播虚拟形象与主播用户直播时的形态同步,以此实现直播画面中显示的主播虚拟形象跟随主播用户直播时的形态产生相应的变化,即主播虚拟形象在直播过程中动态显示于直播画面中,也可以理解为,直播间中播放包括主播虚拟形象的直播画面。其中,主播用户直播时的形态包括但不限于:主播用户的头部动作、面部表情等等。

换而言之,主播用户配置主播虚拟形象包括两个动作:一是主播虚拟形象的选择,二是配置虚拟形象同步,以此保证主播虚拟形象与主播用户直播时的形态同步。

步骤430,针对直播画面中动态显示的主播虚拟形象获取对应的主播用户人脸数据。

主播用户人脸数据用于表征主播用户直播时的形态,可以通过主播用户的人脸捕获得到。该主播用户人脸数据包括但不限于直播过程中主播用户面部整体的旋转、移动以及五官等不断变化的表情。

其中,主播用户的人脸捕获包括:启动人脸捕捉设备,例如摄像头,获取包含主播用户人脸的图像数据,并对该图像数据进行人脸识别,以此得到主播用户人脸数据。

由于主播虚拟形象与主播用户直播时的形态是同步的,随着对主播用户人脸进行的追踪识别,主播用户人脸数据将跟随主播用户直播时的形态而变化,则主播虚拟形象也将随主播用户人脸数据发生变化,进而使得直播画面中呈现出动态的主播虚拟形象。

应当说明的是,人脸追踪和识别算法包括但不限于:基于消费级摄像头图像视频流的几何特征算法、局部特征分析算法、特征脸算法、弹性模型算法以及深度学习算法等等。

上述任意一种人脸追踪和识别算法均可以由包含主播用户人脸且持续变化的图像数据中识别出主播用户的人脸,包括但不限于主播用户人脸五官的表情变化、以及面部整体的旋转、移动等变化,以此构成连续变化的主播用户人脸数据,进而为主播虚拟形象在直播画面中的动态显示提供充分的依据。

基于此,通过主播用户人脸数据的获取便能够为直播间生成动态显示主播虚拟形象的直播画面。

步骤450,请求服务端向可接入直播间的直播客户端转发主播用户人脸数据,以在主播客户端和直播客户端中同步进行融入主播虚拟形象的直播画面播放。

对于接入直播间的直播客户端而言,在接收到服务端转发的持续变化的主播用户人脸数据之后,便能够根据该主播用户人脸数据进行直播画面中的主播虚拟形象的渲染,即将主播用户人脸数据指示的主播用户头部动作和/或面部表情映射至主播虚拟形象,并将渲染形成的主播虚拟形象动态显示在直播画面中,以此实现主播客户端与直播客户端之间的数据实时共享。

无论是主播客户端还是直播客户端,在被安装于电子设备之后,便相应地在电子设备所配置的存储空间中存储了虚拟形象模板,以此向用户提供不同的主播虚拟形象和观众虚拟形象,因此,在上述过程中,主播客户端仅上传了主播用户人脸数据,而不必上传直播视频(即包括主播用户人脸数据和主播虚拟形象)至服务端,大大减少了直播过程中的数据传输量,不仅有效地降低了直播过程中对传输带宽的需求,还降低了各交互端之间的任务处理压力。

步骤330,在通过融入主播虚拟形象的直播画面播放而进行的直播中,为指定用户进行直播授权生成直播授权指令。

由上可知,直播间内,直播是通过主播用户所配置的主播虚拟形象进行的,而在此直播过程中,如前所述,受限于主播用户的参与度,直播内容的形式过于单一。为此,本实施例中,将通过直播授权指令的生成来为指定用户进行直播授权,进而丰富直播内容的形式。

其中,为指定用户进行直播授权可以指允许指定用户所配置的观众虚拟形象加入直播,也可以是指主动邀请指定用户配置观众虚拟形象并加入直播。此处,指定用户可以是其他主播用户,也可以是进入直播间的观众用户,主播客户端能够根据触发进行的用户选择操作,确认进行直播授权的指定用户是其他主播用户还是观众用户,在此不加以限定。

应当说明的是,观众虚拟形象由指定用户配置,区别于主播用户为其自身所配置的主播虚拟形象。

例如,直播间内为主播用户对指定用户进行直播授权设置有直播授权入口,当指定用户为配置的观众虚拟形象加入直播发起请求时,直播授权入口被激活,譬如确认对话框弹出并显示在直播画面中,进而将检测到直播间内对激活的直播授权入口触发的确认操作,根据该确认操作为指定用户进行的直播授权生成直播授权指令。

对于指定用户而言,当主播用户生成直播授权指令时,便能够获得主播用户对指定用户进行的直播授权,进而使得配置的观众虚拟形象加入直播,并以此与主播用户、观众用户之间实施直播互动。

步骤350,通过直播授权指令获取指定用户配置的观众虚拟形象。

在得到直播授权指令之后,便获知主播用户为指定用户进行了直播授权,亦即获知需要在直播画面中融入指定用户配置的观众虚拟形象,为此,首先需要获取观众虚拟形象对应的指定用户人脸数据,以便于后续能够根据指定用户人脸数据在直播画面中进行观众虚拟形象的渲染。

以指定用户是主播用户主动邀请的为例进行说明,对于主播客户端而言,在指定用户人脸数据的获取中,首先向指定用户所对应的其他客户端传送直播授权指令,以通过直播授权指令控制该其他客户端对指定用户的人脸进行捕获,由此产生指定用户人脸数据,并借由服务端的转发而得到指定用户人脸数据。

对于指定用户所对应的其他客户端而言,在受控于主播客户端所进行的指定用户人脸捕获中,将相应地获得指定用户人脸数据。

需要说明的是,在上述指定用户人脸捕获过程中,指定用户还将为其自身进行观众虚拟形象的配置,并使指定用户人脸数据与配置的观众虚拟形象进行关联,并以此通知服务端,以便于后续直播画面中是根据指定用户人脸数据对指定用户配置的该观众虚拟形象进行渲染。

步骤370,在直播间中播放融入观众虚拟形象和主播虚拟形象的直播画面。

应当理解,对于接入直播间的所有客户端,包括主播客户端、指定客户端以及其它直播客户端,通过直播间所实时共享的数据是一致的,即直播画面中展示的直播内容是一致的。

由此,指定用户人脸数据将通过服务端进行转发,相应地,针对所有客户端而言,在接收到由服务端下发的指定用户人脸数据后,将根据指定用户人脸数据在直播画面中进行观众虚拟形象的渲染,以便于能够通过直播间进行数据的实时共享。

渲染,是指在直播画面中对指定用户人脸数据与观众虚拟形象之间进行映射。具体地,获取存储在客户端中的观众虚拟形象,并根据指定用户人脸数据的指示,将指定用户面部整体的旋转、移动以及五官等表情的变化映射至观众虚拟形象,进而将完成映射的观众虚拟形象融入到包含有主播虚拟形象的直播画面中,由此便在直播间中同时展示了观众虚拟形象和主播虚拟形象。

进一步地,同理于主播虚拟形象,观众虚拟形象在直播画面中的显示也是通过背景层叠加前景层的方式形成的,基于此,在进行观众虚拟形象融入直播画面时,主播虚拟形象与观众虚拟形象在直播画面中的显示位置均可以通过叠加来调整。例如,直播画面中进行融合时,将主播虚拟形象由居中显示调整为偏左显示,相应地,对观众虚拟形象进行偏右显示。

值得一提,观众虚拟形象、主播虚拟形象以及直播间背景界面,在提供视频功能的应用程序客户端或者网页客户端安装至客户端时,即被存储至客户端中,用户还可以通过下载等方式对客户端中存储的观众虚拟形象、主播虚拟形象以及直播间背景界面进行更新,以供用户配置选择。

通过如上所述的过程,实现了主播用户和指定用户之间的直播互动,使得直播内容的形式不再依赖于主播用户的参与度,还取决于指定用户的参与度。

此外,无论指定用户和主播用户是否处于同一地域,通过观众虚拟形象融入至包含有主播虚拟形象的直播画面,实现了主播用户和指定用户之间的同台互动,使得观众用户不再需要在多个直播窗口之间来回手动切换,大大简化了操作,而且能够直接同时观看到参与直播的所有用户,进一步有效的丰富了直播内容的形式。

请参阅图7,在一示例性实施例中,步骤330可以包括以下步骤:

步骤331,接收指定用户为配置的观众虚拟形象申请加入直播而发起的直播互动请求。

本实施例中,为指定用户进行直播授权是指允许指定用户所配置的观众虚拟形象加入直播,即,直播授权指令的生成是响应于指定用户为配置的观众虚拟形象申请加入直播而发起的直播互动请求。

对于指定用户所在的其他客户端而言,以下简称为指定客户端,如图7所示,直播互动请求的发起过程可以包括以下步骤:

步骤3311,当检测到直播间内的互动请求控件被触发,在直播画面中显示观众虚拟形象选择界面,并进行指定用户的人脸捕获。

控件是指界面中包含的文本、图片、图表、按钮、开关、滑动条、输入框等。其中,按钮、开关、滑动条、输入框等控件可被触发而使得人机交互以此实施。由此,互动请求控件即是指上述可被触发控件中的任意一种,例如,互动请求控件为直播画面中显示出的按钮,当指定用户点击该按钮,即检测到直播间内的互动请求控件被触发。

在互动请求控件被触发,指定客户端便获知指定用户希望与主播用户实施直播互动,由此首先进入为指定用户配置观众虚拟形象,以便于后续能够使得配置的观众虚拟形象加入直播。

观众虚拟形象的配置包括:观众虚拟形象的选择以及指定用户关联。

具体地,在直播画面中显示观众虚拟形象选择界面,并根据触发进行的观众虚拟形象选择操作为指定用户选定一观众虚拟形象。

启动人脸捕捉设备,例如摄像头,获取包含指定用户人脸的图像数据,并对该图像数据进行人脸识别得到指定用户人脸数据,以此完成对指定用户的人脸捕获。

根据捕获得到的指定用户人脸数据与选定的观众虚拟形象进行关联,以此通知指定客户端在直播画面中根据指定用户人脸数据进行观众虚拟形象渲染是针对选定的观众虚拟形象而言的。

进一步地,在图像数据获取中,如果指定用户人脸捕获失败,指定客户端将生成捕获提示消息并显示,以此提示指定用户将人脸对准人脸捕捉设备,进而实施精准地人脸捕获。较优地,捕获提示消息的显示是在观众虚拟形象选择界面中进行的,以此避免对正在进行的直播造成影响。

步骤3313,将获得的指定用户人脸数据关联至观众虚拟形象选择界面中选定的观众虚拟形象。

步骤3315,根据进行了观众虚拟形象关联的指定用户人脸数据向主播客户端发起直播互动请求,通过直播互动请求为观众虚拟形象申请加入直播。

对于服务端而言,在接收到直播互动请求之后,即将携带了指定用户人脸数据的直播互动请求转发至主播客户端,以便于主播客户端能够对该直播互动请求进行响应而为指定用户进行直播授权。

步骤333,根据直播互动请求为主播用户允许观众虚拟形象加入直播生成直播授权指令。

步骤335,根据直播授权指令在服务端中标识主播用户与指定用户之间直播互动的开启。

当主播用户允许观众虚拟形象加入直播时,将生成直播授权指令,并借由服务端传送该直播授权指令至指定客户端,使得指定客户端后续能够进行融入观众虚拟形象和主播虚拟形象的直播画面播放。

对于服务端而言,通过直播授权指令便能够获知主播用户与指定用户之间将进行直播互动,此时,通过对主播用户与指定用户之间直播互动开启进行标识,服务端将在后续为直播间进行直播画面的虚拟形象同步。

也就是说,当主播用户与指定用户之间的直播互动开启,服务端除了需要向接入直播间的直播客户端转发主播用户人脸数据,还需要转发指定用户人脸数据,以此保证直播画面中主播虚拟形象、观众虚拟形象能够分别与主播用户、指定用户直播时的形态保持同步。

相应地,在一示例性实施例中,步骤350可以包括以下步骤:

执行直播授权指令对直播互动请求进行人脸数据提取,得到指定用户人脸数据。

如前所述,直播互动请求是指定客户端根据指定用户人脸数据向主播客户端发起的,也就是说,直播互动请求中至少携带了指定用户人脸数据。

因此,主播用户在对指定用户进行了直播授权之后,便能够由直播互动请求中提取得到指定用户人脸数据,进而为直播画面中进行的观众虚拟形象渲染提供充分的依据。

请参阅图9,在一示例性实施例中,步骤370之后,如上所述的方法还可以包括以下步骤:

步骤510,接收服务端推送的虚拟形象同步数据。

虚拟形象同步数据,用于分别同步观众虚拟形象、主播虚拟形象与指定用户、主播用户直播时的形态。相应地,该虚拟形象同步数据包括指定用户人脸数据和/或主播用户人脸数据。

其中,无论是指定用户人脸数据还是主播用户人脸数据,均是通过对人脸进行追踪识别得到的。也就是说,无论主播客户端还是指定客户端,在配置相应虚拟形象与相应用户直播时的形态同步时,将通过启动的人脸捕捉设备对相应用户的人脸进行追踪而持续地获取到相应用户的图像数据,进而通过对该图像数据进行的人脸识别得到相应用户人脸数据,并以此上报服务端,进而请求服务端根据相应用户人脸数据生成虚拟形象同步数据。

对于服务端而言,将针对接入直播间的所有客户端下发虚拟形象同步数据,以为直播间进行直播画面中的虚拟形象同步,进而保证了所有接入直播间的客户端实时共享数据一致。

步骤530,将虚拟形象同步数据映射至直播画面中的观众虚拟形象和/或主播虚拟形象。

举例来说,在进行的指定用户人脸追踪识别中,对于任意一种人脸追踪和识别算法,首先,最基本的输出参数包括:人脸方框的位置参数以及pitch(围绕x轴旋转的俯仰角)、yaw(围绕y轴旋转的偏航角)、roll(围绕z轴旋转的翻滚角)等旋转参数。其次,根据位置参数计算人脸方框的几何中心,并与摄像头所摄长方形画面的几何中心作比对,得出人脸整体相对于摄像头几何中心的位置偏移参数(δx,δy)。由此,指定用户人脸数据包括:位置偏移参数、pitch、yaw、roll等旋转参数。

基于此,指定用户人脸数据被映射至观众虚拟形象,通过位置偏移参数使得观众虚拟形象相对于其几何中心具有同样程度的位置偏移。通过pitch、yaw、roll等旋转参数向观众虚拟形象传递指定用户的头部俯仰、扭动和歪头等信息,以此实现了观众虚拟形象与指定用户直播时头部动作的同步。

进一步地,人脸追踪和识别算法还将在人脸上设置多个面部特征点,例如,面部特征点包括:用于描述脸型轮廓的特征点、用于描述左右眼轮廓的特征点、用于描述左右眉轮廓的特征点、用于描述嘴巴轮廓的特征点、以及用于描述鼻子轮廓的特征点。面部特征点的个数可以根据追踪识别的精度要求进行灵活地调整,在此不进行限定。由此,指定用户人脸数据包括:多个面部特征点对应的面部特征值,该面部特征值用于表征面部特征点在人脸上的位置。

由此,观众虚拟形象可以分别设置相应数量的面部特征点,映射中,通过指定用户人脸数据中的面部特征值对观众虚拟形象的面部特征点进行调整,向观众虚拟形象传递指定用户的人脸表情、口型等信息,以此实现了观众虚拟形象与指定用户直播时面部表情的同步。

更进一步地,如果观众虚拟形象佩戴有佩饰,如发饰、帽子等,在进行观众虚拟形象映射时,佩饰可以随着指定用户人脸数据中的旋转参数进行变形。变形包括但不限于卷曲、飘动、延伸、上翘、下沉等。相应地,变形程度随着旋转参数的变化而变化,具体关联函数包括但不限于随着旋转参数线性增加或减小、指数增加或减小、以及对数增加或减小等等。该具体关联函数可以根据实际应用场景而进行灵活地调整,包括但不限于单独使用或者组合使用。

在一示例性实施例中,步骤370之后,如上所述的方法还可以包括以下步骤:

当指定用户请求退出直播互动时,清除直播画面中显示的观众虚拟形象,并请求服务端关闭主播用户与指定用户之间的直播互动。

随着指定用户退出直播互动,将对直播画面中动态显示的观众虚拟形象进行清除处理。例如,对于动态显示有主播虚拟形象和观众虚拟形象的直播画面,观众虚拟形象被移出直播画面,进而使得主播虚拟形象在直播画面中恢复居中展示。

此外,向服务端发起关闭主播用户与指定用户之间的直播互动的请求,以此通知服务端停止为直播间进行直播画面中的观众虚拟形象同步。也就是说,对于服务端而言,在获知主播用户与指定用户停止直播互动之后,只需要向接入直播间的直播客户端转发主播用户人脸数据即可,以此保证直播画面中主播虚拟形象与主播用户直播时的形态同步。

请参阅图10,在一示例性实施例中,一种直播互动方法适用于图1所示实施环境的直播客户端,该直播客户端的结构可以如图2或3所示。

该种直播互动方法可以由该直播客户端执行,可以包括以下步骤:

步骤610,获取主播用户配置的主播虚拟形象,并在直播间中播放融入主播虚拟形象的直播画面。

步骤630,在通过融入主播虚拟形象的直播画面播放而进行的直播中,获得主播用户对指定用户进行的直播授权。

步骤650,根据主播用户对指定用户进行的直播授权获取指定用户配置的观众虚拟形象。

步骤670,在直播间中播放融入观众虚拟形象和主播虚拟形象的直播画面。

进一步地,在另一示例性实施例中,步骤630可以包括以下步骤:

接收主播用户邀请指定用户配置观众虚拟形象并加入直播而生成的直播授权指令。

根据直播授权指令为指定用户得到主播用户允许观众虚拟形象加入直播的直播授权。

请参阅图11,在一示例性实施例中,如上所述的方法还可以包括以下步骤:

步骤710,通过配置虚拟形象同步,对指定用户的人脸进行追踪识别。

步骤730,根据得到的指定用户人脸数据请求服务端发送虚拟形象同步数据,以为直播间进行直播画面中的虚拟形象同步。

图12至图14是一应用场景中一种直播互动方法的具体实现示意图。

在本应用场景中,以指定用户为进入直播间的观众用户为例进行说明。该应用场景包括主播客户端、服务端、两个直播客户端。

当主播客户端在线建立直播间后,可借由服务端进行的主播用户人脸数据转发,使得该两个直播客户端接入该直播间,进而实时共享直播画面。

对于其中一直播客户端而言,通过观众虚拟形象的配置向主播客户端发起直播互动请求,以为观众虚拟形象申请加入直播,并为此等待主播用户对其中一观众用户进行的直播授权。

当其中一观众用户被主播用户直播授权后,通过指定用户人脸数据的获取进行直播画面中观众虚拟形象的映射,进而为直播间内播放的直播画面融入了观众虚拟形象和主播虚拟形象,如图13所示,以此实现其中一观众用户与主播用户之间进行直播互动。

上述直播过程中,服务端将接收到主播客户端上报的主播用户人脸数据,以及其中一直播客户端上报的指定用户人脸数据,并以此完成直播画面中虚拟形象同步,进而使得观众虚拟形象和主播虚拟形象将分别与其中一观众用户、主播用户直播时的形态实时同步,如图14所示。

当其中一观众用户请求观众虚拟形象推出直播,直播画面中的观众虚拟形象被清除,并以此通知服务端关闭主播用户与其中一观众用户之间的直播互动,由此,直播间内继续通过主播虚拟形象进行直播。

其中,直播间内通过融入观众虚拟形象、主播虚拟形象的直播画面进行的直播过程的具体流程如图12所示。

由此,对于进入直播间的观众用户而言,无论是否与主播用户位于同一地域,均可以主动请求与主播用户同台直播互动,进而使得配置的观众虚拟形象融入已包含主播虚拟形象的直播画面而向其他观众用户提供直播,不仅有效地丰富了直播内容的形式,而且操作简单,具有很强的互动性和观赏性。

下述为本发明装置实施例,可以用于执行本发明所涉及的直播互动方法。对于本发明装置实施例中未披露的细节,请参照本发明所涉及的直播互动方法实施例。

请参阅图15,在一示例性实施例中,一种直播互动装置1000应用于主播客户端,所述装置1000包括但不限于:直播模块1010、授权指令生成模块1030、虚拟形象获取模块1050及虚拟形象融入模块1070。

其中,直播模块1010用于根据主播用户配置的主播虚拟形象播放融入主播虚拟形象的直播画面。

授权指令生成模块1030用于在通过融入主播虚拟形象的直播画面播放而进行的直播中,为指定用户进行直播授权生成直播授权指令。

虚拟形象获取模块1050用于通过所述直播授权指令获取所述指定用户配置的观众虚拟形象。

虚拟形象融入模块1070用于根据所述指定用户人脸数据在直播画面中进行观众虚拟形象的映射,并在所述直播间中播放融入观众虚拟形象和主播虚拟形象的直播画面。

请参阅图16,在一示例性实施例中,如上所述装置1000还包括但不限于:直播间建立模块1110、第二人脸数据获取模块1130和人脸数据转发模块1150。

其中,直播间建立模块1110用于根据触发进行的直播开启操作,建立通过主播用户所配置主播虚拟形象进行直播的直播间。

第二人脸数据获取模块1130用于针对直播画面中动态显示的主播虚拟形象获取对应的主播用户人脸数据。

人脸数据转发模块1150用于请求服务端向可接入直播间的直播客户端转发主播用户人脸数据,以在接入直播间的直播客户端中进行融入主播虚拟形象的直播画面播放。

请参阅图17,在一示例性实施例中,授权指令生成模块1030包括但不限于:互动请求接收单元1031和直播授权单元1033。

其中,互动请求接收单元1031用于接收指定用户为配置的观众虚拟形象申请加入直播而发起的直播互动请求。

直播授权单元1033用于根据直播互动请求为主播用户允许观众虚拟形象加入直播生成直播授权指令。

在一示例性实施例中,人脸数据获取模块1050包括但不限于:第一人脸数据获取单元。

其中,第一人脸数据获取单元用于执行直播授权指令对直播互动请求进行人脸数据提取,得到指定用户人脸数据。

在一示例性实施例中,授权指令生成模块1030包括但不限于:指定用户确认单元和第二直播授权单元。

其中,指定用户确认单元用于根据触发进行的用户选择操作,确认进行直播授权的所述指定用户。

第二直播授权单元用于为主播用户邀请指定用户配置观众虚拟形象并加入直播生成直播授权指令。

在一示例性实施例中,人脸数据获取模块1050包括但不限于:指令传送单元、人脸捕获控制单元和人脸数据接收单元。

其中,指令传送单元用于向指定用户所对应的其他客户端传送直播授权指令。

人脸捕获控制单元用于通过传送的直播授权指令控制其他客户端对指定用户进行人脸捕获得到指定用户人脸数据。

人脸数据接收单元用于接收其他客户端反馈的指定用户人脸数据。

进一步地,在一示例性实施例中,授权指令生成模块1030还包括但不限于:直播互动开启模块。

其中,直播互动开启模块用于根据所述直播授权指令在服务端中标识所述主播用户与指定用户之间直播互动的开启。

请参阅图18,在一示例性实施例中,如上所述的装置1000还包括但不限于:同步数据接收模块1210和同步数据映射模块1230。

其中,同步数据接收模块1210用于接收服务端推送的虚拟形象同步数据。

同步数据映射模块1230用于将虚拟形象同步数据映射至直播画面中的观众虚拟形象和/或主播虚拟形象,通过映射保持观众虚拟形象、主播虚拟形象分别与指定用户、主播用户直播时的形态同步。

在一示例性实施例中,如上所述的装置1000还包括但不限于:虚拟形象清除模块。

其中,虚拟形象清除模块用于当指定用户请求退出直播互动时,清除直播画面中显示的观众虚拟形象,并请求服务端关闭主播用户与指定用户之间的直播互动。

请参阅图19,在一示例性实施例中,一种直播互动装置1300包括但不限于:直播模块1310、直播授权获取模块1330、虚拟形象获取模块1350及虚拟形象融入模块1370。

其中,直播模块1310用于获取主播用户配置的主播虚拟形象,并在直播间中播放融入主播虚拟形象的直播画面。

直播授权获取模块1330用于在通过融入主播虚拟形象的直播画面播放而进行的直播中,获得主播用户对指定用户进行的直播授权。

虚拟形象获取模块1350用于根据主播用户对指定用户进行的直播授权获取指定用户配置的观众虚拟形象。

虚拟形象融入模块1370用于在直播间中播放融入观众虚拟形象和主播虚拟形象的直播画面。

请参阅图20,在一示例性实施例中,直播授权获取模块1330包括但不限于:请求发起单元1331和直播授权单元1333。

其中,请求发起单元1331用于根据指定用户所配置的观众虚拟形象向主播客户端请求观众虚拟形象加入直播。

直播授权单元1333用于通过请求为指定用户获得主播用户允许观众虚拟形象加入直播的直播授权。

请参阅图21,在一示例性实施例中,请求发起单元1331包括但不限于:控件触发单元1331a、数据关联单元1331c和申请加入单元1331e。

其中,控件触发单元1331a用于当检测到直播间内的互动请求控件被触发,在直播画面中显示观众虚拟形象选择界面,并进行指定用户的人脸捕获。

数据关联单元1331c用于将获得的指定用户人脸数据关联至观众虚拟形象选择界面中选定的观众虚拟形象。

申请加入单元1331e用于根据进行了观众虚拟形象关联的指定用户人脸数据向主播客户端发起直播互动请求,通过直播互动请求为观众虚拟形象申请加入直播。

请参阅图22,在一示例性实施例中,如上所述的装置1300还包括但不限于:追踪识别模块1410和虚拟形象同步模块1430。

其中,追踪识别模块1410用于通过配置虚拟形象同步,对指定用户的人脸进行追踪识别。

虚拟形象同步模块1430用于根据得到的指定用户人脸数据请求服务端发送虚拟形象同步数据,以为直播间进行直播画面中的虚拟形象同步。

需要说明的是,上述实施例所提供的直播互动装置在进行会议邀请处理时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即直播互动装置的内部结构将划分为不同的功能模块,以完成以上描述的全部或者部分功能。

另外,上述实施例所提供的直播互动装置与直播互动方法的实施例属于同一构思,其中各个模块执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。

在一示例性实施例中,一种直播互动系统包括但不限于:主播客户端和直播客户端。

其中,主播客户端,用于获取主播用户对应的主播虚拟形象。

接入直播间的至少一个直播客户端,用于显示包括主播虚拟形象的直播画面。

主播客户端,还用于在播放包括主播虚拟形象的直播画面时,为指定用户进行直播授权,以允许指定用户参与直播互动。

主播客户端,还用于根据指定用户的直播授权获取指定用户对应的观众虚拟形象。

至少一个直播客户端,还用于显示包括观众虚拟形象和主播虚拟形象的直播画面。

在一示例性实施例中,所述主播客户端包括但不限于:请求接收单元和直播授权单元。

其中,请求接收单元,用于接收指定用户请求参与直播互动而发起的直播互动请求。

直播授权单元,用于根据直播互动请求允许指定用户参与直播互动。

在一示例性实施例中,所述主播客户端包括但不限于:数据接收单元、数据映射单元和形象融入单元。

其中,数据接收单元,用于接收指定用户在直播授权中的指定用户人脸数据。

数据映射单元,用于将指定用户人脸数据指示的指定用户头部动作和/或面部表情映射至观众虚拟形象。

形象融入单元,用于为观众虚拟形象的融入调整主播虚拟形象在直播画面中的显示位置,并将观众虚拟形象显示在调整了主播虚拟形象显示位置的直播画面。

在一示例性实施例中,一种直播互动装置,包括处理器及存储器。

其中,存储器上存储有计算机可读指令,该计算机可读指令被处理器执行时实现如上所述的各实施例中的直播互动方法。

在一示例性实施例中,一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上所述的各实施例中的直播互动方法。

上述内容,仅为本发明的较佳示例性实施例,并非用于限制本发明的实施方案,本领域普通技术人员根据本发明的主要构思和精神,可以十分方便地进行相应的变通或修改,故本发明的保护范围应以权利要求书所要求的保护范围为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1