视频互动方法、用户客户端、服务器及存储介质与流程

文档序号:14915078发布日期:2018-07-11 00:30阅读:119来源:国知局

本发明涉及互联网技术领域,特别涉及一种视频互动方法、用户客户端、服务器及计算机可读存储介质。



背景技术:

随着网络的不断发展,通过网络观看视频逐渐成为人们生活中不可或缺的获取资讯或娱乐的方式,为了增加观看视频的互动性和趣味性,目前已出现多用户共同同步观看同一视频内容的方式。

例如,一种多人观看视频的方案为:多个用户同步观看同一视频内容,同时,多个用户在观看视频内容时还可以通过视频窗口进行视频互动,一起讨论视频内容或发表自己的观看想法等。

但是,在该方案中,视频互动的多个用户可能是陌生人,某些用户面对陌生人直接视频互动会有心理压力或不安全感,可能就不会自由、放松的畅聊或发言,使得降低了同步观看视频的趣味性、互动性,影响用户观看体验。视频互动的多个用户也可能是朋友或家人等熟悉的人群,当某个用户当前的妆容或面貌状态不适合公开给大家时,该用户可能会选择不参与同步观看视频或不参与视频互动,但是,不参与同步观看视频会让用户错过同步观看的乐趣,不参与视频互动也会让用户错失互动的乐趣,降低了用户体验。



技术实现要素:

本发明实施例提供了一种视频互动方法、用户客户端、服务器及计算机可读存储介质,以解决现有技术中多人同步观看视频且实时视频互动时需要将真实面目公开而导致的降低用户体验的技术问题。

本发明实施例提供的一种视频互动方法、用户客户端、服务器及计算机可读存储介质是这样实现的:

一种视频互动方法,该视频互动方法用于第一用户客户端,包括:

将同一多媒体内容分享给至少一个第二用户客户端同步播放;

同步显示所述第二用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述视频互动方法的计算机程序。

一种视频互动方法,包括:

将第一用户客户端分享的同一多媒体内容发送给至少一个第二用户客户端同步播放;

将所述第二用户客户端的登录用户的实时视频影像发送给所述第一用户客户端,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

一种视频互动方法,该视频互动方法用于第二用户客户端,包括:

接收第一用户客户端分享的多媒体内容,与所述第一用户客户端同步播放所述多媒体内容;

同步显示所述第一用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述视频互动方法的计算机程序。

一种第一用户客户端,包括:

播放模块,用于将同一多媒体内容分享给至少一个第二用户客户端同步播放;

显示模块,用于同步显示所述第二用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

一种服务器,所述服务器包括存储器和处理器,所述存储器中包括计算机程序,所述计算机程序被所述处理器执行时,实现以下步骤:

将第一用户客户端分享的同一多媒体内容发送给至少一个第二用户客户端同步播放;

将所述第二用户客户端的登录用户的实时视频影像发送给所述第一用户客户端,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

一种第二用户客户端,包括:

内容接收模块,用于接收第一用户客户端分享的多媒体内容;

显示模块,用于与所述第一用户客户端同步播放所述多媒体内容,同步显示所述第一用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

本发明实施例提供的视频互动方法、用户客户端、服务器及计算机可读存储介质,使得多人同步观看多媒体内容且实时视频互动时,登录用户可以通过显示虚拟面部特征与其他登录用户进行实时视频互动,避免将真实面目公开在大家面前,无论一起观看多媒体内容的人是不是陌生人,用户都可以毫无心理压力、放松自如地与大家畅聊互动,即使是在目前面部状况或精神面貌不便于公开给大家的情况下,也可以轻松、欢乐地与大家一起观看并视频互动,不会因为面部状况或精神面貌的不便错失互动的乐趣,从而解决现有技术中多人同步观看视频且实时视频互动时需要将真实面目公开而导致的降低用户体验的技术问题,达到了改善用户体验的技术效果。

附图说明

此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。在附图中:

图1是本发明实施例提供的一种用于第一用户客户端的视频互动方法的流程图;

图2是本发明实施例提供的一种第一用户客户端、第二用户客户端和服务器组成的架构示意图;

图3是本发明实施例提供的一种第一用户客户端、第二用户客户端和服务器的交互示意图;

图4是本发明实施例提供的一种第一用户客户端的显示界面的示意图;

图5是本发明实施例提供的一种第一用户客户端的结构示意图;

图6是本发明实施例提供的一种用于服务器的视频互动方法的流程图;

图7是本发明实施例提供的一种服务器的结构示意图;

图8是本发明实施例提供的一种用于第二用户客户端的视频互动方法的流程图;

图9是本发明实施例提供的一种第二用户客户端的结构示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施方式和附图,对本发明做进一步详细说明。在此,本发明的示意性实施方式及其说明用于解释本发明,但并不作为对本发明的限定。

在本发明实施例中,提供了一种用于第一用户客户端的视频互动方法,使得第一用户客户端将同一多媒体内容分享给至少一个第二用户客户端同步播放,实现了第一用户客户端的登录用户与至少一个第二用户客户端的登录用户同步观看上述多媒体内容,与此同时,第一用户客户端的登录用户还能与至少一个第二用户客户端的登录用户进行实时视频互动,且实时视频互动时实时视频影像中登录用户的面部可以包括虚拟面部区域(例如,虚拟的眼睛、虚拟的眉毛等),使得用户不必有面对陌生人的心理压力,也不必因为当前面部状况或精神面貌不便示人而困扰,通过显示虚拟面部区域,同步观看多媒体内容的登录用户之间可以轻松、毫无心理压力的就多媒体内容中的剧情进行畅聊互动,享受视频互动的乐趣。

在一个实施方式中,上述第一用户客户端和第二用户客户端可以是可移动设备。例如,可以是手机、平板电脑等。上述第一用户客户端和第二用户客户端还可以是桌面设备,例如:桌面个人计算机(PC机)、一体机等。

在一个实施方式中,上述多媒体内容可以是视频、音频、静态的文字内容(例如,PPT)等。

在一个实施方式中,如图1所示,提供了一种用于第一用户客户端的视频互动方法,包括:

步骤101:将同一多媒体内容分享给至少一个第二用户客户端同步播放;

步骤102:同步显示所述第二用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

在一个实施方式中,第一用户客户端还可以同步显示所述第一用户客户端的登录用户的所述实时视频影像,以便第一用户客户端的登录用户实时观察自己在视频互动中的表情、状态。第一用户客户端可以在显示第二用户客户端的登录用户的所述实时视频影像的同时,同步显示第一用户客户端的登录用户的所述实时视频影像;第一用户客户端也可以始终显示自身的登录用户的所述实时视频影像。

在一个实施方式中,如图2所示,第一用户客户端100可以通过服务器200将多媒体内容分享给至少一个第二用户客户端300同步播放,第一用户客户端100也可以直接将多媒体内容分享给至少一个第二用户客户端300同步播放。

在一个实施方式中,如图2所示,第一用户客户端100可以通过服务器200与至少一个第二用户客户端300建立视频互动的视频连接,第一用户客户端100也可以直接与至少一个第二用户客户端300建立视频互动的视频连接。

在一个使用场景下,第一用户客户端100通过服务器200与第二用户客户端300分享多媒体内容且视频互动的交互过程如图3所示,第一用户客户端100向服务器发起分享多媒体内容的分享请求,该分享请求中可以包括多媒体内容的名称、第二用户客户端300的相关信息(该相关信息可以是登录用户的账号、登录用户的头像、第二用户客户端300的IP地址等),本申请不做具体限定;服务器200响应于分享请求将多媒体内容发送给第一用户客户端100和第二用户客户端300同步播放;在第一用户客户端100和第二用户客户端300同步播放多媒体内容的同时,服务器200接收第一用户客户端100的登录用户的实时视频影像并发送给第二用户客户端300,服务器200还接收第二用户客户端300的登录用户的实时视频影像并发送给第一用户客户端100。

在一个实施方式中,第一用户客户端可以通过两种方式获取实时视频影像。

例如,第一种方式,第一用户客户端直接接收实时视频影像,该实时视频影像可以是自身的也可以是第二用户客户端的,此时,生成实时视频影像的过程是通过第一用户客户端之外的设备完成的,该设备可以是云服务器或第二用户客户端。

第二种方式,第一用户客户端完成生成实时视频影像的过程,具体的过程可以是:

首先,获取登录用户的面部图像;本申请对获取面部图像的方法不做具体限定,可以根据实际需求选择具体的识别方法,例如,可以采用毫秒级的人脸特征点定位算法,该算法可以在实时视频数据中实时识别人脸常见关键点定位,例如,对眉毛、眼睛、鼻子、嘴巴、面部外轮廓等面部特征的关键点进行定位,以通过这些面部特征的关键点来得到真实的面部图像。

然后,将虚拟面部区域与面部图像中对应区域的相应像素一一映射绑定,即实现通过虚拟面部区域遮挡登录用户的面部图像中对应的面部特征,得到实时视频影像,避免公开登录用户的真实面目,且根据绑定点,实时视频影像中虚拟面部区域根据登录用户的真实面部特征变化自适应匹配,使得登录用户的真实表情变化、五官动作与实时视频影像中显示的表情变化、五官动作一致。

在一个实施方式中,在生成实时视频影像的过程中,可以通过登录用户的实时视频数据来获取登录用户的面部图像,该实时视频数据中显示登录用户的真实面部特征,第一用户客户端可以主动地直接采集得到各个登录用户的实时视频数据,第一用户客户端也可以被动地接收各个登录用户的实时视频数据,例如,接收服务器或各个用户客户端发送的实时视频数据。

在一个实施方式中,在视频互动时,为了增加互动趣味,第一用户客户端的登录用户可以自主地选择显示哪个第二用户可端的实时视频影像,以便第一用户客户端显示选定的第二用户客户端的实时视频影像。例如,第一用户客户端的登录用户想看见某个第二用户客户端的登录用户显示虚拟面部区域,第一用户客户端的登录用户可以向第一用户客户端输入显示指令,该显示指令用于指示显示选定的第二用户客户端的所述实时视频影像,第一用户客户端在接收到显示指令时,响应显示指令,控制第一用户客户端显示选定的第二用户客户端的所述实时视频影像,该实时视频影像中选定的第二用户客户端的登录用户的面部包括虚拟面部区域。对于没有被显示指令选到的第二用户客户端,在视频互动时时,第一用户客户端直接显示这些第二用户客户端的登录用户的真实面目。

在一个实施方式中,上述显示指令中可以包括选定的第二用户客户端的对应信息,该对应信息可以是登录用户的账号、登录用户的头像或待虚拟的用户客户端的IP地址等。

在一个实施方式中,为了解除登录用户在视频互动时不想公开真实面目的困扰,登录用户可以自主的触发显示自己的实时视频影像,例如,第一用户客户端的登录用户不想公开真实面目,第一用户客户端的登录用户可以向第一用户客户端输入指令,触发生成第一用户客户端的登录用户的实时视频影像,进而触发第二用户客户端同步显示第一用户客户端的登录用户的实时视频影像,此时,第一用户客户端也可以显示自身的登录用户的实时视频影像。

在一个使用场景下,如图4所示,张三将动漫视频分享给朋友A、B同步观看,且同步视频互动,但是,此时张三正在敷面膜、或者面部某个特征有状况(黑眼圈或眼睛红肿)、亦或精神面貌不佳(精神疲惫),不想公开真实面目,这时张三可以向自己登录的第一用户客户端输入指令,使得第一用户客户端显示张三的实时视频影像,该实时视频影像中张三的面部显示虚拟面部区域,例如,如图4所示,张三的实时视频影像中张三的面部显示虚拟的眼睛或虚拟的眼镜,解决了张三不想公开真实面目的问题。此时,张三想增添互动气氛或恶搞朋友A,想看朋友A的实时视频影像,张三向第一用户客户端输入显示指令,显示指令中选定的第二用户客户端为朋友A登录的第二用户客户端,第一用户客户端响应于显示指令,显示朋友A的实时视频影像,该实时视频影像中朋友A的面部显示虚拟面部区域,例如,如图4所示,朋友A的实时视频影像中朋友A的面部显示虚拟的舌头和虚拟的眼睛。但是,张三想看朋友B的真实面目,则张三不输入针对朋友B的显示指令,如图4所示,视频互动时,第一用户客户端显示朋友B的真实面目。

在一个实施方式中,登录用户可以通过文字、语音、点击视频窗口或者摇一摇等方式向第一用户客户端输入显示指令。

在一个实施例中,当第一用户客户端显示选定的第二用户客户端的实时视频影像时,第一用户客户端可以将自己的显示界面同步给第二用户客户端。例如,第一用户客户端发送第一触发显示指令,该第一触发显示指令用于指示第二用户客户端显示选定的第二用户客户端的实时视频影像,以便第二用户客户端与第一用户客户端显示界面同步,第二用户客户端对应的显示选定的第二用户客户端的实时视频影像。

在一个实施方式中,当第二用户客户端主动触发显示第一用户客户端或其他第二用户客户端的登录用户的实时视频影像时,还可以将自身的显示界面同步给第一用户客户端。例如,第一用户客户端接收第二用户客户端发出的第二触发显示指令,所述第二触发显示指令用于指示第一用户客户端显示第一用户客户端或其他第二用户客户端的登录用户的实时视频影像;第一用户客户端响应于所述第二触发显示指令,控制所述第一用户客户端显示自身的或其他第二用户客户端的登录用户的所述实时视频影像,以实现第一用户客户端与第二用户客户端显示界面同步。

在一个实施方式中,针对显示的实时视频影像,第一用户客户端的登录用户还可以触发在实时视频影像中显示指定的虚拟面部区域。例如,第一用户客户端接收指定指令,所述指定指令用于指示在指定的用户客户端的登录用户的面部图像中显示指定的虚拟面部区域;第一用户客户端响应于所述指定指令,控制所述第一用户客户端在所述指定的用户客户端的登录用户的面部图像中显示所述指定的虚拟面部区域。

在一个实施方式中,当指定的虚拟面部区域与实时视频影像中已显示的虚拟面部区域对应相同的面部特征时,在实时视频影像中显示指定的虚拟面部区域,即将实时视频影像中已显示的虚拟面部区域替换为指定的虚拟面部区域。当指定的虚拟面部区域与实时视频影像中已显示的虚拟面部区域对应不相同的面部特征时,在实时视频影像中显示指定的虚拟面部区域,即在实时视频影像中显示原有虚拟面部区域的基础上,再增加显示指定的虚拟面部区域,也就是说,在实时视频影像中叠加显示指定的虚拟面部区域。

在一个实施例中,上述指定指令中的选择的用户客户端可以是第一用户客户端,也可以是第二用户客户端。

在一个应用场景下,在视频互动的中途,可以根据视频的剧情、用户当时的心情等来更换或添加实时视频影像中显示的虚拟面部特征。例如,在实时视频影像中登录用户的面部显示了虚拟的眼睛,当视频中某个人物的眼镜特别有趣,登录用户很喜欢,登录用户想将当前显示的虚拟的眼睛更换为视频中某个人物的眼镜,登录用户可以向自己登录的第一用户客户端输入指定指令,此时,指定指令中指定的用户客户端为第一用户客户端,指定的虚拟面部区域为视频中某个人物的眼镜,第一用户客户端响应于指定指令,第一用户客户端在实时视频影像中在自身的登录用户的面部显示视频中某个人物的眼镜,即实现了将先前显示的虚拟的眼睛更换为视频中某个人物的眼镜。

例如,当登录用户发现一个虚拟发饰很漂亮或很符合当时的剧情,登录用户想将这个虚拟的发饰显示在朋友A的实时视频影像中,此时,登录用户可以向自己登录的第一用户客户端输入指定指令,此时,指定指令中指定的用户客户端为朋友A登录的第二用户客户端,指定的虚拟面部区域为虚拟的发饰,第一用户客户端响应于指定指令,第一用户客户端在朋友A的实时视频影像中朋友A的面部显示虚拟的发饰,由于朋友A的实时视频影像中朋友A的面部已经显示了虚拟的眼睛,而虚拟的眼睛与虚拟的发饰对应不同的面部特征,在实时视频影像中朋友A的面部显示虚拟的发饰,即实现了在朋友A的面部显示虚拟的眼睛的基础上,再增加显示虚拟的发饰。

在一个实时方式中,对实时视频影像中登录用户的面部显示指定的虚拟面部区域的图像处理方法,可以参考生成实时视频影像的图像处理方法。显示指定的虚拟面部区域的图像处理过程可以在第一用户客户端上完成,也可以在第一用户客户端之外的设备上完成,该设备可以是云服务器或第二用户客户端。

在一个实施方式中,登录用户可以通过文字、语音、点击等方式向第一用户客户端输入上述指定指令。

在一个实施方式中,上述指定指令中指定的用户客户端可以是第一用户客户端也可以是第二用户客户端。上述指定指令中可以包括指定的用户客户端的相关信息以及与指定的虚拟面部区域对应的信息。

在一个实施方式中,当第一用户客户端的登录用户为自己或其他登录用户设置指定虚拟面部区域后,第一用户客户端可以将自己的显示界面同步给第二用户客户端。例如,发送触发指定指令,所述触发指定指令用于指示所述第二用户客户端在所述指定的用户客户端的登录用户的面部图像中显示指定的虚拟面部区域,以触发第二用户客户端在指定的用户客户端的登录用户的面部图像中显示指定的虚拟面部区域,实现第二用户客户端与第一用户客户端同步显示界面。

在一个实施方式中,上述虚拟面部区域可以包括以下至少一项:虚拟的头饰(例如,帽子、发卡、兔耳朵等头饰)、虚拟的眼部结构(例如,炫酷的墨镜、卡通的眼镜、有美妆效果的眼线等)、虚拟的眉毛(例如,有美妆效果的眉毛、某个人物的眉毛等)、虚拟的鼻子(例如,某个人物或角色的鼻子等)、虚拟的嘴部结构(例如,有美妆效果的嘴唇、某个人物或角色的嘴等)以及虚拟的脸部结构(例如,有美妆效果的面部修饰,画腮红、美白脸部肤色等)。也就是说,一个虚拟面部区域中可以包括所有的面部特征的虚拟结构,即一个可以完全遮挡全部面部的虚拟面具;一个虚拟面部区域中也可以包括部分面部特征的虚拟结构,即包括眼睛、嘴巴等个别面部特征的虚拟结构,用于遮挡真是面部的部分特征。

在一个实施方式中,上述第一用户客户端还可以基于每个第二用户客户端在线状态控制多媒体内容的播放,控制暂停播放、继续播放、退回播放等。例如,第一用户客户端实时获取每个所述第二用户客户端的在线状态信息;第一用户客户端基于每个所述第二用户客户端的在线状态信息控制所述多媒体内容的播放。

在一个使用场景下,当至少一个第二用户客户端的在线状态信息为离线时,第一用户客户端可以控制暂停播放多媒体内容,或者控制继续播放多媒体内容;当离线的第二用户客户端的在线状态信息变为在线时,第一用户客户端可以控制退回至离线的第二用户客户端离线时的播放进度处开始暂停播放多媒体内容,或者,第一用户客户端可以基于自身目前的播放进度继续播放多媒体内容。

在一个实施方式中,提供了一种第一用户客户端,如图5所示,包括:

播放模块101,用于将同一多媒体内容分享给至少一个第二用户客户端同步播放;

显示模块102,用于同步显示所述第二用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

在一个实施方式中,所述显示模块,还用于同步显示所述第一用户客户端的登录用户的所述实时视频影像。

在一个实施方式中,上述第一用户客户端,还包括:

图像接收模块,用于接收所述实时视频影像。

在一个实施方式中,上述第一用户客户端,还包括:

图像处理模块,用于获取登录用户的面部图像,并将虚拟面部区域与所述面部图像中对应区域的相应像素一一映射绑定,得到所述实时视频影像。

在一个实施方式中,上述第一用户客户端,还包括:

显示指令接收模块,用于接收显示指令,所述显示指令用于指示显示选定的第二用户客户端的所述实时视频影像;

所述显示模块,还用于响应于所述显示指令,显示所述选定的第二用户客户端的所述实时视频影像。

在一个实施方式中,上述第一用户客户端,还包括:

指定指令接收模块,用于接收指定指令,所述指定指令用于指示在指定的用户客户端的登录用户的面部图像中显示指定的虚拟面部区域;

所述显示模块,还用于响应于所述指定指令,在所述指定的用户客户端的登录用户的面部图像中显示所述指定的虚拟面部区域。

在一个实施方式中,所述虚拟面部区域包括以下至少一项:虚拟的头饰、虚拟的眼部结构、虚拟的眉毛、虚拟的鼻子、虚拟的嘴部结构以及虚拟的脸部结构。

在一个实施方式中,上述第一用户客户端,还包括:

播放控制模块,用于实时获取每个所述第二用户客户端的在线状态信息;并基于每个所述第二用户客户端的在线状态信息控制所述多媒体内容的播放。

在一个实施方式中,提供了一种视频互动方法,例如,该视频互动方法可以用于服务器,如图6所示,该方法包括:

步骤601:将第一用户客户端分享的同一多媒体内容发送给至少一个第二用户客户端同步播放;

步骤602:将所述第二用户客户端的登录用户的实时视频影像发送给所述第一用户客户端,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

也就是说,如图2、3所示,第一用户客户端100与第二用户客户端300通过服务器200进行交互,通过服务器200将第一用户客户端100分享的多媒体内容发送给第二用户客户端300同步播放,第一用户客户端100与第二用户客户端300之间通过服务器200互相传输实时视频影像,服务器200可以将第二用户客户端300的登录用户的实时视频影像发送给所述第一用户客户端100,以便第一客户用户端显示第二用户客户端的实时视频影像;此外,在所述至少一个第二用户客户端和所述第一用户客户端中,服务器200还可以将每个用户客户端的登录用户的实时视频影像发送给其他用户客户端,使得第一用户客户端100可以获取第二用户客户端300的实时视频影像,第二用户客户端300也可以获取第一用户客户端100和其他第二用户客户端300的实时视频影像,实现每个正在参与该多媒体内容同步播放的用户客户端实时显示所有正在同步观看该多媒体内容的用户的实时视频影像,所有正在同步观看的用户可以基于多媒体内容的场景、剧情进行实时讨论、互动。

在一个实施方式中,服务器可以完成生产实时视频影像的过程,该过程可以是:首先,获取登录用户的面部图像;然后,将虚拟面部区域与面部图像中对应区域的相应像素一一映射绑定,得到所述实时视频影像,进而将实时视频影像发送给第一用户客户端和第二用户客户端进行显示。

在一个实施方式中,在生成实时视频影像的过程中,可以通过登录用户的实时视频数据来获取登录用户的面部图像,该实时视频数据中显示登录用户的真实面部特征,服务器可以主动地直接采集得到各个登录用户的实时视频数据,服务器也可以被动地接收各个登录用户的实时视频数据,例如,接收各个用户客户端发送的实时视频数据。

在一个实施方式中,服务器还可以完成变更或增加设置虚拟面部区域的过程。例如,首先,接收指定指令,所述指定指令用于指示在指定的用户客户端的登录用户的面部图像中显示指定的虚拟面部区域;然后,响应于所述指定指令,将指定的虚拟面部区域与所述指定的用户客户端的登录用户的面部图像中对应区域的相应像素一一映射绑定,得到实时视频影像,进而将实时视频影像发送给第一用户客户端和第二用户客户端进行显示。

在一个实施方式中,当指定虚拟面部区域与实时视频影像中已显示的虚拟面部区域对应相同的面部特征时,在实时视频影像中显示指定的虚拟面部区域,即将实时视频影像中已显示的虚拟面部区域替换为指定的虚拟面部区域。当指定虚拟面部区域与实时视频影像中已显示的虚拟面部区域对应不相同的面部特征时,在实时视频影像中显示指定的虚拟面部区域,即在实时视频影像中显示原有的虚拟面部区域的基础上,再显示指定的虚拟面部区域,也就是说,在实时视频影像中增加显示指定的虚拟面部区域。

在一个实施例中,上述指定指令可以是第一用户客户端发送的,也可以是第二用户客户端发送的。上述指定指令中指定的用户客户端可以是第一用户客户端,也可以是第二用户客户端。

在一个实施方式中,提供了一种服务器200,如图7所示,服务器200包括存储器201和处理器202,所述存储器中包括计算机程序,所述计算机程序被所述处理器执行时,实现以下步骤:

步骤601:将第一用户客户端分享的同一多媒体内容发送给至少一个第二用户客户端同步播放;

步骤602:将所述第二用户客户端的登录用户的实时视频影像发送给所述第一用户客户端,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

在一个实施方式中,所述计算机程序被所述处理器执行时,还实现以下步骤:

获取登录用户的面部图像;

将虚拟面部区域与所述面部图像中对应区域的相应像素一一映射绑定,得到所述实时视频影像。

在一个实施方式中,所述计算机程序被所述处理器执行时,还实现以下步骤:

接收指定指令,所述指定指令用于指示在指定的用户客户端的登录用户的面部图像中显示指定的虚拟面部区域;

响应于所述指定指令,将指定的虚拟面部区域与所述指定的用户客户端的登录用户的面部图像中对应区域的相应像素一一映射绑定,得到实时视频影像。

在一个实施方式中,提供了一种用于第二用户客户端的视频互动方法,如图8所示,包括:

步骤801:接收第一用户客户端分享的多媒体内容,与所述第一用户客户端同步播放所述多媒体内容;

步骤802:同步显示所述第一用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

在一个实施方式中,第二用户客户端还可以同步显示自身的登录用户的所述实时视频影像,以便第二用户客户端的登录用户实时观察自己在视频互动中的表情、状态。第二用户客户端可以在显示第一用户客户端的登录用户的所述实时视频影像的同时,同步显示自身的登录用户的所述实时视频影像;第二用户客户端也可以始终显示自身的登录用户的所述实时视频影像。

在一个实施方式中,第二用户客户端可以参考第一用户客户端,也可以通过两种方式获取实时视频影像。

在一个实施方式中,第一用户客户端可以将多媒体内容分享给一个或至少两个第二用户客户端同步播放,在第一用户客户端将多媒体内容分享给至少两个第二用户客户端的情况下,第二用户客户端还同步显示至少两个第二用户客户端中除了自身之外的第二用户客户端的登录用户的实时视频影像。

在一个实施方式中,提供了一种第二用户客户端,如图9所示,包括:

内容接收模块301,用于接收第一用户客户端分享的多媒体内容;

显示模块302,用于与所述第一用户客户端同步播放所述多媒体内容,同步显示所述第一用户客户端的登录用户的实时视频影像,其中,所述实时视频影像中登录用户的面部包括虚拟面部区域。

在一个实施方式中,所述显示模块,还用于同步显示自身的登录用户的所述实时视频影像。

在一个实施方式中,所述显示模块,还用于在所述第一用户客户端将所述多媒体内容分享给至少两个第二用户客户端的情况下,同步显示所述至少两个第二用户客户端中除了自身之外的第二用户客户端的登录用户的所述实时视频影像。

在一个实施方式中,在不同使用场景中,第一用户客户端可以用作第二用户客户端,第二用户客户端也可以用作第一用户客户端,即第二用户客户端可以完成第一用户客户端的全部功能,第二用户客户端与第一用户客户端具备相似的结构。

在一个实施方式中,上述视频互动方法在第一用户客户端和第二用户客户端上可以通过APP的方式实现,例如,优酷APP、爱奇艺APP、芒果TV等。

在一个实施方式中,在第一用户客户端和第二用户客户端上,可以设置第一区域显示多媒体内容,设置第二区域显示实时视频影像;也可以在显示多媒体内容的屏幕的任意位置显示实时视频影像。

本发明实施例提供的视频互动方法、用户客户端、服务器及计算机可读存储介质,使得多人同步观看多媒体内容且实时视频互动时,登录用户可以通过显示的虚拟面部图像与其他登录用户进行实时视频互动,避免将真实面目公开在大家面前,无论一起观看多媒体内容的人是不是陌生人,用户都可以毫无心理压力、放松自如地与大家畅聊互动,即使是在目前面部状况或精神面貌不便于公开给大家的情况下,也可以轻松、欢乐地与大家一起观看并视频互动,不会因为面部状况或精神面貌的不便错失互动的乐趣,从而解决现有技术中多人同步观看视频且实时视频互动时需要将真实面目公开而导致的降低用户体验的技术问题,达到了改善用户体验的技术效果。

在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware Description Language)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated Circuit Hardware Description Language)与Verilog2。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。

本领域技术人员也知道,除了以纯计算机可读程序代码方式实现客户端和服务器以外,完全可以通过将方法步骤进行逻辑编程来使得客户端和服务器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种客户端和服务器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。

通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施方式或者实施方式的某些部分所述的方法。

本说明书中的各个实施方式均采用递进的方式描述,各个实施方式之间相同相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。尤其,针对客户端和服务器的实施方式来说,均可以参照前述方法的实施方式的介绍对照解释。

本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。

虽然通过实施方式描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的权利要求包括这些变形和变化而不脱离本申请的精神。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1