AR场景处理方法、装置、设备和计算机可读存储介质与流程

文档序号:16245486发布日期:2018-12-11 23:32阅读:161来源:国知局
AR场景处理方法、装置、设备和计算机可读存储介质与流程

本发明涉及增强现实技术领域,尤其涉及一种ar场景处理方法、装置、设备和计算机可读存储介质。

背景技术

增强现实技术(augmentedreality,简称ar),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3d模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。随着随身电子产品cpu运算能力的提升,以及人们生活水平的提高,ar技术具有非常广阔的发展前景。

ar是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息,比如视觉信息、声音、味道、触觉等,通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。在ar场景下,真实环境和虚拟模型实时地叠加到了同一个画面或空间同时存在。现有的ar场景下,用户通过戴上ar终端设备,即可实现与ar场景进行交互。比如通过ar眼镜、ar头盔等设备。

但是现有的方案中,ar场景中,同一时间只能单一用户与ar场景进行交互。即用户a戴上ar设备后,只能看到自己对应的ar场景,并与之交互。同样的,用户b戴上ar设备后,也只能与自己对应的ar场景进行交互。在此过程中,无法实现用户a与用户b在同一个ar场景中进行交互。比如,用户b无法实时看到用户a在ar场景中添加的模型等信息。这样就限制了ar技术的适用范围。



技术实现要素:

本发明提供一种ar场景处理方法、装置、设备和计算机可读存储介质,实现了将多个用户在ar场景下建立的虚拟场景信息进行融合,并将融合后的虚拟场景信息映射到发出融合请求的第一ar设备对应的场景中,使得在该第一ar设备对应的用户可以实时看到其他用户的虚拟场景信息,进而可以实现ar场景下,多用户进行虚拟交互。打破了现有的ar场景中只能由单一用户进行操作的限制,丰富了ar场景的内容和交互形式,提高了用户体验。

本发明的第一方面提供一种基于多用户的ar场景处理方法,包括:接收第一ar设备发送的场景融合请求,所述场景融合请求包括:所述第一ar设备的第一标识、待融合的第二ar设备的第二标识和所述第一ar设备对应的当前第一虚拟场景信息;根据所述第二标识获取所述第二ar设备对应的当前第二虚拟场景信息;对所述第一虚拟场景信息和所述第二虚拟场景信息进行融合处理,获取融合后的第三虚拟场景信息,并将所述第三虚拟场景信息发送给所述第一标识对应的所述第一ar设备。

可选地,所述对所述第一虚拟场景信息和所述第二虚拟场景信息进行融合处理,获取融合后的第三虚拟场景信息,包括:提取所述第二虚拟场景信息中的第二虚拟用户,以及所述第二虚拟用户在所述第二虚拟场景信息中的位置信息和动态信息;根据所述第二虚拟用户在所述第二虚拟场景信息中的位置信息,将所述第二虚拟用户和所述动态信息融合到所述第一虚拟场景信息中,以获取所述第三虚拟场景信息。

本发明的第二方面提供一种基于多用户的ar场景处理方法,包括:获取当前第一虚拟场景信息,并根据所述第一虚拟场景信息,生成场景融合请求;其中,所述场景融合请求包括:第一ar设备的第一标识、待融合的第二ar设备的第二标识和所述第一ar设备对应的所述第一虚拟场景信息;将所述场景融合请求发送给服务器;接收所述服务器返回的第三虚拟场景信息,并将所述第一虚拟场景信息更新至所述第三虚拟场景信息。

可选地,所述获取当前第一虚拟场景信息,包括;获取用户的处理请求,所述处理请求包括:待处理的虚拟用户信息;根据所述处理请求,将所述待处理的虚拟用户信息,映射在所述第一ar设备当前所展示的基本虚拟场景信息上,以获取所述第一虚拟场景信息。

可选地,所述待处理的虚拟用户信息包括:包括如下的一种或几种的组合:所述虚拟用户的面部表情、肢体动作、运动轨迹、体表特征、空间位置。

本发明的第三方面提供一种基于多用户的ar场景处理装置,包括:第一接收模块,用于接收第一ar设备发送的场景融合请求,所述场景融合请求包括:所述第一ar设备的第一标识、待融合的第二ar设备的第二标识和所述第一ar设备对应的当前第一虚拟场景信息;第一获取模块,用于根据所述第二标识获取所述第二ar设备对应的当前第二虚拟场景信息;融合模块,用于对所述第一虚拟场景信息和所述第二虚拟场景信息进行融合处理,获取融合后的第三虚拟场景信息,并将所述第三虚拟场景信息发送给所述第一标识对应的所述第一ar设备。

可选地,所述融合模块具体用于:提取所述第二虚拟场景信息中的第二虚拟用户,以及所述第二虚拟用户在所述第二虚拟场景信息中的位置信息和动态信息;根据所述第二虚拟用户在所述第二虚拟场景信息中的位置信息,将所述第二虚拟用户和所述动态信息融合到所述第一虚拟场景信息中,以获取所述第三虚拟场景信息。

本发明的第四方面提供一种基于多用户的ar场景处理装置,包括:第二获取模块,用于获取当前第一虚拟场景信息,并根据所述第一虚拟场景信息,生成场景融合请求;其中,所述场景融合请求包括:第一ar设备的第一标识、待融合的第二ar设备的第二标识和所述第一ar设备对应的所述第一虚拟场景信息;发送模块,用于将所述场景融合请求发送给服务器;第二接收模块,用于接收所述服务器返回的第三虚拟场景信息,并将所述第一虚拟场景信息更新至所述第三虚拟场景信息。

可选地,所述第二获取模块,具体用于:获取用户的处理请求,所述处理请求包括:待处理的虚拟用户信息;根据所述处理请求,将所述待处理的虚拟用户信息,映射在所述第一ar设备当前所展示的基本虚拟场景信息上,以获取所述第一虚拟场景信息。

可选地,所述待处理的虚拟用户信息包括:包括如下的一种或几种的组合:所述虚拟用户的面部表情、肢体动作、运动轨迹、体表特征、空间位置。

本发明的第五方面提供一种服务器,包括:存储器;处理器;以及计算机程序;其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行本发明第一方面及其任一可选地方案所述的方法。

本发明的第六方面提供一种ar设备,包括:存储器;处理器;以及计算机程序;其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行本发明第二方面及其任一可选地方案所述的方法。

本发明的第七方面提供一种计算机可读存储介质,包括:程序,当其在计算机上运行时,使得计算机执行本发明第一方面及其任一可选地方案所述的方法。

本发明的第八方面提供一种计算机可读存储介质,包括:程序,当其在计算机上运行时,使得计算机执行本发明第二方面及其任一可选地方案所述的方法。

本发明提供一种ar场景处理方法、装置、设备和计算机可读存储介质,通过接收第一ar设备发送的场景融合请求,根据融合请求中的第二标识获取待融合的第二ar设备对应的当前第二虚拟场景信息;然后将第一ar设备对应的第一虚拟场景信息和第二虚拟场景信息进行融合处理,获取融合后的第三虚拟场景信息,并将所述第三虚拟场景信息发送给所述第一标识对应的所述第一ar设备。不同的ar设备对应不同的用户,如此,实现了将多个用户在ar场景下建立的虚拟场景信息进行融合,并将融合后的虚拟场景信息映射到发出融合请求的第一ar设备对应的场景中,使得在该第一ar设备对应的用户可以实时看到其他用户的虚拟场景信息,进而可以实现ar场景下,多用户进行虚拟交互。丰富了ar场景的内容和交互形式,提高了用户体验。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本发明一示例性实施例示出的基于多用户的ar场景处理方法的流程图;

图2为本发明另一示例性实施例示出的基于多用户的ar场景处理方法的流程图;

图3为本发明又一示例性实施例示出的基于多用户的ar场景处理方法的流程图;

图4为本发明再一示例性实施例示出的基于多用户的ar场景处理方法的流程图;

图5为本发明一示例性实施例示出的基于多用户的ar场景处理装置的结构图;

图6为本发明另一示例性实施例示出的基于多用户的ar场景处理装置的结构图;

图7为本发明一示例性实施例示出的服务器的结构图;

图8为本发明一示例性实施例示出的ar设备的结构图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

图1为本发明一示例性实施例示出的基于多用户的ar场景处理方法的流程图。

如图1所示,本实施例的执行主体为基于多用户的ar场景处理装置,该基于多用户的ar场景处理装置可以集成在服务器中。则本实施例提供一种基于多用户的ar场景处理方法,该方法包括如下步骤:

步骤101:接收第一ar设备发送的场景融合请求,场景融合请求包括:第一ar设备的第一标识、待融合的第二ar设备的第二标识和第一ar设备对应的当前第一虚拟场景信息。

其中,第一ar设备与第二ar设备所处的现实场景可以具有交叉,比如,佩戴ar设备的用户a和用户b在同样一个房间。虚拟场景信息可以定义为用户在ar场景下自定义的虚拟模型和虚拟模型的动作等信息,比如用户a在ar场景下按照自身的外貌特征建立了一个人体模型,并为该人体模型配置肢体动作、面部表情等,则该人体模型及其肢体动作和面部表情都属于用户a在ar场景下建立的虚拟场景信息。虚拟场景信息也可以是ar系统本身制作好的一些基本虚拟模型。本实施例对虚拟场景信息的内容不做限定。第一标识用来标记第一ar设备的身份,比如可以是其id信息和佩戴第一ar设备的用户的身份信息。同理第二标识用来标记第二设备的身份信息。ar设备的标识可以采用不同方式,本实施例对此不做限定。

在本步骤中,当佩戴第一ar设备的第一用户,想要与佩戴第二ar设备的第二用户在ar场景下进行交互时,首先实时向服务器发送场景融合请求。服务器接收第一ar设备发送的场景融合请求,场景融合请求包含但不限于:第一ar设备的第一标识、待融合的第二ar设备的第二标识和第一ar设备对应的当前第一虚拟场景信息;第二ar设备的数量可以是多个或者一个,第二虚拟场景信息是佩戴第二ar设备的第二用户在ar场景下建立的。

步骤102:根据第二标识获取第二ar设备对应的当前第二虚拟场景信息。

在本步骤中,服务器在接收到第一ar设备发送的融合请求后,会分析出其中的待融合的第二ar设备的第二标识,并根据第二标识获取第二ar设备对应的当前第二虚拟场景信息。

步骤103:对第一虚拟场景信息和第二虚拟场景信息进行融合处理,获取融合后的第三虚拟场景信息,并将第三虚拟场景信息发送给第一标识对应的第一ar设备。

在本步骤中,第一用户佩戴第一ar设备,第二用户佩戴第二ar设备。通过将第一虚拟场景信息和第二虚拟场景信息进行融合,可以使得第一用户和第二用户建立的虚拟场景信息综合成为一个第三虚拟场景信息,在第三虚拟场景信息中,同时包含了第一用户在ar场景下建立的虚拟场景信息和第二用户在ar场景下建立的虚拟场景信息。并将第三虚拟场景信息发送给第一标识对应的第一ar设备,佩戴第一ar设备的第一用户即可看到第二用户建立的第二虚拟场景信息。举例来说,用户a和用户b在同一个房间内,用户a在ar场景下建立了自身的虚拟模型a,用户b在ar场景下建立自身的虚拟模型b。现有技术中双方是无法看到对方建立的虚拟模型的。本实施例中,如果用户a想要看到用户b的虚拟模型b,则向服务器发送场景融合请求,服务器在得到用户b的同意后,根据第二标识获取用户b建立的虚拟模型b,然后将虚拟模型b放到用户a的虚拟场景信息中进行融合。并将融合后的第三虚拟场景信息发送给所用户a佩戴的第一ar设备,用户a即可看到虚拟模型b。

本实施例提供的基于多用户的ar场景处理方法,通过接收第一ar设备发送的场景融合请求,根据融合请求中的第二标识获取待融合的第二ar设备对应的当前第二虚拟场景信息;然后将第一ar设备对应的第一虚拟场景信息和第二虚拟场景信息进行融合处理,获取融合后的第三虚拟场景信息,并将第三虚拟场景信息发送给第一标识对应的第一ar设备。不同的ar设备对应不同的用户,如此,实现了将多个用户在ar场景下建立的虚拟场景信息进行融合,并将融合后的虚拟场景信息映射到发出融合请求的第一ar设备对应的场景中,使得在该第一ar设备对应的用户可以实时看到其他用户的虚拟场景信息,进而可以实现ar场景下,多用户进行虚拟交互。打破了现有的ar场景中只能由单一用户进行操作的限制,可以应用到游戏,社交,漫游,运动,等基于ar场景的集体活动中,扩大了ar技术的适用范围。丰富ar场景的交互形式和内容,提高了用户体验。

图2为本发明另一示例性实施例示出的基于多用户的ar场景处理方法的流程图。

如图2所示,本实施例提供一种基于多用户的ar场景处理方法,是在本发明图1对应的实施例示出的基于多用户的ar场景处理方法的基础上,还包括了对第一虚拟场景信息和第二虚拟场景信息进行融合处理的具体的步骤等。该方法包括如下步骤:

步骤201:接收第一ar设备发送的场景融合请求,场景融合请求包括:第一ar设备的第一标识、待融合的第二ar设备的第二标识和第一ar设备对应的当前第一虚拟场景信息。详细参见上述实施例中步骤101的描述。

步骤202:根据第二标识获取第二ar设备对应的当前第二虚拟场景信息。详细参见上述实施例中步骤102的描述。

步骤203:提取第二虚拟场景信息中的第二虚拟用户,以及第二虚拟用户在第二虚拟场景信息中的位置信息和动态信息。

在本步骤中,第一用户佩戴第一ar设备,第二用户佩戴第二ar设备。第二虚拟场景信息包含了很多虚拟模型,可以根据第一用户的需要进行筛选提取。通过对第二虚拟场景信息进行筛选提取,可以获取其中的第二虚拟用户,第二虚拟用户是指第二用户建立的虚拟用户,可以是人体模型、场景模型等信息。并且提取第二虚拟用户在第二虚拟场景信息中的位置信息和动态信息。

步骤204:根据第二虚拟用户在第二虚拟场景信息中的位置信息,将第二虚拟用户和动态信息融合到第一虚拟场景信息中,以获取第三虚拟场景信息。

在本步骤中,位置信息可以确定第二虚拟用户在ar场景中的具体位置,进而可以准确地将第二虚拟用户和动态信息融合到第一虚拟场景信息中的对应位置,如此便可以获取比较准确地第三虚拟场景信息。

本实施例提供的基于多用户的ar场景处理方法,通过根据第一用户的需要对第二虚拟场景信息进行筛选提取,并提取第二虚拟用户在第二虚拟场景信息中的位置信息和动态信息,然后根据位置信息确定第二虚拟用户在ar场景中的具体位置,进而可以准确地将第二虚拟用户和动态信息融合到第一虚拟场景信息中的对应位置,提高了场景融合的准确定性。

图3为本发明又一示例性实施例示出的基于多用户的ar场景处理方法的流程图。

如图3所示,本实施例的执行主体为基于多用户的ar场景处理装置,该基于多用户的ar场景处理装置可以集成在ar设备中。则本实施例提供一种基于多用户的ar场景处理方法,该方法包括如下步骤:

步骤301:获取当前第一虚拟场景信息,并根据第一虚拟场景信息,生成场景融合请求;其中,场景融合请求包括:第一ar设备的第一标识、待融合的第二ar设备的第二标识和第一ar设备对应的第一虚拟场景信息。

在本步骤中,第一ar设备与第二ar设备所处的现实场景可以具有交叉,比如,佩戴ar设备的用户a和用户b在同样一个房间。当佩戴第一ar设备的第一用户,想要与佩戴第二ar设备的第二用户在ar场景下进行交互时,首先实时获取自身当前的第一虚拟场景信息,并根据第一虚拟场景信息,生成场景融合请求。该场景融合请求中包含但不限于:第一ar设备的第一标识、待融合的第二ar设备的第二标识和第一ar设备对应的第一虚拟场景信息。

步骤302:将场景融合请求发送给服务器。

在本步骤中,向服务器发送场景融合请求的方式可以是无线传输方式,也可以是有线传输方式,对此本实施例不做限定。通过将场景融合请求发送给服务器,以供服务器根据场景融合请求生成融合后的第三虚拟场景信息,场景融合的详细描述参见图1和图2对应的实施例的内容,在此不再赘述。

步骤303:接收服务器返回的第三虚拟场景信息,并将第一虚拟场景信息更新至第三虚拟场景信息。

在本步骤中,第一ar设备在接收到服务器返回的第三虚拟场景信息时,将自己当前的第一虚拟场景信息更新至第三虚拟场景信息。在第三虚拟场景信息中,同时包含了第一用户在ar场景下建立的虚拟场景信息和第二用户在ar场景下建立的虚拟场景信息。佩戴第一ar设备的第一用户即可看到第二用户建立的第二虚拟场景信息。

本实施例提供的基于多用户的ar场景处理方法,通过获取当前第一虚拟场景信息,并根据第一虚拟场景信息,生成场景融合请求,并将场景融合请求发送给服务器。在接收服务器返回的第三虚拟场景信息后,将第一虚拟场景信息更新至第三虚拟场景信息。如此,实现了该第一ar设备对应的第一用户可以实时看到其他用户的虚拟场景信息,进而可以实现ar场景下,多用户进行虚拟交互。打破了现有的ar场景中只能由单一用户进行操作的限制,可以应用到游戏,社交,漫游,运动,等基于ar场景的集体活动中,扩大了ar技术的适用范围。丰富ar场景的交互形式和内容,提高了用户体验。

图4为本发明再一示例性实施例示出的基于多用户的ar场景处理方法的流程图。

如图4所示,本实施例提供一种基于多用户的ar场景处理方法,是在本发明图3对应的实施例示出的基于多用户的ar场景处理方法的基础上,还包括了获取当前第一虚拟场景信息地具体步骤等。该方法包括如下步骤:

步骤401:获取用户的处理请求,处理请求包括:待处理的虚拟用户信息。

在本步骤中,可以实时获取用户的处理请求。具体地,在ar场景下,如果用户想要对某个虚拟模型进行处理(处理包含但不限于新建或修改),则可以实时将自己的处理请求输入至ar设备。其中处理请求包含但须限于:待处理的虚拟用户信息。这里的虚拟用户信息是用户自定义虚拟模型的相关信息。比如用户想要照着自己的样子新建一个虚拟模型,则此时的虚拟用户信息包含但不限于待处理的虚拟用户信息包括:虚拟用户的面部表情、肢体动作、运动轨迹、体表特征、空间位置。

步骤402:根据处理请求,将待处理的虚拟用户信息,映射在第一ar设备当前所展示的基本虚拟场景信息上,以获取第一虚拟场景信息。

在本步骤中,第一虚拟场景信息可以定义为佩戴第一ar设备的第一用户在ar场景下自定义的虚拟模型和虚拟模型的动作以及虚拟场景等信息,虚拟场景信息也可以包含ar系统本身制作好的一些基本虚拟模型,比如用户a在ar场景下按照自身的外貌特征建立了一个人体模型(即虚拟用户信息),并根据空间位置,将虚拟用户信息,映射在第一ar设备当前所展示的基本虚拟场景信息上,以为该人体模型配置面部表情、肢体动作、运动轨迹、体表特征等。则该人体模型上述配置信息都属于用户a在ar场景下建立的第一虚拟场景信息。

步骤403:将场景融合请求发送给服务器。详细参见上述实施例中步骤302的描述。

步骤404:接收服务器返回的第三虚拟场景信息,并将第一虚拟场景信息更新至第三虚拟场景信息。详细参见上述实施例中步骤303的描述。

可选地,待处理的虚拟用户信息包括:包括如下的一种或几种的组合:虚拟用户的面部表情、肢体动作、运动轨迹、体表特征、空间位置。

本实施例中,虚拟用户信息包含但不限于待处理的虚拟用户信息包括:虚拟用户的面部表情、肢体动作、运动轨迹、体表特征、空间位置。进一步举例说明,比如在同一个房间,用户a和用户b均可以通过服务器来看到对方的虚拟场景,设佩戴第二ar设备的第二用户在ar场景下自定义了一个三维虚拟场景,佩戴第一ar设备的第一用户想要看到该虚拟模型的话,首先向服务器发送场景融合请求。在服务器通过第二用户的允许后,第二ar设备将该虚拟场景实时同步到服务器;服务器将融合后的第三虚拟场景信息发送给第一ar设备,第一ar设备将该第三虚拟场景叠加致该房间的现实场景中;第一用户即可通过第一ar设备看到第二用户构建的该虚拟场景。同理,如果第一用户对虚拟场景中做了一些操作,比如肢体动作是在房间里添加了一把椅子,根据椅子的运动轨迹、体表特征、空间位置,来确定第一虚拟场景信息。这些操作也可以实时同步到服务器,那么第二用户即可通过度服务器实时看到第一的操作,即第二用户可以看到第一用户添加了一把椅子;即双方对虚拟场景物体的任何修改都可以被对方看到。如此,实现了多用户可以在同一ar场景上进行交互,作为举例而非限定,每个用户可以通过定义自己的虚拟角色,互相之间可以加入更多的互动活动。

进一步地,在具体地使用场景中,第一用户可以通过服务器与第二用户在同一个ar场景中进行交互活动。比如,第一用户和第二用户同时处在同一个ar场景中,第一用户在ar场景中,驱动第一用户对应的虚拟模型拿起一个杯子递给ar场景中的第二用户,该动作同步到服务器,第二用户即可在ar场景中看到第一用户递过来的杯子,进而第二用户可以驱动其对应的虚拟模型接过杯子。同样的交互行为,也可以应用到运动游戏等场景,比如第一用户传球给第二用户等。

本实施例提供的基于多用户的ar场景处理方法,通过获取获取用户的处理请求,根据处理请求,将待处理的虚拟用户信息,映射在第一ar设备当前所展示的基本虚拟场景信息上,以获取第一虚拟场景信息。其中虚拟用户信息可以由用户自定义,多种多样的虚拟用户信息丰富了第一虚拟场景信息,进而丰富了ar场景的交互形式和内容,可以实现ar场景下,多用户进行虚拟交互。打破了现有的ar场景中只能由单一用户进行操作的限制,扩大了ar技术的适用范围,提高了用户体验。

图5为本发明一示例性实施例示出的基于多用户的ar场景处理装置的结构图。

如图5所示,本实施例提供一种基于多用户的ar场景处理装置,该基于多用户的ar场景处理装置可以集成在服务器中,该装置包括:第一接收模块501、第一获取模块502和融合模块503。

其中,第一接收模块501,用于接收第一ar设备发送的场景融合请求,场景融合请求包括:第一ar设备的第一标识、待融合的第二ar设备的第二标识和第一ar设备对应的当前第一虚拟场景信息;

第一获取模块502,用于根据第二标识获取第二ar设备对应的当前第二虚拟场景信息;

融合模块503,用于对第一虚拟场景信息和第二虚拟场景信息进行融合处理,获取融合后的第三虚拟场景信息,并将第三虚拟场景信息发送给第一标识对应的第一ar设备。

上述各个模块的详细内容参见上述图1对应的实施例中的描述。

本实施例提供的基于多用户的ar场景处理装置是在本发明如图5所示的一示例性实施例示出的基于多用户的ar场景处理装置的基础上,进一步地,还包括了:

可选地,融合模块503具体用于:提取第二虚拟场景信息中的第二虚拟用户,以及第二虚拟用户在第二虚拟场景信息中的位置信息和动态信息;根据第二虚拟用户在第二虚拟场景信息中的位置信息,将第二虚拟用户和动态信息融合到第一虚拟场景信息中,以获取第三虚拟场景信息。

上述各个模块的详细内容参见上述图2对应的实施例中的描述。

图6为本发明一示例性实施例示出的基于多用户的ar场景处理装置的结构图。

如图6所示,本实施例提供一种基于多用户的ar场景处理装置,该基于多用户的ar场景处理装置可以集成在ar设备中,该装置包括:第二获取模块601、发送模块602和第二接收模块603。

其中,第二获取模块601,用于获取当前第一虚拟场景信息,并根据第一虚拟场景信息,生成场景融合请求;其中,场景融合请求包括:第一ar设备的第一标识、待融合的第二ar设备的第二标识和第一ar设备对应的第一虚拟场景信息;

发送模块602,用于将场景融合请求发送给服务器;

第二接收模块603,用于接收服务器返回的第三虚拟场景信息,并将第一虚拟场景信息更新至第三虚拟场景信息。

上述各个模块的详细内容参见上述图3对应的实施例中的描述。

本实施例提供的基于多用户的ar场景处理装置是在本发明如图6所示的一示例性实施例示出的基于多用户的ar场景处理装置的基础上,进一步地,还包括了:

可选地,第二获取模块601,具体用于:获取用户的处理请求,处理请求包括:待处理的虚拟用户信息;根据处理请求,将待处理的虚拟用户信息,映射在第一ar设备当前所展示的基本虚拟场景信息上,以获取第一虚拟场景信息。

可选地,待处理的虚拟用户信息包括:包括如下的一种或几种的组合:虚拟用户的面部表情、肢体动作、运动轨迹、体表特征、空间位置。

上述各个模块的详细内容参见上述图4对应的实施例中的描述。

本发明实施例还提供一种服务器,包括:存储器;处理器;以及计算机程序;其中,计算机程序存储在存储器中,并被配置为由处理器执行本发明如图1对应一示例性实施例示出的基于多用户的ar场景处理方法或本发明如图2对应的另一示例性实施例示出的基于多用户的ar场景处理方法。

图7为本发明一示例性实施例示出的服务器的结构图。

如图7所示,本实施例提供一种服务器,包括:至少一个处理器71和存储器72,图7中以一个处理器71为例,处理器71和存储器72通过总线70连接,存储器72存储有可被至少一个处理器71执行的指令,指令被至少一个处理器71执行,以使至少一个处理器71执行如上述实施例中图1或图2的基于多用户的ar场景处理方法。

相关说明可以对应参见图1至图2的步骤所对应的相关描述和效果进行理解,此处不做过多赘述。

本发明实施例还提供一种ar设备,包括:存储器;处理器;以及计算机程序;其中,计算机程序存储在存储器中,并被配置为由处理器执行本发明如图3对应一示例性实施例示出的基于多用户的ar场景处理方法或本发明如图4对应的另一示例性实施例示出的基于多用户的ar场景处理方法。

图8为本发明一示例性实施例示出的服务器的结构图。

如图8所示,本实施例提供一种服务器,包括:至少一个处理器81和存储器82,图8中以一个处理器81为例,处理器81和存储器82通过总线80连接,存储器82存储有可被至少一个处理器81执行的指令,指令被至少一个处理器81执行,以使至少一个处理器81执行如上述实施例中图3或图4的基于多用户的ar场景处理方法。

相关说明可以对应参见图3至图4的步骤所对应的相关描述和效果进行理解,此处不做过多赘述。

本发明实施例还提供了一种计算机可读存储介质,包括:程序,当其在计算机上运行时,使得计算机可执行上述图1或图2对应的实施例中方法的全部或部分流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)、随机存储记忆体(randomaccessmemory,ram)、快闪存储器(flashmemory)、硬盘(harddiskdrive,缩写:hdd)或固态硬盘(solid-statedrive,ssd)等;存储介质还可以包括上述种类的存储器的组合。

本发明实施例还提供了一种计算机可读存储介质,包括:程序,当其在计算机上运行时,使得计算机可执行上述图3或图4对应的实施例中方法的全部或部分流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(read-onlymemory,rom)、随机存储记忆体(randomaccessmemory,ram)、快闪存储器(flashmemory)、硬盘(harddiskdrive,缩写:hdd)或固态硬盘(solid-statedrive,ssd)等;存储介质还可以包括上述种类的存储器的组合。

虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下作出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1