一种信息处理方法和信息处理装置与流程

文档序号:25869527发布日期:2021-07-13 16:31阅读:101来源:国知局
一种信息处理方法和信息处理装置与流程

本申请涉及但不限于计算机技术领域,尤其涉及一种信息处理方法和信息处理装置。



背景技术:

目前,在全景图像的拍摄场景中,拍摄到全景图像后,直接将拍摄的全景图像的多路视频数据流投放给用户观看。然而,这种投放内容的方式过于单一。



技术实现要素:

本申请实施例期望提供一种信息处理方法和信息处理装置。

本申请的技术方案是这样实现的:

第一方面,本申请实施例提供的一种信息处理方法,所述方法包括:

获得同一拍摄场景下的全景图像;

获得目标设备生成的触发事件;

基于所述触发事件,处理获得的所述全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流,其中,所述多路视频数据流对应所述多路图像,所述目标路图像的路数小于所述多路图像的路数;

输出所述目标路视频数据流。

第二方面,本申请实施例提供的一种信息处理装置,所述信息处理装置包括:

获得模块,用于获得同一拍摄场景下的全景图像;

所述获得模块,还用于获得目标设备生成的触发事件;

处理模块,用于基于所述触发事件,处理获得的所述全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流,其中,所述多路视频数据流对应所述多路图像,所述目标路图像的路数小于所述多路图像的路数;

输出模块,用于输出所述目标路视频数据流。

第三方面,本申请实施例提供的一种电子设备,所述电子设备包括:处理器、存储器和通信总线;

所述通信总线用于实现处理器和存储器之间的通信连接;

所述处理器用于执行存储器中存储的信息处理程序,以实现上述的信息处理方法的步骤。

第四方面,本申请实施例提供的一种存储有可执行指令的存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行上述的信息处理方法。

本申请实施例提供一种信息处理方法、信息处理装置和电子设备,通过获得同一拍摄场景下的全景图像;获得目标设备生成的触发事件;基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流,其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数;输出目标路视频数据流;也就是说,根据目标设备生成的触发事件,灵活地对全景图像的多路视频数据流进行处理,得到多路图像中目标路图像对应的目标路视频数据流,即根据目标设备提供的选择依据,从多路视频数据流中选择部分路数的视频数据流进行输出;如此,实现了结合目标设备侧的选择依据,有针对性地选择部分路数的视频数据流进行输出,实现智能化投放内容的效果,提高了用户的观看体验。

附图说明

图1为本申请提供的实施信息处理方法的网络架构示意图;

图2为本申请的实施例提供的一种信息处理方法的流程示意图;

图3a为本申请的实施例中按照不同对象对全景图像进行划分得到的多路路图像示意图;

图3b为本申请的实施例中按照不同划分长度对全景图像进行划分得到的多路路图像示意图;

图3c为本申请的实施例中按照摄像头的拍摄角度范围对全景图像进行划分得到的多路路图像示意图;

图4为本申请的实施例提供的另一种信息处理方法的流程示意图;

图5a为本申请的实施例提供的一种基于全景图像确定目标区域的示意图;

图5b为本申请的实施例提供的另一种基于全景图像确定目标区域的示意图;

图6为本申请的实施例提供的又一种信息处理方法的流程示意图;

图7a为本申请的实施例提供的一种基于全景图像的多路视频数据流合成的一路视频数据流;

图7b为本申请的实施例提供的另一种基于全景图像的多路视频数据流合成的一路视频数据流;

图7c为本申请的实施例提供的又一种基于全景图像的多路视频数据流合成的一路视频数据流;

图8为本申请的实施例提供的会议设备与目标设备之间的交互框图。

图9为本申请的另一实施例提供的一种信息处理方法的流程示意图;

图10为本申请的实施例提供的会议设备的位置示意图;

图11a为本申请的实施例提供的每一摄像头所拍摄的图像的示意图;

图11b为本申请的实施例提供的每一摄像头所拍摄的图像进行拼接后的全景图像的示意图;

图11c为本申请的实施例提供的确定每一图像中的拍摄对象的位置信息示意图;

图12为本申请的实施例提供的所有拍摄对象之间的相对位置指示信息示意图;

图13为本申请的实施例提供的一种信息处理装置的结构示意图;

图14为本申请的实施例提供的一种服务器的结构示意图。

具体实施方式

为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。

在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。

参见图1,图1为本申请提供的实施信息处理方法的网络架构示意图,该网络架构至少包括会议设备100、目标设备200和网络300;其中,会议设备100和目标设备200通过网络300连接;网络架构还可以包括会议设备100、目标设备200、网络300和服务器400;其中,会议设备100和目标设备200分别通过网络300连接服务器400。这里,网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输。示例性的,会议设备100为具备计算能力的设备,会议设备100包括但不限于会议机、智能电视、智能摄像机、智能投影机、膝上型便携计算机和台式计算机等;目标设备200可以称为与会议设备100连接的远端设备,目标设备200包括但不限于智能手机、平板电脑、智能电视、智能摄像机、智能投影机、膝上型便携计算机和台式计算机等;服务器400可以是单个的服务器,也可以是由多各服务器构成的服务器集群、云计算中心等。

参见图2,图2是本申请实施例提供的信息处理方法的一个实现流程示意图,该信息处理方法可以应用于图1所示的会议设备100、目标设备200和服务器400中的任一设备;该信息处理方法包括如下步骤:

s201、获得同一拍摄场景下的全景图像。

本申请实施例中,全景图像是图像采集模组对拍摄场景如会议场景进行拍摄所得到的图像;图像采集模组包括但不限于鱼眼摄像头、广角摄像头和/或摄像头阵列,图像采集模组可以集成设置在会议设备100上,或者与会议设备100连接,总之,会议设备100在图像采集模组拍摄得到全景图像后,可以获得全景图像。

s202、获得目标设备生成的触发事件。

本申请实施例中,触发事件包括目标设备基于全景图像的关联信息生成的事件,触发事件用于对获得的全景图像的多路视频数据流进行处理,得到多路图像中目标路图像对应的目标路视频数据流。

s203、基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流。

其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数。

本申请实施例中,多路图像包括对全景图像进行划分得到的至少两路图像。在一种可实现的场景中,参见图3a-图3c所示,图3a示出的是多路图像包括按照不同对象对全景图像进行划分得到的至少两路图像;图3b示出的是多路图像包括按照不同的划分长度对全景图像进行划分得到的至少两路图像;图3c示出的是多路图像包括按照摄像头阵列中不同的摄像头的拍摄角度范围对全景图像进行划分得到的至少两路图像,关于多路图像与全景图像之间的对应关系,本申请不做具体限定。

示例性的,目标路视频数据流可以是多路图像中具有目标对象的目标路图像对应的视频数据流。例如,图3a示出的是多路图像包括对全景图像中的不同对象进行划分得到的至少两路图像中的具有目标对象的一路目标路图像或路数小于多路图像的路数的目标路图像。

s204、输出目标路视频数据流。

下面当信息处理方法应用于不同的执行主体时,以本申请的信息处理方法应用于会议场景为例,对本申请的信息处理方法作出进一步地说明,

当信息处理方法应用于会议设备时,上述步骤204输出目标路视频数据流包括如下两种输出方式:方式一、会议场景为实时会议场景,会议设备输出目标路视频数据流给目标设备,以使目标设备能呈现出自己所选择的目标路视频数据流对应的图像。方式二、会议场景为交互式会议场景再现或者交互式会议场景回放的场景,会议设备在自身的展示界面上输出目标路视频数据流,以实现历史会议场景中目标设备展示内容的历史重现,如此,会议设备侧的用户可以看到远端设备侧的用户对历史会议场景中所关注的信息。

当信息处理方法应用于目标设备时,目标设备可以从会议设备处获得会议场景下的全景图像;目标设备还可以从服务器处获得会议设备上传的全景图像。目标设备在生成触发事件的情况下,基于触发事件,对全景图像的多路视频数据流进行处理,得到多路视频数据流对应的多路图像中目标路图像对应的目标路视频数据流。进而,目标设备在自身的展示界面上输出目标路视频数据流,以使目标设备能呈现出目标设备侧比较关注的目标路视频数据流对应的图像。

当信息处理方法应用于服务器时,服务器获得会议设备上传的会议场景下的全景图像。服务器接收目标设备发送的触发事件,并基于触发事件,对全景图像的多路视频数据流进行处理,得到多路视频数据流对应的多路图像中目标路图像对应的目标路视频数据流。进一步地,服务器针对目标设备的需求,有选择性地输出目标路视频数据流给目标设备,以使目标设备呈现出目标路视频数据流对应的图像。

本申请实施例提供的信息处理方法,通过获得同一拍摄场景下的全景图像;获得目标设备生成的触发事件;基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流,其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数;输出目标路视频数据流;也就是说,根据目标设备生成的触发事件,灵活地对全景图像的多路视频数据流进行处理,得到多路图像中目标路图像对应的目标路视频数据流,即根据目标设备提供的选择依据,从多路视频数据流中选择部分路数的视频数据流进行输出;如此,实现了结合目标设备侧的选择依据,有针对性地选择部分路数的视频数据流进行输出,实现智能化投放内容的效果,提高了用户的观看体验。

参见图4,图4是本申请实施例提供的信息处理方法的一个实现流程示意图,该信息处理方法可以应用于图1所示的网络架构;这里,以信息处理方法应用于至少包括会议设备100、目标设备200和网络300的网络架构为例进行说明,该方法包括以下步骤:

s301、会议设备获得同一拍摄场景下的全景图像。

s302、会议设备发送全景图像至目标设备。

s303、目标设备基于从全景图像中确定的目标区域,生成触发事件。

本申请实施例中,目标区域为全景图像中的部分图像对应的区域。示例性的,目标区域可以是全景图像的整体图像中的中间局部图像对应的区域,目标区域还可以是全景图像的整体图像中两侧局部图像中的任一侧局部图像对应的区域,目标区域还可以是全景图像的整体图像中其他位置的局部图像,本申请不做具体限定。

其中,触发事件是基于全景图像中的目标区域生成的事件。触发事件用于对获得的全景图像的多路视频数据流进行处理,得到多路图像中目标路图像对应的目标路视频数据流。

本申请实施例中,s303目标设备基于从全景图像中确定的目标区域,可以通过如下方式实现,

方式一、目标设备获得目标设备的展示界面的界面尺寸,并基于界面尺寸确定目标区域。

本申请实施例中,目标设备可以参考自身的展示界面的界面尺寸,从全景图像中确定目标区域。

在一种可实现的场景中,目标设备的展示界面一般为16:9或4:3的界面尺寸,目标设备首先获取自身的展示界面的界面尺寸,基于界面尺寸从全景图像中确定出与界面尺寸具有对应比例的目标区域,参见图5a和图5b所示,图5a和图5b示出的全景图像中的不同区域的局部图像如虚线框内的局部图像为目标区域内的图像。如此,目标设备侧的用户能够在有限的显示界面,清晰地观看目标视频数据流,且能够清楚地观看目标视频数据流中所要关注的对象,同时也实现结合目标设备的展示界面的界面尺寸智能化投放内容的效果,提高了用户的观看体验。

本申请实施例中,s303目标设备基于从全景图像中确定的目标区域,生成触发事件,还可以通过如下方式实现,

方式二、目标设备在展示界面上展示全景图像,获得目标设备的用户在观看全景图像时的第一行为特征,并基于第一行为特征确定目标区域。

本申请实施例中,第一行为特征包括但不限于眼睛注视点、头部角度特征、手势特征、手动从全景图像中选择部分图像的行为特征。

本申请实施例中,目标设备可以参考在展示界面上展示全景图像的过程中,用户观看全景图像时的第一行为特征,从全景图像中确定目标区域。示例性的,参见图5b所示,目标设备获得用户在观看全景图像时,眼睛注视点的方向为全景图像的整体图像中右侧局部图像对应的区域,则目标设备确定右侧局部图像对应的区域为目标区域。如此,当同一个全景图像在不同目标设备的展示界面显示时,各个目标设备均能够根据不同用户观看全景图像时的行为特征,有针对性地选择部分路数的视频数据流进行输出,实现因人而异,私人定制的智能化投放内容的效果,提高了用户的观看体验。

s304、目标设备发送触发事件至会议设备。

s305、会议设备基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流。

其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数。

s306、会议设备发送目标路视频数据流至目标设备。

s307、目标设备输出目标路视频数据流。

由上述可知,本申请实施例中,根据目标设备侧从全景图像中确定出与界面尺寸具有对应比例的目标区域,或获得用户在观看全景图像时的第一行为特征,基于第一行为特征确定的目标区域,进而生成触发事件。同时,根据目标设备生成的触发事件,灵活地对全景图像的多路视频数据流进行处理,得到多路图像中目标路图像对应的目标路视频数据流;如此,实现了结合目标设备侧设备的特性和用户的行为特性,有针对性地选择部分路数的视频数据流进行输出,使得目标设备侧的用户能够在有限的显示界面,不仅能够清晰地观看目标视频数据流,还能够根据用户的行为特征,实现定制化智能投放内容的效果,提高了用户的观看体验。

参见图6,图6是本申请实施例提供的信息处理方法的一个实现流程示意图,该信息处理方法可以应用于图1所示的网络架构;这里,以信息处理方法应用于至少包括会议设备100、目标设备200和网络300的网络架构为例进行说明,该方法包括以下步骤:

s401、会议设备获得同一拍摄场景下的全景图像。

s402、会议设备在获得全景图像的多路视频数据流的情况下,生成用于标识每一路视频数据流的特征信息。

本申请实施例中,每一路视频数据流可以是全景图像的多路视频数据流中,具有不同路数标识如不同路数标号的视频数据流合成的一路视频数据流。特征信息用于标识每一路视频数据流;示例性的,特征信息可以用于标识每一路视频数据流关联的对象的对象类型,例如特征信息包括但不限于人物、会议组件(白板、话筒等)。又一示例性的,特征信息可以用于标识每一路视频数据流关联的对象的对象属性,例如特征信息包括但不限于对象名称,如张三、李四、王五。会议设备生成特征信息的方式,可以采用图像识别方式、人为标注的方式等,本申请不做具体限定。

在一种可实现的场景中,参见图7a-图7c所示,图7a示出的是全景图像的多路视频数据流合成一路视频数据流。图7b示出的是全景图像的多路视频数据流中具有第一目标对象的一路视频数据流;示例性的,会议设备可以从全景图像的多路视频数据流中截取对象类型为会议组件的第一目标对象如白板的视频数据流。图7c示出的是全景图像的多路视频数据流中具有第二目标对象的一路目标视频数据流;示例性的,会议设备从全景图像的多路视频数据流中截取对象类型为人物的每一第二目标对象即每一参会人员的视频数据流,将具有每一第二目标对象的视频数据流合成一路目标视频数据流。

本申请实施例中,会议设备在获得全景图像的多路视频数据流的情况下,获取具有不同路数标识的每一路视频数据流,并生成用于标识每一路视频数据流的特征信息。

s403、会议设备发送特征信息至目标设备。

s405、目标设备从特征信息中确定所选的目标特征信息。

其中,目标特征信息用于标识目标路视频数据流。

在一种可实现的场景中,目标设备响应于用户的选择操作,从特征信息中确定所选的用于标识目标路视频数据流的目标特征信息。

s406、目标设备发送目标特征信息至会议设备。

s407、会议设备基于目标特征信息,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流。

在一种可实现的场景中,参见图8所示,会议设备100通过集成在自身设备上的图像采集模组101获得全景图像的多路视频数据流,并通过会议设备100中的视频处理中间件102,将全景图像的多路视频数据流中,具有不同路数标识如不同路数标号的视频数据流合成一路视频数据流,得到多个每一路视频数据流,并对多个每一路视频数据流生成对应标识的特征信息。目标设备200响应于用户的选择操作,从特征信息中确定所选的目标特征信息。会议设备100接收目标设备200发送的目标特征信息,并基于目标特征信息,选择与目标特征信息对应的目标路视频数据流输出至目标设备200,此时,通过会议设备100的会议软件103输出的则是只有一路的目标路视频数据流,不仅减少了数据传输量,同时实现定制化输出。

s408、会议设备发送目标路视频数据流至目标设备。

其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数。

s409、目标设备输出目标路视频数据流。

由上述可知,本申请实施例中,会议设备侧能灵活地将拍摄的全景图像的视频数据流进行整合,得到多路视频数据流,在获得全景图像的多路视频数据流的情况下,生成每一路视频数据流的特征信息,并发送特征信息至目标设备。根据目标设备侧从特征信息中选择的目标特征信息,灵活地对全景图像的多路视频数据流进行处理,得到多路图像中目标路图像对应的目标路视频数据流;如此,实现了结合目标设备侧的选择依据,有针对性地选择部分路数的视频数据流进行输出,使得目标设备侧的用户能够在可选择的多路视频数据流中,选择自己感兴趣的目标路视频数据流,,不仅减少了数据传输量,同时实现定制化输出,提高了用户的观看体验。

参见图9,图9是本申请实施例提供的信息处理方法的一个实现流程示意图,该信息处理方法可以应用于图1所示的网络架构;这里,以信息处理方法应用于至少包括会议设备100、目标设备200和网络300的网络架构为例进行说明,该方法包括以下步骤:

s501、会议设备获得同一拍摄场景下的全景图像。

s502、会议设备确定全景图像中每一路图像对应的图像区域。

本申请实施例中,会议设备获得同一拍摄场景下的全景图像后,对全景图像进行划分,得到划分后的每一路图像,并确定划分后的每一路图像对应的图像区域,参见图3a-3c所示。

s503、会议设备确定拍摄场景下图像区域对应的拍摄角度范围。

本申请实施例中,会议设备确定拍摄场景下的全景图像中每一路图像对应的图像区域后,进一步确定拍摄场景下图像区域对应的拍摄角度范围。

这里,全景图像对应的拍摄角度范围为全景范围,全景图像中的每一图像区域对应的拍摄角度范围为局部范围,任一路图像区域对应的拍摄角度范围为局部范围,且每一路图像区域对应的局部范围之和为全景范围。

在一种可实现的场景中,以摄像头阵列如包括4-6个镜头模块集成设置在会议设备100为例,会议设备中的每一摄像头采集会议场景中的图像,将图像进行拼接得到360度的全景图像。这里,参见图10所示,以会议设备100中集成有4个摄像头为例,会议设备100位于会议桌的中间位置,会议设备100中的每一摄像头的拍摄角度不小于90度,4个摄像的拍摄角度范围不完全重合或者完全不重合,且由4个摄像头如摄像头a、b、c、d采集图像。这里,参见图11a和图11b所示,图11a示出的是摄像头a、b、c、d分别采集的图像,如图像a1、b1、c1、d1。图11b示出的是图像a1、b1、c1、d1拼接成一幅覆盖会议场景的360度的全景图像。之后,示例性的,会议设备可以按照摄像头阵列中不同的摄像头的拍摄角度范围对全景图像进行划分,如每一摄像头的拍摄角度范围为90度,得到划分后的每一路图像,并确定划分后的每一路图像对应的图像区域a1、b1、c1、d1。这里,每一图像区域对应的拍摄角度范围即为摄像头的拍摄角度范围。参见图11b所示,划分后的每一路图像对应的图像区域与每一摄像头的拍摄角度范围之间的对应关系。

s504、会议设备定位图像区域中包含的拍摄对象在拍摄角度范围中的位置信息。

本申请实施例中,会议设备首先判断图像区域中是否存在拍摄对象如参会人员或者可书写的对象或可播放内容的对象。当会议设备确定图像区域中存在拍摄对象,获取拍摄对象在图像区域中的位置与图像区域的起始位置之间的第一间距;获取图像区域的终止位置与起始位置之间的第二间距;确定第一间距和第二间距的比值与图像区域对应的拍摄角度范围的乘积,为拍摄对象在拍摄角度范围中的位置信息。

在一种可实现的场景中,参见图11c所示,会议设备按照摄像头阵列中不同的摄像头的拍摄角度范围对全景图像进行划分,划分后的每一路图像的图像区域对应的拍摄角度范围为90度。会议设备确定每一路图像对应的图像区域中存在拍摄对象,如在第一路图像的图像区域a中存在拍摄对象1,获取拍摄对象1在图像区域中的位置与图像区域的起始位置之间的第一间距m;获取图像区域的终止位置与起始位置之间的第二间距n;确定第一间距m和第二间距n的比值与图像区域对应的拍摄角度范围为90度的乘积,为拍摄对象1在拍摄角度范围中的位置信息,即确定出拍摄对象1在360度全景图像中的角度位置信息。这里,会议设备获取每一拍摄对象的在拍摄角度范围中的位置信息。

s505、会议设备基于全景图像、拍摄角度范围和位置信息,生成拍摄场景下的所有拍摄对象之间的相对位置指示信息。

本申请实施例中,会议设备定位图像区域中包含的拍摄对象在拍摄角度范围中的位置信息后,基于全景图像、拍摄角度范围和位置信息,生成拍摄场景下的所有拍摄对象之间的相对位置指示信息。

在一种可实现的场景中,参见图12所示,会议设备在圆形的图像中按照每一摄像头的拍摄角度范围进行划分,划分后的每一扇形的标识对应于每一摄像头的标识,每一扇形区域对应于每一摄像头的拍摄角度范围,并基于全景图像、摄像头的拍摄角度范围和拍摄对象的位置信息,生成拍摄场景下的所有拍摄对象之间的相对位置指示信息,如位置雷达图。这里,位置雷达图中的每一拍摄对象对应的标识与全景图像中的拍摄对象的标识一一对应。

s506、会议设备发送全景图像和相对位置指示信息至目标设备。

s507、目标设备在展示界面上展示全景图像和相对位置指示信息。

s508、目标设备获得用户在观看全景图像时的第一行为特征,并基于第一行为特征确定的目标区域,生成触发事件。

s509、目标设备发送触发事件至会议设备。

s510、会议设备基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流。

其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数。

需要说明的是,本申请实施例中,若在s510会议设备基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流之前,执行s502至s504,则相对位置指示信息用于帮助用户有针对性地选择自己感兴趣的拍摄对象的部分路数的视频数据流进行输出。若在s510会议设备基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流之后,执行s502至s504,则相对位置指示信息用于帮助用户了解会议场景中的拍摄对象之间的位置关系。

s511、会议设备发送目标路视频数据流至目标设备。

s512、目标设备在展示界面上展示目标路视频数据流对应的目标路图像。

s513、目标设备获得用户在观看目标路图像时的第二行为特征,

本申请实施例中,第二行为特征包括眼睛注视点、头部角度特征、手势特征、手动从全景图像中选择部分的行为特征。

s514、基于第二行为特征对展示界面上的内容进行调整。

在一种可实现的场景中,目标设备在获得用户在观看目标路图像时的第二行为特征后,基于第二行为特征对展示界面上的内容进行调整,并且将调整后的目标路视频数据流在自身设备的展示界面进行展示。

在另一种可实现的场景中,目标设备在获得用户在观看目标路图像时的第二行为特征后,将第二行为特征发送给会议设备,会议设备基于所述目标设备获得的用户在观看所述目标路图像时的第二行为特征对展示界面上的内容进行调整,并且将调整后的目标路视频数据流发送至目标设备。

本申请实施例中,s514基于第二行为特征对展示界面上的内容进行调整,可以通过如下方式实现,

方式一、如果第二行为特征表征用户注视目标路图像的时长大于时长阈值,基于时长对展示界面上的内容的显示参数进行调整。

本申请实施例中,目标设备获取用户在观看目标路图像时,用户注视目标路图像的时长大于时长阈值的第二行为特征,则基于时长对展示界面上的内容的显示参数进行调整。或,

目标设备获取用户在观看目标路图像时,用户注视目标路图像的时长大于时长阈值的第二行为特征,将第二行为特征发送给会议设备,如果第二行为特征表征用户注视目标路图像的时长大于时长阈值,基于时长对输出至目标设备的目标路视频数据流对应的内容的显示参数进行调整,并且将调整后的目标路视频数据流发送至目标设备,以使目标设备在展示界面上输出调整后的目标路视频数据流。

在一种可实现的场景中,目标设备通过图像采集模组或者感应模组获得用户在观看目标路图像时的用户注视时长。

方式二、如果第二行为特征表征用户的肢体动作发生变化,基于肢体动作的变化方向和/或变化速度,从全景图像对应的多路视频数据流中选择调整后的目标路视频数据流并输出至展示界面上。

本申请实施例中,目标设备获取到了用户在观看目标路图像时的表征有用户的肢体动作发生变化的第二行为特征,则基于肢体动作的变化方向和/或变化速度,从全景图像对应的多路视频数据流中选择调整后的目标路视频数据流并输出至展示界面上。或,

目标设备获取到了用户在观看目标路图像时的表征有用户的肢体动作发生变化的第二行为特征,将第二行为特征发送给会议设备,会议设备基于表征第二行为特征的肢体动作的变化方向和/或变化速度,从全景图像对应的多路视频数据流中选择调整后的目标路视频数据流,并且将调整后的目标路视频数据流发送至目标设备,以使目标设备在展示界面上输出调整后的目标路视频数据流。

在一种可实现的场景中,目标设备通过图像采集模组或者感应模组获得用户在目标路图像时的肢体动作发生变化,如头部按照一定的转动速度向左或向右转动观看目标路图像,目标设备分析并确定用户头部的转动速度和转动方向,基于用户头部的转动速度和转动方向,将全景图像对应的多路视频数据流中按照转动速度、与转动方向相反的方向滑动多路视频数据流,得到调整后的目标路视频数据流,将调整后的目标路视频数据流输出至展示界面上。

在另一种可实现的场景中,目标设备通过图像采集模组或者感应模组获得用户在目标路图像时的肢体动作发生变化的第二行为特征,如头部按照一定的转动速度向左或向右转动观看目标路图像,将第二行为特征发送给会议设备。会议设备获取表征第二行为特征的肢体动作的变化方向和/或变化速度,并分析用户头部的转动速度和转动方向,基于用户头部的转动速度和转动方向,将全景图像对应的多路视频数据流中按照转动速度、与转动方向相反的方向滑动多路视频数据流,得到调整后的目标路视频数据流,将调整后的目标路视频数据流输出至展示界面上。

由上述可知,本申请实施例中,会议设备侧基于全景图像的所生成的所有拍摄对象之间的相对位置指示信息,不仅可以帮助用户了解会议场景中的拍摄对象之间的位置关系,还可以帮助用户有针对性地选择自己感兴趣的拍摄对象的部分路数的视频数据流进行输出。同时,还根据目标设备侧的用户的行为特征,对目标视频数据流进行调整,以符合用户的观看习惯;如此,实现智能化投放内容的效果,提高了用户的观看体验。

需要说明的是,本实施例中与其它实施例中相同步骤和相同内容的说明,可以参照其它实施例中的描述,此处不再赘述。

本申请的实施例提供一种信息处理装置,该信息处理装置可以应用于图2、4、6和9对应的实施例提供的一种信息处理方法中,参照图13所示,该信息处理装置6包括:

获得模块601,用于获得同一拍摄场景下的全景图像;

获得模块601,还用于获得目标设备生成的触发事件;

处理模块602,用于基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流,其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数;

输出模块603,用于输出目标路视频数据流。

本申请的其他实施例中,信息处理装置6为会议设备,处理模块602,还用于接收目标设备发送的触发事件,其中,目标设备基于从全景图像中确定的目标区域,生成触发事件,目标区域展示有目标路图像;或者,处理模块602,还用于在获得全景图像的多路视频数据流的情况下,生成用于标识每一路视频数据流的特征信息,并发送特征信息至目标设备;接收目标设备发送的从特征信息中所选的目标特征信息,目标特征信息用于标识目标路视频数据流。

本申请的其他实施例中,信息处理装置6为会议设备,处理模块602,还用于目标设备基于获得的目标设备的展示界面的界面尺寸,确定目标区域;和/或,如果目标设备在获得全景图像后在展示界面上展示全景图像,目标设备基于获得目标设备的用户在观看全景图像时的第一行为特征,确定目标区域。

本申请的其他实施例中,信息处理装置6为目标设备,处理模块602,还用于基于目标设备从全景图像中确定的目标区域,生成触发事件,其中,目标区域展示有目标路图像。

本申请的其他实施例中,信息处理装置6为目标设备,处理模块602,还用于获得目标设备的展示界面的界面尺寸,并基于界面尺寸确定目标区域;和/或,如果在获得全景图像后在展示界面上展示全景图像,获得目标设备的用户在观看全景图像时的第一行为特征,并基于第一行为特征确定目标区域。

本申请的其他实施例中,信息处理装置6为会议设备,处理模块602,还用于确定全景图像中每一路图像对应的图像区域;确定拍摄场景下图像区域对应的拍摄角度范围;定位图像区域中包含的拍摄对象在拍摄角度范围中的位置信息;基于全景图像、拍摄角度范围和位置信息,生成拍摄场景下的所有拍摄对象之间的相对位置指示信息。

本申请的其他实施例中,信息处理装置6为会议设备,输出模块603,还用于输出目标路视频数据流至目标设备,以在目标设备的展示界面上展示目标路视频数据流对应的目标路图像;处理模块602,还用于基于目标设备获得的用户在观看目标路图像时的第二行为特征,对输出至目标设备的目标路视频数据流进行调整。

本申请的其他实施例中,信息处理装置6为目标设备,输出模块603,还用于在目标设备的展示界面上展示目标路视频数据流对应的目标路图像;获得模块601,还用于获得目标设备的用户在观看目标路图像时的第二行为特征,处理模块602,还用于基于第二行为特征对展示界面上的内容进行调整。

本申请的其他实施例中,信息处理装置6为目标设备,处理模块602,还用于如果第二行为特征表征用户注视目标路图像的时长大于时长阈值,基于时长对展示界面上的内容的显示参数进行调整;或者,如果第二行为特征表征用户的肢体动作发生变化,基于肢体动作的变化方向和/或变化速度,从全景图像对应的多路视频数据流中选择调整后的目标路视频数据流,输出模块603,还用于输出调整后的目标路视频数据流至展示界面上。

需要说明的是,本实施例中与其它实施例中相同步骤和相同内容的说明,可以参照其它实施例中的描述,此处不再赘述。

本申请的实施例提供一种电子设备,该电子设备可以应用于图2、4、6和9对应的实施例提供的一种信息处理方法中,参照图14所示,该电子设备可以为图1所示会议设备100、目标设备200和服务器400中的任一设备,这里,以该电子设备为服务器400为例进行说明;服务器400包括:至少一个处理器701、存储器702、至少一个网络接口703和用户接口704。服务器400中的每个组件通过总线系统705耦合在一起。可理解,总线系统705用于实现这些组件之间的连接通信。总线系统705除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图14中将各种总线都标为总线系统705。

用户接口704可以包括显示器、键盘、鼠标、触感板和触摸屏等。

存储器702可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(rom,readonlymemory)。易失性存储器可以是随机存取存储器(ram,randomaccessmemory)。本申请实施例描述的存储器702旨在包括任意适合类型的存储器。

本申请实施例中的存储器702能够存储数据以支持服务器400的操作。这些数据的示例包括:用于在服务器400上操作的任何计算机程序,如操作系统和应用程序。其中,操作系统包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序可以包含各种应用程序。

作为本申请实施例提供的信息处理装置采用软件实施的示例,本申请实施例所提供的信息处理装置可以直接体现为由处理器701执行的软件模块组合,软件模块可以位于存储介质中,存储介质位于存储器702,处理器701读取存储器702中软件模块包括的可执行指令,结合必要的硬件(例如,包括处理器701以及连接到总线系统705的其他组件)完成本申请实施例提供的方法。

作为示例,处理器701可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(dsp,digitalsignalprocessor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。

本申请的实施例中,处理器701读取存储器702中软件模块包括的可执行指令,以实现以下步骤:

获得同一拍摄场景下的全景图像;获得目标设备生成的触发事件;基于触发事件,处理获得的全景图像的多路视频数据流,得到多路图像中目标路图像对应的目标路视频数据流,其中,多路视频数据流对应多路图像,目标路图像的路数小于多路图像的路数;输出目标路视频数据流。

本申请的其他实施例中,处理器701读取存储器702中软件模块包括的可执行指令,以实现以下步骤:

接收目标设备发送的触发事件,其中,目标设备基于从全景图像中确定的目标区域,生成触发事件,目标区域展示有目标路图像;或者,在获得全景图像的多路视频数据流的情况下,生成用于标识每一路视频数据流的特征信息,并发送特征信息至目标设备;接收目标设备发送的从特征信息中所选的目标特征信息,目标特征信息用于标识目标路视频数据流。

本申请的其他实施例中,处理器701读取存储器702中软件模块包括的可执行指令,以实现以下步骤:

接收目标设备基于获得的自身的展示界面的界面尺寸,确定目标区域;和/或,如果目标设备在获得全景图像后在展示界面上展示全景图像,基于获得目标设备的用户在观看全景图像时的第一行为特征,确定目标区域。

本申请的其他实施例中,处理器701读取存储器702中软件模块包括的可执行指令,以实现以下步骤:

确定全景图像中每一路图像对应的图像区域;确定拍摄场景下图像区域对应的拍摄角度范围;定位图像区域中包含的拍摄对象在拍摄角度范围中的位置信息;基于全景图像、拍摄角度范围和位置信息,生成拍摄场景下的所有拍摄对象之间的相对位置指示信息。

本申请的其他实施例中,处理器701读取存储器702中软件模块包括的可执行指令,以实现以下步骤:

输出目标路视频数据流至目标设备,以在目标设备的展示界面上展示目标路视频数据流对应的目标路图像;基于目标设备获得的用户在观看目标路图像时的第二行为特征,对输出至目标设备的目标路视频数据流进行调整。

本申请实施例提供一种存储有可执行指令的存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的方法,例如,如图2、4、6和9示出的方法。

在一些实施例中,存储介质可以是fram、rom、prom、eprom、eeprom、闪存、磁表面存储器、光盘、或cd-rom等存储器;也可以是包括上述存储器之一或任意组合的各种设备。

在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。

作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(html,hypertextmarkuplanguage)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。

作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。

以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1