消息传送系统中的包括3D数据的增强现实内容生成器的制作方法

文档序号:32404023发布日期:2022-12-02 19:58阅读:23来源:国知局
消息传送系统中的包括3D数据的增强现实内容生成器的制作方法
消息传送系统中的包括3d数据的增强现实内容生成器
1.优先权要求
2.本技术要求于2020年4月13日提交的美国临时申请序列第63/009,158号的优先权权益,该美国临时申请的全部内容出于所有目的通过引用并入本文。


背景技术:

3.随着数字图像使用的增加、便携式计算设备的可负担性、数字存储介质的增加的容量的可用性以及网络连接的增加的带宽和可访问性,数字图像已成为越来越多人日常生活的一部分。
4.附图的若干个视图的简要描述
5.为了容易识别对任何特定元件或动作的讨论,附图标记中的一个或更多个最高位数字指代该元件被首次引入时所在的图号。
6.图1是根据一些示例实施方式的可以部署本公开内容的联网环境的图形表示。
7.图2是根据一些示例实施方式的消息传送客户端应用的图形表示。
8.图3是根据一些示例实施方式的如在数据库中维护的数据结构的图形表示。
9.图4是根据一些示例实施方式的消息的图形表示。
10.图5是根据一些示例实施方式的访问限制过程的流程图。
11.图6是示出根据一些实施方式的包括对应于给定消息的附加信息的如图4中所述的消息注释的结构的示意图。
12.图7是示出根据某些示例实施方式的注释系统的各种模块的框图。
13.图8示出了根据一些实施方式的描绘用于选择媒体叠加并将媒体叠加应用于媒体内容(例如,图像或视频)的传送带(carousel)以及在消息传送客户端应用(或消息传送系统)中呈现所应用的媒体叠加的示例用户界面。
14.图9示出了ar效果的示例,该ar效果示出了被渲染以在客户端设备上显示的粒子和多个帧。
15.图10示出了ar效果的示例,该ar效果示出了被渲染以在客户端设备上显示的相应3d变换(例如,波纹或漩涡)。
16.图11示出了ar效果的示例,该ar效果示出了被渲染以在客户端设备上显示的对动画3d对象的相应3d变换(例如,波纹或漩涡)。
17.图12是示出根据某些示例实施方式的用于提供用于选择具有3d效果的特定媒体叠加的传送带界面的方法的流程图。
18.图13是示出根据某些示例实施方式的用于渲染消息视图的方法的流程图。
19.图14是示出根据一些示例实施方式的执行用于处理图像数据和深度数据的转换通路的方法的流程图,该方法可以与用于生成3d消息的方法结合来执行。
20.图15是示出根据某些示例实施方式的响应于运动数据来更新消息视图的方法的流程图。
21.图16是示出根据一些示例实施方式的其中可以实现本公开内容的软件架构的框
图。
22.图17是根据一些示例实施方式的呈计算机系统形式的机器的图形表示,在该计算机系统中可以执行指令的集合以使机器执行本文中讨论的方法中任何一种或更多种。
具体实施方式
23.来自各种位置的兴趣广泛的用户可以捕获各种对象的数字图像,并且使其他人可经由网络(例如因特网)获得所捕获的图像。为了增强用户对数字图像的体验并提供各种特征,从而使得计算设备能够对在各种变化条件(例如,图像尺度、噪声、照明、运动或几何失真的变化)下捕获的各种对象和/或特征执行图像处理操作可能是有挑战性的并且是计算密集的。
24.如本文所讨论的,主题基础结构支持在整个消息传送系统的各个部件中创建和共享包括3d内容或ar效果的交互式三维(3d)媒体,本文称为消息。本文描述的基础结构使得能够跨本主题系统提供其他形式的3d且交互式的媒体,这允许跨消息传送系统以及与照片和视频消息一起共享基于深度且交互式的媒体。在本文描述的示例实施方式中,消息可以从实况摄像装置或经由存储装置(例如,其中,包括3d内容和/或ar效果的消息被存储在存储器或数据库中)进入系统。本主题系统支持运动传感器输入并且管理深度数据的发送和存储以及外部效果和资产数据的加载。
25.如本文所述,消息包括交互式3d图像,该交互式3d图像至少包括图像和深度数据。在示例实施方式中,除了常规的图像纹理之外,还使用本主题系统来渲染消息以使摄像装置所看到的空间细节/几何形状可视化。当观看者通过使客户端设备移动与该消息进行交互时,该运动触发被渲染的图像和几何形状的观看者视角的相应变化。
26.本主题技术的实施方式使得能够改进计算设备(例如,计算机、移动设备等)的功能,包括例如降低计算资源(例如,cpu、gpu、存储器)的利用率。在一个示例中,技术改进还涉及利用服务器或远程计算资源来处理和渲染ar内容,而在又一个示例中,可以通过给定的计算设备渲染ar内容,并且然后将其传播至其他计算设备以进行呈现。通过组合和利用本文描述的各种技术,与其他现有实现方式相比,可以减少使ar内容项显示的延迟(例如,ar内容在给定设备的相应显示器上被生成并随后被渲染的持续时间),以提供更身临其境和引人入胜的用户体验。
27.如本文所提及的,短语“增强现实体验”、“增强现实内容项”、“增强现实内容生成器”包括或指代与如本文进一步描述的图像修改、过滤、lenses、媒体叠加、变换等相对应的各种图像处理操作。
28.图1是示出用于通过网络交换数据(例如,消息和相关联的内容)的示例消息传送系统100的框图。消息传送系统100包括客户端设备102的多个实例,每个实例托管包括消息传送客户端应用104的多个应用。每个消息传送客户端应用104经由网络106(例如,因特网)通信地耦接至消息传送客户端应用104的其他实例和消息传送服务器系统108。
29.消息传送客户端应用104能够经由网络106与另一消息传送客户端应用104和消息传送服务器系统108进行通信和交换数据。在消息传送客户端应用104之间以及在消息传送客户端应用104与消息传送服务器系统108之间交换的数据包括函数(例如,调用函数的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
30.消息传送服务器系统108经由网络106向特定消息传送客户端应用104提供服务器侧功能。虽然消息传送系统100的某些功能在本文中被描述为由消息传送客户端应用104或由消息传送服务器系统108执行,但是在消息传送客户端应用104或消息传送服务器系统108内的某些功能的位置是设计选择。例如,在技术上可能优选的是最初在消息传送服务器系统108内部署某些技术和功能,但是后面将该技术和功能迁移至其中客户端设备102具有足够处理能力的消息传送客户端应用104。
31.消息传送服务器系统108支持被提供给消息传送客户端应用104的各种服务和操作。这样的操作包括向消息传送客户端应用104发送数据、从消息传送客户端应用104接收数据以及对由消息传送客户端应用104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理位置信息、媒体注释和叠加、消息内容持续条件、社交网络信息和实况事件信息。通过经由消息传送客户端应用104的用户界面(ui)可用的功能来调用和控制消息传送系统100内的数据交换。
32.现在具体地转至消息传送服务器系统108,应用程序接口(api)服务器110耦接至应用服务器112并且向应用服务器112提供编程接口。应用服务器112通信地耦接至数据库服务器118,这有助于访问其中存储有与由应用服务器112处理的消息相关联的数据的数据库120。
33.应用程序接口(api)服务器110在客户端设备102与应用服务器112之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(api)服务器110提供接口(例如,例程和协议)的集合,所述接口的集合可以由消息传送客户端应用104调用或查询,以调用应用服务器112的功能。应用程序接口(api)服务器110公开由应用服务器112支持的各种功能,包括帐户注册、登录功能、经由应用服务器112从特定消息传送客户端应用104向另一消息传送客户端应用104发送消息、从消息传送客户端应用104向消息传送服务器应用114发送媒体文件(例如,图像或视频)以及用于另一消息传送客户端应用104的可能访问、媒体数据的集合(例如,故事)的设置、客户端设备102的用户的好友列表的检索、这样的集合的检索、消息和内容的检索、向社交图添加和删除好友、社交图内好友的位置以及打开应用事件(例如,涉及消息传送客户端应用104)。
34.应用服务器112托管多个应用和子系统,包括消息传送服务器应用114、图像处理系统116和社交网络系统122。消息传送服务器应用114实现了若干消息处理技术和功能,特别是与从消息传送客户端应用104的多个实例接收到的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理有关的消息处理技术和功能。如将进一步详细描述的,来自多个来源的文本和媒体内容可以聚合成内容的集合(例如,称为故事或库)。然后,消息传送服务器应用114使得这些集合对消息传送客户端应用104可用。考虑到对数据的其他处理器和存储器密集处理的硬件要求,也可以由消息传送服务器应用114在服务器侧执行这样的处理。
35.应用服务器112还包括图像处理系统116,图像处理系统116专用于通常关于在消息传送服务器应用114处的消息的有效载荷内接收的图像或视频执行各种图像处理操作。
36.社交网络系统122支持各种社交联网功能服务,并且使这些功能和服务对消息传送服务器应用114可用。为此,社交网络系统122维护并访问数据库120内的实体图304(如图3所示)。社交网络系统122所支持的功能和服务的示例包括识别特定用户与之有关系或特
定用户所“关注”的消息传送系统100的其他用户,以及还识别特定用户的兴趣以及其他实体。
37.应用服务器112通信地耦接至数据库服务器118,这便于访问数据库120,在数据库120中存储有与由消息传送服务器应用114处理的消息相关联的数据。
38.图2是示出根据示例实施方式的关于消息传送系统100的其他细节的框图。具体地,消息传送系统100被示出为包括消息传送客户端应用104和应用服务器112,它们又包含多个一些子系统,即短暂定时器系统202、集合管理系统204和注释系统206。
39.短暂定时器系统202负责实施对由消息传送客户端应用104和消息传送服务器应用114允许的内容的临时访问。为此,短暂定时器系统202结合了多个定时器,这些定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地显示消息和相关联的内容以及使得能够经由消息传送客户端应用104访问消息和相关联的内容。下面提供关于短暂定时器系统202的操作的其他细节。
40.集合管理系统204负责管理媒体的集合(例如,文本、图像视频和音频数据的集合)。在一些示例中,内容(例如,包括图像、视频、文本和音频的消息)的集合可以被组织成“事件画廊”或“事件故事”。可以使这样的集合在指定时间段例如内容所涉及的事件的持续时间内可用。例如,可以在音乐会的持续时间内使与音乐会有关的内容作为“故事”可用。集合管理系统204还可以负责向消息传送客户端应用104的用户界面发布提供存在特定集合的通知的图标。
41.此外,集合管理系统204还包括策展接口208,策展接口208使得集合管理器能够管理和策展特定内容集合。例如,策展接口208使得事件组织者能够策展与特定事件相关的内容集合(例如,删除不适当的内容或冗余消息)。此外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些实施方式中,可以向用户支付补偿以将用户生成的内容包括到集合中。在这样的情况下,策展接口208进行操作以自动向这样的用户支付费用以使用其内容。
42.注释系统206提供使得用户能够注释或以其他方式修改或编辑与消息相关联的媒体内容的各种功能。例如,注释系统206提供与生成和发布用于由消息传送系统100处理的消息的媒体叠加有关的功能。注释系统206基于客户端设备102的地理位置可操作地向消息传送客户端应用104供应媒体叠加或补充(例如,图像过滤)。在另一示例中,注释系统206基于其他信息(例如客户端设备102的用户的社交网络信息)可操作地向消息传送客户端应用104供应媒体叠加。媒体叠加可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、标志、动画和声音效果。视觉效果的示例包括颜色叠加。音频和视觉内容或视觉效果可以应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体叠加可以包括可以叠加在由客户端设备102拍摄的照片之上的文本。在另一示例中,媒体叠加包括位置标识(例如,威尼斯海滩)叠加、实况事件的名称或商家名称(例如,海滩咖啡馆)叠加。在另一示例中,注释系统206使用客户端设备102的地理位置来标识包括在客户端设备102的地理位置处的商家名称的媒体叠加。媒体叠加可以包括与商家相关联的其他标记。媒体叠加可以存储在数据库120中并通过数据库服务器118访问。
43.在一个示例实施方式中,注释系统206提供基于用户的发布平台,该发布平台使得用户能够选择地图上的地理位置,并且上载与选择的地理位置相关联的内容。用户还可以
指定应当向其他用户提供特定媒体叠加的环境。注释系统206生成包括所上传的内容的媒体叠加并且将所上传的内容与所选择的地理位置相关联。
44.在另一示例实施方式中,注释系统206提供基于商家的发布平台,该基于商家的发布平台使得商家能够通过出价过程选择与地理位置相关联的特定媒体叠加。例如,注释系统206在预定义时间量内将最高出价商家的媒体叠加与对应的地理位置相关联。
45.图3是示出根据某些示例实施方式的可以存储在消息传送服务器系统108的数据库120中的数据结构300的示意图。虽然数据库120的内容被示出为包括多个表,但是应当理解,数据可以存储在其他类型的数据结构中(例如,作为面向对象的数据库)。
46.数据库120包括存储在消息表314内的消息数据。实体表302存储实体数据,包括实体图304。在实体表302内维护记录的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管类型如何,关于消息传送服务器系统108存储数据的任何实体都可以是被识别的实体。每个实体设置有唯一标识符以及实体类型标识符(未示出)。
47.实体图304还存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是基于感兴趣的或基于活动的社交关系、专业关系(例如,在共同的公司或组织工作)。
48.数据库120还以过滤器的示例形式将注释数据存储在注释表312中。在注释表312内存储数据的过滤器与视频(其数据存储在视频表310中)和/或图像(其数据存储在图像表308中)相关联并且应用于视频和/或图像。在一个示例中,过滤器是在呈现给接收用户期间显示为叠加在图像或视频上的叠加。过滤器可以是各种类型,包括当发送用户正在编写消息时由消息传送客户端应用104向发送用户呈现的来自过滤器的库中的用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),其可以基于地理位置被呈现给发送用户。例如,基于由客户端设备102的gps单元确定的地理位置信息,消息传送客户端应用104可以在用户界面内呈现特定于邻域或特定位置的地理位置过滤器。另一类型的过滤器是数据过滤器,其可以由消息传送客户端应用104基于在消息创建过程期间由客户端设备102收集的其他输入或信息来选择性地呈现给发送用户。数据过滤器的示例包括特定位置处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
49.可以存储在图像表308内的其他注释数据是增强现实内容生成器(例如,对应于应用lenses、增强现实体验或增强现实内容项)。增强现实内容生成器可以是可以添加至图像或视频的实时特殊效果和声音。
50.如上所述,增强现实内容生成器、增强现实内容项、叠加、图像变换、ar图像和类似术语是指可以对视频或图像进行的修改。这包括实时修改,实时修改在使用设备传感器捕获图像时修改该图像,并且然后将具有修改的图像显示在设备的屏幕上。这还包括对所存储的内容的修改,例如可以被修改的库中的视频剪辑。例如,在访问多个增强现实内容生成器的设备中,用户可以将单个视频剪辑与多个增强现实内容生成器一起使用来查看不同的增强现实内容生成器将如何修改所存储的剪辑。例如,通过针对内容选择不同的增强现实内容生成器,可以将应用不同伪随机运动模型的多个增强现实内容生成器应用于同一内容。类似地,实时视频捕获可以与示出的修改一起使用,以显示当前由设备的传感器捕获的视频图像将如何修改所捕获的数据。这样的数据可以简单地显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并
存储在存储器中。在一些系统中,预览特征可以示出不同的增强现实内容生成器同时在显示器中的不同窗口内看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
51.因此,数据以及使用增强现实内容生成器或其他这样的变换系统来使用该数据修改内容的各种系统可以涉及:对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测;当这样的对象离开、进入视频帧中的视场以及在视场周围移动时对其进行跟踪;以及当跟踪这样的对象时对其进行修改或变换。在各种实施方式中,可以使用用于实现这样的变换的不同方法。例如,一些实施方式可能涉及生成一个或更多个对象的三维网格模型,并使用视频中模型的变换和动画纹理来实现变换。在其他实施方式中,对象上的点的跟踪可以用于将图像或纹理(其可以是二维或三维的)放置在所跟踪的定位处。在又一实施方式中,视频帧的神经网络分析可以用于将图像、模型或纹理放置在内容(例如,视频的图像或帧)中。因此,增强现实内容生成器既涉及用于创建内容中的变换的图像、模型和纹理,又涉及实现利用对象检测、跟踪和放置的这样的变换所需的附加建模和分析信息。
52.可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。另外,可以使用计算机动画模型来处理任何对象,例如人的面部和人体的部分、动物、或非生命物体(例如椅子、汽车或其他对象)。
53.在一些实施方式中,当与要变换的内容一起选择特定的修改时,由计算设备识别要变换的元素,并且然后在要变换的元素存在于视频的帧中的情况下对要变换的元素进行检测和跟踪。根据修改请求修改对象的元素,因此变换视频流的帧。可以通过用于不同种类的变换的不同方法来执行视频流的帧的变换。例如,对于主要涉及改变对象元素的形式的帧的变换,计算针对对象的每个元素的特征点(例如,使用主动形状模型(asm)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特征点的网格。该网格用于跟踪视频流中的对象元素的后续阶段。在跟踪过程中,所提及的每个元素的网格与每个元素的定位对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一点的第一集合,并且基于第一点的集合和修改的请求针对每个元素生成第二点的集合。然后,可以通过基于第一点的集合和第二点的集合以及网格修改对象的元素,对视频流的帧进行变换。在这样的方法中,也可以通过跟踪和修改背景来使经修改的对象的背景改变或变形。
54.在一个或更多个实施方式中,可以通过计算对象的每个元素的特征点并基于所计算的特征点生成网格,来执行使用对象的元素的改变对象的一些区域的变换。在网格上生成点,并且然后生成基于点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的定位对准来跟踪对象的元素,并且可以基于修改的请求来修改区域的属性,从而变换视频流的帧。根据具体的修改请求,所提及的区域的属性可以以不同的方式进行变换。这样的修改可以涉及改变区域的颜色;从视频流的帧中去除区域的至少一些部分;将一个或更多个新对象包括到基于针对修改的请求的区域中;以及修改区域或对象的元素或者使区域或对象的元素变形。在各种实施方式中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特征点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
55.在使用面部检测来变换图像数据的计算机动画模型的一些实施方式中,使用特定的面部检测算法(例如,viola-jones)在图像上检测面部。然后,将主动形状模型(asm)算法应用于图像的面部区域以检测面部特征参考点。
56.在其他实施方式中,可以使用其他适合面部检测的方法和算法。例如,在一些实施方式中,使用界标来定位特征,该界标表示存在于所考虑的大多数图像中的可区分点。例如,对于面部界标,可以使用左眼瞳孔的定位。在初始标志界标不可识别的情况下(例如,如果人具有眼罩),可以使用次级界标。这样的界标识别过程可以用于任何这样的对象。在一些实施方式中,界标的集合形成形状。可以使用形状中的点的坐标将形状表示为矢量。一个形状利用相似性变换(允许平移、缩放和旋转)与另一个形状对准,该相似性变换使形状点之间的平均欧几里德距离最小化。平均形状是对准的训练形状的均值。
57.在一些实施方式中,开始从与由全局面部检测器确定的面部的位置和尺寸对准的平均形状中搜索界标。然后,这样的搜索重复以下操作的步骤:通过每个点周围的图像纹理的模板匹配来调整形状点的定位来建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些系统中,单个模板匹配是不可靠的,并且形状模型将弱模板匹配器的结果集中在一起,形成更强的整体分类器。整个搜索在从粗分辨率到细分辨率的图像金字塔的每个级别上重复。
58.变换系统的实施方式可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并且在客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状改变、情绪转移(例如,将面部从皱眉改变为微笑)、状态转移(例如,使被摄体变老、减小表观年龄、改变性别)、风格转移、图形元素应用,以及由已经被配置成在客户端设备102上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
59.在一些示例实施方式中,用于变换图像数据的计算机动画模型可以由系统使用,在该系统中,用户可以使用具有神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍),该神经网络操作为在客户端设备102上操作的消息传送客户端应用104的一部分。在消息传送客户端应用104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与计算机动画模型相关联的修改图标以变换图像数据,或者计算机动画模型可以与本文中描述的接口相关联地存在。修改图标包括可以作为用于作为修改操作的一部分的修改图像或视频流中的用户面部的基础的改变。一旦选择了修改图标,变换系统就启动用于转换用户的图像的处理以反映所选择的修改图标(例如,对用户生成笑脸)。在一些实施方式中,一旦捕获了图像或视频流并且选择了指定的修改,就可以在移动客户端设备上显示的图形用户界面中呈现修改后的图像或视频流。变换系统可以对图像或视频流的一部分实施复杂的卷积神经网络,以生成并应用所选择的修改。也就是说,一旦选择了修改图标,用户可以捕获图像或视频流,并且实时或接近实时地被呈现修改的结果。此外,当视频流被捕获并且所选修改图标保持打开时,修改可以是持续的。机器教导的神经网络可以用于实现这样的修改。
60.在一些实施方式中,呈现由变换系统执行的修改的图形用户界面可以为用户供应附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的内容捕获和选择的接口(例如,从内容创建者用户接口发起)。在各种实施方式中,修改可以在修改图标的初始
选择之后持续。用户可以通过敲击或以其他方式选择由变换系统修改的面部来打开或关闭修改,并将其存储以供以后查看或浏览到成像应用的其他区域。在由变换系统修改多个面部的情况下,用户可以通过敲击或选择在图形用户界面内修改和显示的单个面部来全局打开或关闭修改。在一些实施方式中,可以通过敲击或选择图形用户界面内显示的单独面部或一系列单独面部来单独修改一组多个面部当中的各个面部,或者单独打开这样的修改。
61.在一些示例实施方式中,提供了图形处理流水线架构,其使得能够在对应的不同层中应用不同的增强现实体验(例如,ar内容生成器)。这样的图形处理流水线提供了可扩展渲染引擎,所述可扩展渲染引擎用于提供复合媒体(例如,图像或视频)中包括的多个增强现实体验以由消息传送客户端应用104(或消息传送系统100)呈现。
62.如以上所提及的,视频表310存储视频数据,在一个实施方式中,视频数据与其记录被维护在消息表314中的消息相关联。类似地,图像表308存储与存储在实体表302中的消息数据所关于的消息相关联的图像数据。实体表302可以将来自注释表312的各种注释与存储在图像表308和视频表310中的各种图像和视频相关联。
63.故事表306存储关于消息和相关联的图像、视频或音频数据的集合的数据,这些数据被编译成集合(例如,故事或库)。特定集合的创建可以由特定用户(例如,在实体表302中维持其记录的每个用户)发起。用户可以创建以已经由该用户创建和发送/广播的内容集合的形式的“个人故事”。为此,消息传送客户端应用104的用户界面可以包括用户可选择以使得发送用户能够将特定内容添加至他或她的个人故事的图标。
64.集合还可以构成“实况故事”,“实况故事”是被手动地、自动地或使用手动和自动技术的组合来创建的来自多个用户的内容的集合。例如,“实况故事”可以构成来自不同位置和事件的用户提交的内容的策展流。其客户端设备具有启用的位置服务并且在特定时间处于共同位置事件的用户可以例如经由消息传送客户端应用104的用户界面被呈现有选项以向特定实况故事贡献内容。可以由消息传送客户端应用104基于用户的位置向用户标识实况故事。最终结果是从社群角度讲述的“实况故事”。
65.另一类型的内容集合被称为“位置故事”,“位置故事”使得其客户端设备102位于特定地理位置(例如,在大学或大学校园)内的用户能够对特定集合做出贡献。在一些实施方式中,对位置故事的贡献可能需要第二程度的认证来验证终端用户属于特定组织或其他实体(例如,是大学校园中的学生)。
66.图4是示出根据一些实施方式的消息400的结构的示意图,消息400由消息传送客户端应用104生成以传送至另一消息传送客户端应用104或消息传送服务器应用114。特定消息400的内容用于填充存储在数据库120中的消息表314,其可由消息传送服务器应用114访问。类似地,消息400的内容作为客户端设备102或应用服务器112的“在途”或“飞行中”数据存储在存储器中。消息400被示出为包括以下部件:
67.●
消息标识符402:标识消息400的唯一标识符。
68.●
消息文本有效载荷404:要由用户经由客户端设备102的用户界面生成并且包括在消息400中的文本。
69.●
消息图像有效载荷406:由客户端设备102的摄像装置部件捕获到或从客户端设备102的存储器部件检索到并且包括在消息400中的图像数据。
70.●
消息视频有效载荷408:由摄像装置部件捕获到或从客户端设备102的存储器部
件检索到并且包括在消息400中的视频数据。
71.●
消息音频有效载荷410:由麦克风捕获到或从客户端设备102的存储器部件检索到并且包括在消息400中的音频数据。
72.●
消息注释412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的注释的注释数据(例如,过滤器、贴纸或其他增强)。
73.●
消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)将经由消息传送客户端应用104被呈现给用户或使得用户可访问的时间量的参数值。
74.●
消息地理位置参数416:与消息的内容有效载荷相关联的地理位置数据(例如,纬度和经度坐标)。多个消息地理位置参数值416可以被包括在有效载荷中,这些参数值中的每一个与关于内容中包括的内容项(例如,消息图像有效载荷406内的特定图像或消息视频有效载荷408中的特定视频)相关联。
75.●
消息故事标识符418:标识与消息400的消息图像有效载荷406中的特定内容项相关联的一个或更多个内容集合(例如“故事”)的标识符值。例如,消息图像有效载荷406内的多个图像可以各自与使用标识符值的多个内容集合相关联。
76.●
消息标签420:每个消息400可以用多个标签来标记,多个标签中的每个标签指示消息有效载荷中包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如,狮子)的情况下,标签值可以被包括在指示相关动物的消息标签420内。标签值可以基于用户输入手动生成,或者可以使用例如图像识别自动生成。
77.●
消息发送方标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备102的用户的标识符(例如,消息传送系统标识符、电子邮件地址或设备标识符)。
78.●
消息接收方标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息传送系统标识符、电子邮件地址或设备标识符)。
79.消息400的各个组成部分的内容(例如,值)可以是指向在其内存储内容数据值的表中的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表308内的位置(或地址)的指针。类似地,消息视频有效载荷408内的值可以指向存储在视频表310内的数据,存储在消息注释412中的值可以指向存储在注释表312中的数据,存储在消息故事标识符418中的值可以指向存储在故事表306中的数据,并且存储在消息发送方标识符422和消息接收方标识符424中的值可以指向存储在实体表302内的用户记录。
80.图5是示出访问限制过程500的示意图,根据该访问限制过程,对内容(例如,短暂消息502和相关联的数据的多媒体有效载荷)或内容集合(例如,短暂消息组504)的访问可以是时间受限的(例如,短暂的)。
81.短暂消息502被示为与消息持续时间参数506相关联,消息持续时间参数506的值确定消息传送客户端应用104将向短暂消息502的接收用户显示短暂消息502的时间量。在一个实施方式中,取决于发送用户使用消息持续时间参数506指定的时间量,接收用户可查看短暂消息502上至最多10秒。
82.消息持续时间参数506和消息接收方标识符424被示出为消息定时器512的输入,消息定时器512负责确定向由消息接收方标识符424标识的特定接收用户示出短暂消息502的时间量。特别地,仅在由消息持续时间参数506的值确定的时间段内向相关接收用户示出
短暂消息502。消息定时器512被示出为向更一般化的短暂定时器系统202提供输出,该短暂定时器系统202负责向接收用户显示内容(例如,短暂消息502)的总体定时。
83.短暂消息502在图5中被示出为被包括在短暂消息组504(例如,个人故事或事件故事中的消息的集合)内。短暂消息组504具有相关联的组持续时间参数508,组持续时间参数508的值确定短暂消息组504被呈现并可由消息传送系统100的用户访问的持续时间。例如,组持续时间参数508可以是音乐会的持续时间,其中,短暂消息组504是属于该音乐会的内容的集合。替选地,当执行短暂消息组504的设置和创建时,用户(拥有用户或策展者用户)可以指定组持续时间参数508的值。
84.另外,短暂消息组504内的每个短暂消息502具有相关联的组参与参数510,组参与参数510的值确定在短暂消息组504的上下文内可访问短暂消息502的持续时间。因此,在短暂消息组504本身根据组持续时间参数508到期之前,特定的短暂消息组504可以“到期”并且在短暂消息组504的上下文中变得不可访问。组持续时间参数508、组参与参数510和消息接收方标识符424各自向组定时器514提供输入,组定时器514可操作地首先确定短暂消息组504的特定短暂消息502是否将被显示给特定接收用户,并且如果是,则确定显示多长时间。注意,作为消息接收方标识符424的结果,短暂消息组504也知道特定接收用户的身份。
85.因此,组定时器514可操作地控制相关联的短暂消息组504以及包括在短暂消息组504中的单独的短暂消息502的总使用期限。在一个实施方式中,短暂消息组504内的每个短暂消息502在由组持续时间参数508指定的时间段内保持可查看和可访问。在另一实施方式中,在短暂消息组504的上下文内,某个短暂消息502可以基于组参与参数510而到期。注意,即使在短暂消息组504的上下文内,消息持续时间参数506也仍然可以确定向接收用户显示特定短暂消息502的持续时间。因此,消息持续时间参数506确定向接收用户显示特定短暂消息502的持续时间,而不管接收用户是在短暂消息组504的上下文之内还是之外查看该短暂消息502。
86.短暂定时器系统202还可以基于确定已经超过相关联的组参与参数510而从短暂消息组504中可操作地移除特定的短暂消息502。例如,当发送用户已经建立了从发布起24小时的组参与参数510时,短暂定时器系统202将在指定的24小时之后从短暂消息组504中移除相关的短暂消息502。当针对短暂消息组504内的每个短暂消息502的组参与参数510已经到期时,或者当短暂消息组504本身根据组持续时间参数508已经到期时,短暂定时器系统202还进行操作以移除短暂消息组504。
87.在某些使用情况下,特定短暂消息组504的创建者可以指定无期限的组持续时间参数508。在这种情况下,针对短暂消息组504内最后剩余的短暂消息502的组参与参数510的到期将确定短暂消息组504本身何时到期。在这种情况下,添加至短暂消息组504的具有新的组参与参数510的新的短暂消息502有效地将短暂消息组504的寿命延长到等于组参与参数510的值。
88.响应于短暂定时器系统202确定短暂消息组504已经到期(例如,不再是可访问的),短暂定时器系统202与消息传送系统100(并且例如特别是消息传送客户端应用104)通信,以使得与相关短暂消息组504相关联的标记(例如,图标)不再显示在消息传送客户端应用104的用户界面内。类似地,当短暂定时器系统202确定针对特定短暂消息502的消息持续时间参数506已经到期时,短暂定时器系统202使消息传送客户端应用104不再显示与短暂
消息502相关联的标记(例如,图标或文本标识)。
89.如上所述,媒体叠加诸如lenses、叠加、图像变换、ar图像和类似术语是指可以对视频或图像进行的修改。这包括实时修改,实时修改在使用设备传感器捕获图像时修改该图像,并且然后将具有修改的图像显示在设备的屏幕上。这还包括对所存储的内容、例如库中可以被修改的视频剪辑的修改。例如,在访问多个媒体叠加(例如,lenses)的设备中,用户可以使用具有多个lenses的单个视频剪辑来查看不同的lenses将如何修改所存储的剪辑。例如,通过为同一内容选择不同的lenses,可以将应用不同伪随机运动模型的多个lenses应用于同一内容。类似地,实时视频捕获可以与示出的修改一起使用,以显示当前由设备的传感器捕获的视频图像将如何修改所捕获的数据。这样的数据可以简单地显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并存储在存储器中。在一些系统中,预览功能可以同时在显示器的不同窗口中示出不同lenses看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
90.数据和使用lenses或其他这样的变换系统来使用该数据来修改内容的的各种系统因此可以涉及:对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测;在这样的对象离开视频帧中的视场、进入视频帧中的视场以及在视频帧中的视场四处移动时对这样的对象的跟踪;以及在这样的对象被跟踪时对这样的对象的修改或变换。在各种实施方式中,可以使用用于实现这样的变换的不同方法。例如,一些实施方式可能涉及生成一个或更多个对象的三维网格模型,并使用视频中模型的变换和动画纹理来实现变换。在其他实施方式中,对象上的点的跟踪可以用于将图像或纹理(其可以是二维或三维的)放置在所跟踪的定位处。在更进一步的实施方式中,可以使用视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,镜头(lens)数据既涉及用于创建内容变换的图像、模型和纹理,也涉及通过对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
91.可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。此外,可以使用计算机动画模型来处理任何对象,例如人的面部和人身体的各部分、动物或非生物,例如椅子、汽车或其他对象。
92.在一些实施方式中,当与要变换的内容一起选择特定的修改时,由计算设备识别要变换的元素,并且然后在要变换的元素存在于视频的帧中的情况下对要变换的元素进行检测和跟踪。根据修改请求修改对象的元素,因此变换视频流的帧。可以通过用于不同种类的变换的不同方法来执行视频流的帧的变换。例如,对于主要涉及改变对象元素形式的帧变换,计算对象的元素中的每一个的特征点(例如,使用主动形状模型(asm)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特征点的网格。该网格用于跟踪视频流中的对象元素的后续阶段。在跟踪过程中,所提及的每个元素的网格与每个元素的定位对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一点的第一集合,并且基于第一点的集合和修改的请求针对每个元素生成第二点的集合。然后,可以通过基于第一点的集合和第二点的集合以及网格修改对象的元素,对视频流的帧进行变换。在
这样的方法中,也可以通过跟踪和修改背景来使经修改的对象的背景改变或变形。
93.在一个或更多个实施方式中,可以通过计算对象的每个元素的特征点并基于所计算的特征点生成网格,来执行使用对象的元素的改变对象的一些区域的变换。在网格上生成点,并且然后生成基于点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的定位对准来跟踪对象的元素,并且可以基于修改的请求来修改区域的属性,从而变换视频流的帧。根据具体的修改请求,所提及的区域的属性可以以不同的方式进行变换。这样的修改可能涉及:改变区域的颜色;从视频流的帧中去除区域的至少一些部分;将一个或更多个新对象包括在基于修改请求的区域中;以及修改区域或对象的元素或使区域或对象的元素变形。在各种实施方式中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特征点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
94.在使用面部检测来变换图像数据的计算机动画模型的一些实施方式中,使用特定的面部检测算法(例如,viola-jones)在图像上检测面部。然后,将主动形状模型(asm)算法应用于图像的面部区域以检测面部特征参考点。
95.在其他实施方式中,可以使用其他适合面部检测的方法和算法。例如,在一些实施方式中,使用界标来定位特征,该界标表示存在于所考虑的大多数图像中的可区分点。例如,对于面部界标,可以使用左眼瞳孔的位置。在初始界标不可识别的情况下(例如,如果人有眼罩),可以使用次级界标。这样的界标识别过程可以用于任何这样的对象。在一些实施方式中,界标的集合形成形状。可以使用形状中的点的坐标将形状表示为矢量。一个形状利用相似性变换(允许平移、缩放和旋转)与另一个形状对准,该相似性变换使形状点之间的平均欧几里德距离最小化。平均形状是对准的训练形状的均值。
96.在一些实施方式中,开始从与由全局面部检测器确定的面部的位置和尺寸对准的平均形状中搜索界标。然后,这样的搜索重复以下操作的步骤:通过每个点周围的图像纹理的模板匹配来调整形状点的定位来建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些系统中,单个模板匹配是不可靠的,并且形状模型将弱模板匹配器的结果集中在一起,形成更强的整体分类器。整个搜索在从粗分辨率到细分辨率的图像金字塔的每个级别上重复。
97.变换系统的实施方式可以在客户端设备上捕获图像或视频流,并在客户端设备例如客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状改变、情绪迁移(例如,将面部从皱眉改变为微笑)、状态迁移(例如,使被摄体变老、减小表观年龄、改变性别)、风格迁移、图形元素应用、以及由已经被配置成在客户端设备上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
98.在一些示例实施方式中,用于变换图像数据的计算机动画模型可以由系统使用,在该系统中,用户可以使用具有神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍),该神经网络操作为在客户端设备102上操作的消息传送客户端应用104的一部分。在消息传送客户端应用104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与计算机动画模型相关联的修改图标以变换图像数据,或者计算机动画模型可以与本文中描述的接口相关联地存在。修改图标包括可以作为用于作为修改操作的一部分的修改
图像或视频流中的用户面部的基础的改变。一旦选择了修改图标,变换系统就启动用于转换用户的图像的处理以反映所选择的修改图标(例如,对用户生成笑脸)。在一些实施方式中,一旦捕获了图像或视频流并且选择了指定的修改,就可以在移动客户端设备上显示的图形用户界面中呈现修改后的图像或视频流。变换系统可以对图像或视频流的一部分实施复杂的卷积神经网络,以生成并应用所选择的修改。也就是说,一旦选择了修改图标,用户可以捕获图像或视频流,并且实时或接近实时地被呈现修改的结果。此外,当视频流被捕获并且所选修改图标保持打开时,修改可以是持续的。机器教导的神经网络可以用于实现这样的修改。
99.在一些实施方式中,呈现由变换系统执行的修改的图形用户界面可以为用户供应附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的内容捕获和选择的接口(例如,来自内容创建者用户接口的发起)。在各种实施方式中,修改可以在修改图标的初始选择之后持续。用户可以通过轻击或以其他方式选择由变换系统修改的面部来打开或关闭修改,并将其存储以供以后查看或浏览到成像应用的其他区域。在由变换系统修改多个面部的情况下,用户可以通过敲击或选择在图形用户界面内修改和显示的单个面部来全局打开或关闭修改。在一些实施方式中,可以通过敲击或选择图形用户界面内显示的单独面部或一系列单独面部来单独修改一组多个面部当中的各个面部,或者单独打开这样的修改。
100.在一些示例实施方式中,提供了图形处理流水线架构,其使得能够在对应的不同层中应用不同的媒体叠加。这样的图形处理流水线提供了可扩展渲染引擎,所述可扩展渲染引擎用于提供复合媒体(例如,图像或视频)中包括的多个增强现实内容生成器以由消息传送客户端应用104(或消息传送系统100)呈现。
101.如本文所讨论的,本主题基础结构支持在消息传送系统100的各个部件中创建和共享具有交互效果的交互消息。在示例中,为了提供这样的交互效果,给定的交互消息可以包括图像数据以及2d数据或3d数据。因此,如本文所讨论的,具有2d数据(例如,没有深度数据)的交互式消息可以被简单地称为“交互消息”,而具有3d数据(例如,深度数据)的消息在本文中可以被称为“3d消息”或“具有3d数据的交互消息”。如本文所述的基础设施使得能够跨主题系统提供其他形式的3d且交互式的媒体(例如,可以不使用深度数据的2d媒体内容),这允许跨消息传送系统100以及与照片和视频消息一起共享这样的交互式媒体。在本文描述的示例实施方式中,消息可以从实时摄像装置或经由存储装置(例如,具有2d或3d内容或增强现实(ar)效果(例如,使用深度数据的3d效果或者可以不使用深度数据的其他交互效果)的消息被存储在内存器或数据库中)进入系统。在具有3d数据的交互消息的示例中,主题系统会支持运动传感器输入,并且管理深度数据的发送和存储、以及外部效果和资产数据的加载。
102.如上所述,交互消息包括结合2d效果的图像,并且具有3d数据的交互消息包括结合3d效果和深度数据的图像。在示例实施方式中,除了常规的图像纹理之外,还使用本主题系统来渲染消息以使摄像装置所看到的空间细节/几何形状可视化。当观看者通过使客户端设备移动与该消息交互时,该运动触发被渲染的图像和几何形状的观看者视角的相应改变。
103.在实施方式中,主题系统提供以下ar效果(其可以包括使用深度数据的3d效果或
者不使用深度数据的交互式2d效果):其与系统的其他部件一起工作以提供可以占据消息中的不同深度平面的3d几何形状、粒子、着色器和2d资产。在示例中,这使得本主题系统能够通过改变这样的消息中的资产的物理放置和视觉外观来提供具有遮挡并且响应(例如,如通过运动传感器数据所检测的)用户的交互的增强现实内容生成器和效果。在示例中,本文描述的ar效果以实时方式渲染给用户,这也使得不同的粒子和层能够针对观看这样的粒子和层的每个用户被放置在不同定位处。
104.如本文所讨论的,2d附件或3d附件指的是可以以与附加到镜头类似的方式附加到3d效果的图像(例如,子画面(sprite))或几何形状。
105.如本文所讨论的,面部效果是指美化、面部修饰、拉伸以及可以应用于包含面部的图像以便通过镜头和/或其他增强现实内容生成器来使面部变形或美化(例如,提供增强现实体验)的其他效果。
106.这样的美化操作的一个示例包括面部修饰,其包括多个特征以修饰用户的面部,例如柔化皮肤、牙齿增白、眼睛锐化和眼睛增白。美化操作的另一示例包括使得能够拉伸用户面部的点的面部拉伸效果。美化操作的又一示例包括改变用户眼睛的颜色和/或产生眼睛反光。美化操作的另一示例包括球形扭曲面部的面部液化效果。美化操作的另一示例包括将面部的特征(例如,眼睛)映射到面部的其他区域的面部嵌入效果。可以理解,其他类型的美化技术也是可构想的并且在本主题系统的范围内。
107.美化操作可以修改图像数据以增加皮肤平滑度,调整照明,并且修改面部图像数据中的颜色。实现之前提及的图像效果的示例方法包括使用肖像分割、肖像融合、颜色校正、高斯混合模型(gmm)、高斯滤波器、贝叶斯分割、肤色检测、双边滤波器、hsv颜色描述符、小波变换、梯度域图像处理、泊松图像克隆、lee滤波器、边缘保留平滑滤波器、模糊、降噪、瑕疵去除、特征检测和提取等。本主题技术可以利用其他方法来执行给定的美化操作。例如,机器学习模型例如卷积神经网络、生成式对抗网络等可以应用于美化操作。这样的机器学习模型可以用于保留面部特征结构、平滑瑕疵或去除皱纹,或者保留面部图像数据中的面部皮肤纹理。
108.如本文所提及的,基于陀螺仪的交互指的是其中给定客户端设备的旋转被用作输入以改变效果的方面(例如,沿x轴旋转电话以便改变场景中的光的颜色)的交互类型。
109.如本文所提及的,3d增强现实内容生成器指的是可以添加至消息的实时特殊效果和/或声音,并且利用ar效果和/或其他3d内容(例如3d动画图形元素)等来修改图像和/或深度数据。
110.在实施方式中,当用户开始捕获具有3d内容的消息(例如,3d消息)时,主题系统使用基于深度信息和摄像装置图像生成的网格来应用捆绑或动态深度效果镜头。
111.在实施方式中,存在用于重新创建交互消息(例如,具有2d数据或3d数据)以供查看的两个示例场景:
112.发送:当发送交互消息(例如,具有2d数据或3d数据)时,发送方生成一些资产,这些资产伴随具有图像数据的消息。这些资产与原始输入不同,而是为了捕获ar内容处理的结果而由发送方ar内容生成器生成的资产。
113.存储交互信息:当存储交互信息时,主题系统使得用户能够从“零”重新创建ar效果并切换到不同的ar效果。为了实现这一点,主题系统存储原始输入,这使得系统能够再次
从“零”开始。
114.以下讨论涉及根据一些实施方式的结合这样的消息存储的示例数据。
115.图6是示出根据一些实施方式的由消息传送客户端应用104生成的包括对应于给定消息的附加信息的如上面在图4中所描述的消息注释412的结构的示意图。在实施方式中,包括图6所示的附加数据的特定消息400的内容被用于填充存储在数据库120内的用于给定消息的消息表314,该数据库120然后可由消息传送服务器应用114和/或消息传送客户端应用104访问。如示例实施方式中所示,消息注释412包括对应于消息的数据的以下部件:
116.●
增强现实内容生成器标识符652:消息中使用的增强现实内容生成器(例如,动画和/或效果,包括3d效果、lenses、过滤器等)的标识符
117.●
消息标识符654:消息的标识符
118.●
资产标识符656:消息中资产的标识符的集合。例如,可以针对由特定3d增强现实内容生成器确定的多个资产包括相应的资产标识符。在实施方式中,这样的资产由发送方侧的3d增强现实内容生成器创建,上传到消息传送服务器应用114,并且由接收方侧的3d增强现实内容生成器使用,以便重新创建消息。典型资产的示例包括:
119.●
原始输入数据657:
120.○
由摄像装置捕获的原始静态rgb图像
121.○
组合的深度图和肖像分割掩码,肖像分割掩码提供与其背景分离的用户的3d捕获。在一实施方式中并在本文中进一步描述,这是由3d增强现实内容生成器中的渲染通道根据由设备摄像装置提供的原始深度数据和肖像分割掩码而生成的,可以将其打包成多通道图像(例如,rgb通道与alpha通道)以用于传输。
122.○
置于3d用户捕获后的模糊背景图像。在实施方式中,这是由镜头中的渲染通路利用肖像分割掩码来执行用户背后的图像内容的修复而生成的。
123.○
3d深度数据(下文进一步提及)
124.○
肖像分割掩码(下文进一步提及)
125.●
深度数据658:原始深度数据(例如,具有16位的640
×
360)和/或深度图
126.●
掩码数据660:与基于原始深度数据和/或深度图的肖像分割掩码相对应的数据
127.●
对应于附加元数据的元数据662,包括但不限于以下:
128.○
附加到摄像装置图像元数据的消息元数据
129.■
摄像装置内部数据
130.●
焦距
131.●
主点
132.■
摄像装置外部数据
133.●
指示两个摄像装置之间的旋转的四元数
134.●
两个摄像装置之间的平移
135.■
其他摄像装置信息(例如,摄像装置定位)
136.○
指示消息具有深度的媒体特质
137.○
与增强现实内容生成器相对应的增强现实内容生成器资产元数据
138.○
与增强现实内容生成器标识符652对应的增强现实内容生成器相关联的其他附加元数据,例如:
139.■
增强现实内容生成器类别:对应于特定增强现实内容生成器的类型或分类
140.■
增强现实内容生成器传送带索引(或下文进一步讨论的其他界面)
141.○
传感器信息:由客户端设备102的传感器提供的任何信息,包括但不限于以下示例:
142.■
陀螺仪传感器数据
143.■
定位传感器数据
144.■
加速计传感器数据
145.■
其他传感器数据
146.■
位置传感器数据
147.尽管图6中未示出,在示例实施方式中,给定消息还包括以下数据(例如,如之前结合图4所描述的):1)占位符2d图像(例如,带有与ar效果对应的信息的2d照片),以及2)应用于消息的标准2d叠加(例如,基于地理位置的过滤器、贴纸、字幕等)。因此,在实施方式中,消息包括占位符图像,该占位符图像包括对应于镜头的配置数据(例如,摄像装置内部数据、附加对象定位)的元数据以及结合消息对存储的资产的引用。
148.在示例中,用户能够从多个增强现实内容生成器中进行选择,这导致由摄像装置提供的原始数据的不同视觉处理。在示例中,在消息传送客户端应用104中选择了增强现实内容生成器(其涉及3d数据)之后,摄像装置捕获原始深度数据和摄像装置图像。在示例中,该原始数据被提供给用于渲染包括深度数据的消息的视图的部件。另外,在实施方式中,消息传送客户端应用104(或其部件)利用该原始数据来生成肖像分割掩码。然而,在给定的增强现实内容生成器不使用3d效果或3d数据并且是交互的情况下,摄像装置可以捕获一个图像或多个图像来渲染消息(例如,不具有上述深度数据)的视图。
149.在示例中,根据客户端设备相对于观看用户的相对定位,考虑到定位的改变,可以更新3d效果以呈现在客户端设备的显示器上。例如,如果客户端设备的显示器以特定方式倾斜到第一定位,则可以渲染出并提供一个3d效果集以用于显示,并且当客户端设备移动到不同定位时,可以渲染出第二3d效果集以更新图像并指示观看视角的改变,这向观看用户提供了更多的3d观看体验。
150.以下示例由给定客户端设备执行,作为至少使用由客户端设备的摄像装置提供的原始输入数据(例如,图像数据和深度数据)来生成给定3d消息的一部分。
151.在第一示例中,由给定客户端设备(例如,客户端设备102)基于由客户端设备的摄像装置捕获的原始数据生成原始深度图。这样的原始数据可以包括来自摄像装置的图像数据(例如照片图像)和深度数据。在示例中,客户端设备将单通道浮点纹理变换为原始深度图,所述原始深度图允许处理的多次通过而不损失精度。客户端设备可以将单通道浮点纹理扩展(例如,发送或变换数据的部分)为多个较低精度通道,其在第二示例中示出为压缩深度图。在实施方式中,原始深度图和压缩深度图具有比由客户端设备的摄像装置捕获的原始图像数据的分辨率更低的分辨率(例如,更少数量的总像素)。
152.客户端设备执行操作以将给定图像中具有给定对象(例如,用户的肖像)的前景与同一图像中的背景分离。在实施方式中,客户端设备至少使用上述原始深度图或压缩深度图来生成分割掩码。可替选地,在示例中,当客户端设备的能力包括生成分割掩码作为图像捕获过程的一部分时,分割掩码可以被包括在由摄像装置捕获的原始数据中。
153.客户端设备使用分割掩码执行基于扩散的修复技术以从图像中的背景中去除前景对象,从而生成背景修复图像(例如,没有前景对象)。在示例中,基于扩散的修复技术试图通过将图像内容从边界传播到缺失区域的内部来填充缺失区域(例如,前景对象)。以这种方式去除前景对象是有利的,至少是因为在渲染3d消息之后,当客户端设备的摄像装置移动时,有可能在前景对象未被去除时(例如,当不执行上述操作时)在背景中看到对象的图像(的部分)的“重影”(例如,导致不期望的视觉效果)。
154.此外,在渲染3d消息之后,当客户端设备被移动并且在图像的具有(大的)深度变化的区域中(例如,在与用户面部的一侧的一部分相对应的前景与背景之间),如果没有如本文所描述的那样执行分割掩码和修复技术,则拉伸伪影可能出现在具有用户面部的图像的部分中,并且用户面部或头部的边界可能在图像的前景与背景之间出现模糊。此外,在不执行本文中所描述的技术的情况下,当移动客户端设备时,图像的前景与背景之间的硬(例如,视觉上明显的)边界可能表现为不期望的视觉效果,从而使图像看起来更虚假、不真实、失真和夸张。
155.在实施方式中,客户端设备使用深度修复掩码执行相同的基于扩散的修复技术(例如,如上文针对背景修复所讨论的)以扩展深度图(例如,压缩深度图)的前景边界。如第一示例所示,至少使用深度图来生成深度修复掩码。在示例中,可以使用应用于深度图的方法来确定深度修复掩码,所述方法包含边界检测和机器学习技术,例如执行深度图中的每一像素的分类的深度卷积神经网络、用于分割的编码器-解码器架构、完全卷积网络、特征映射、去卷积网络、无监督特征学习等。
156.在第二示例中,图像数据(例如,修复后的深度图)包括使用深度修复掩码对深度图进行修复的结果。在示例中,这被执行以改善毛发、耳朵或肩部的外观(例如,更准确地渲染)。如之前所提及的,深度图可以具有比图像数据(例如,rbg图像)的分辨率更低的分辨率,并且应用于深度图的3d效果或图像处理操作可能受到较低分辨率的限制。为了更好地保留诸如毛发的精细细节,由本主题技术提供之前提及的深度图修复技术。通过使用深度图和深度修复掩码,客户端设备可以确定并填充图像的特定区域(例如,具有缺失或不良数据的区域)。
157.在示例中,客户端设备至少部分地基于深度数据来确定深度图,生成与包括面部深度数据的深度图的区域相对应的深度修复掩码;以及至少使用所生成的深度修复掩码来执行深度图的深度图修复。在实施方式中,深度图可以是压缩深度图。
158.在实施方式中,客户端设备通过确定深度图中每个深度像素的邻域周围的平面拟合来生成深度图。这有利于确定光应当如何与表面相互作用,例如以实现有趣的照明效果和美化效果。在示例中,所生成的深度法线图是低分辨率图像,但是可以有效地用于在3d消息中提供这样的效果。在示例中,法线图使用rgb信息(例如,与3d空间中的x、y和z轴相对应),并且客户端设备可以利用rgb信息来针对每个多边形确定表面法线(或“法线”)定向的方向,其中,客户端设备使用所确定的表面法线的定向来确定如何遮蔽多边形。换句话说,法线图是在每个像素处存储方向的图像,并且该方向被称为法线。图像的红色、绿色和蓝色通道可以由客户端设备使用以控制每个像素的法线的方向,并且法线图可以用于模仿低分辨率图像上的高分辨率细节。
159.在示例中,客户端设备生成深度图的法线图,法线图用于将照明效果应用于图像
数据的面部图像数据,并且至少部分地基于法线图将照明效果应用于面部图像数据。在示例中,照明效果包括至少两种不同的颜色,两种不同颜色中的第一颜色被应用于面部图像数据的第一部分,并且两种不同颜色中的第二颜色被应用于面部图像数据的第二图像。
160.客户端设备可以使用所生成的法线图应用美化技术(本文中进一步讨论)、照明效果和其他图像处理技术来产生对3d消息的观看用户而言看起来令人信服且自然的3d效果。客户端设备至少基于涉及所生成的法线图的上述技术来生成后处理的前景图像。
161.客户端设备生成3d消息,该3d消息包括各种资产,例如后处理的前景图像、后处理的深度图、修复后的背景图像和所包括的其他元数据(例如,如前所讨论的)。在实施方式中,3d消息的接收设备可以利用所包括的资产通过生成前景网格和背景网格来渲染3d消息的视图。可以使用后处理的深度图和与摄像装置内部元数据(例如,如前所讨论的镜头信息等)相关的元数据来生成前景网格。可以至少使用修复后的背景图像来生成背景网格。
162.在实施方式中,增强现实内容生成器包括用于生成被上传到消息传送服务器应用114的资产的逻辑以及附加到消息的其他数据(接收方(例如,与客户端设备102不同的客户端设备或当从不同的客户端设备接收时的客户端设备102)需要以重建效果例如视场信息、配置参数等的任何其他东西)。
163.在示例中,发送方(例如,客户端设备102)生成标准2d图像消息,包含由接收方用来重构3d消息的信息的增强现实内容生成器元数据被包括到该标准2d图像消息中。这包括3d消息增强现实内容生成器的id(例如,接收方也下载并执行由发送方使用的同一增强现实内容生成器)、3d消息id(例如,以将所有资产与该特定3d消息相关联)以及由3d增强现实内容生成器本身产生的资产id和配置数据,包括直接嵌入在元数据中的任意结构化数据(例如,数字、文本、矢量和矩阵)以及引用存储在消息传送服务器应用114中的较大资产(例如,图像、视频、3d网格)的任何数量的资产id。
164.在实施方式中,面部数据处理只发生在发送方侧。该处理的结果然后被3d消息增强现实内容生成器存储为配置数据(例如,头部的3d变换被存储为变换矩阵),并且在接收方侧检索和使用该配置数据(例如,接收方不根据原始图像重新处理面部数据)。
165.作为示例,接收方接收标准2d图像消息,但是由于增强现实内容生成器元数据的存在性和内容,接收方基于这样的元数据来重构3d消息。这涉及首先使用3d消息增强现实内容生成器的id来获取3d消息增强现实内容生成器,并且然后获取与3d消息id相关联的所有资产。接收方加载3d消息增强现实内容生成器,并且增强现实内容生成器本身包含用于请求适当的资产和数据并重组3d消息的逻辑。在示例中,3d消息资产将不包括用于执行关于给定媒体叠加的附加处理的信息,因此例如如果在3d消息上已经应用了贴纸(例如,叠加图像),则接收放将接收下面的未模糊的3d消息资产,并且接收方将该贴纸应用为媒体叠加。
166.图7是示出根据某些示例实施方式的注释系统206的各种模块的框图700。注释系统206被示出为包括图像数据和深度数据接收模块702、传感器数据接收模块704、图像数据和深度数据处理模块706、增强现实(ar)效果模块708、渲染模块710和共享模块712。注释系统206的各个模块被配置成(例如,经由总线、共享存储器或交换机)彼此通信。这些模块中的任何一个或更多个模块可以使用一个或更多个计算机处理器720来实现(例如,通过将这样的一个或更多个计算机处理器配置成执行针对该模块描述的功能),并且因此可以包括
计算机处理器720中的一个或更多个(例如,由客户端设备102提供的处理器的集合)。
167.所描述的模块中的任何一个或更多个模块可以单独使用硬件来实现(例如,机器(例如,机器1700)的计算机处理器720中的一个或更多个)或者硬件和软件的组合来实现。例如,注释系统206的任何所描述的模块可以物理地包括被配置成执行本文针对该模块所描述的操作的一个或更多个计算机处理器720(例如,机器(例如,机器1700)的一个或更多个计算机处理器的子集或其中的一个或更多个计算机处理器)的布置。作为另一示例,注释系统206的任何模块可以包括软件、硬件或软件和硬件两者,其将(例如,在机器(例如,机器1700)的一个或更多个计算机处理器中的)一个或更多个计算机处理器720的布置配置成执行本文针对该模块描述的操作。因此,注释系统206的不同模块可以包括并配置这样的计算机处理器720的不同布置或这样的计算机处理器720在不同时间点处的单个布置。此外,注释系统206的任何两个或更多个模块可以被组合成单个模块,并且本文针对单个模块描述的功能可以在多个模块之间细分。此外,根据各种示例实施方式,本文中描述为在单个机器、数据库或设备中实现的模块可以跨多个机器、数据库或设备分布。
168.图像数据和深度数据接收模块702接收由客户端设备102捕获的图像数据和深度数据。例如,图像是由客户端设备102的光学传感器(例如摄像装置)捕获的照片。图像包括一个或更多个真实世界特征,例如在图像中检测到的用户的面部或真实世界对象。在一些实施方式中,图像包括描述该图像的元数据。例如,深度数据包括对应于深度图的数据,深度图包括基于从发光模块发射的指向有着具有不同深度的特征(例如,眼睛、耳朵、鼻子、嘴唇等)的对象(例如,用户的面部)的光线的深度信息。通过示例的方式,深度图类似于图像,但是代替每一像素提供颜色,深度图指示从摄像装置到图像的该部分的距离(例如,就绝对值而言或相对于深度图中的其他像素)。
169.传感器数据接收模块704从客户端设备102接收传感器数据。传感器数据是由客户端设备102的传感器捕获的任何类型的数据。在示例中,传感器数据可以包括由陀螺仪收集的客户端设备102的运动、来自触摸传感器(例如,触摸屏幕)的触摸输入或姿势输入、gps或描述客户端设备102的当前地理位置和/或运动的客户端设备102的另一传感器。作为另一示例,传感器数据可以包括指示如由客户端设备102的传感器检测到的当前温度的温度数据。作为另一示例,传感器数据可以包括指示客户端设备102处于暗环境还是亮环境的光传感器数据。
170.图像数据和深度数据处理模块706对接收到的图像数据和/或深度数据执行操作。例如,由图像数据和深度数据处理模块706执行各种图像处理和/或深度处理操作,这将在本文中进一步讨论。
171.ar效果模块708基于与动画和/或向所接收的图像数据和/或深度数据提供视觉和/或听觉效果相对应的算法或技术来执行各种操作,这将在本文中进一步描述。在一个实施方式中,给定的增强现实内容生成器可以利用ar效果模块708来执行用于渲染ar效果(例如,包括2d效果或使用深度数据的3d效果)等的操作。
172.渲染模块710基于由之前提及的模块中的至少之一提供的数据来执行消息的渲染以由消息传送客户端应用104显示。在示例中,渲染模块710利用图形处理流水线来执行图形操作以渲染消息以供显示。在示例中,渲染模块710实现可扩展的渲染引擎,该渲染引擎支持与各个增强现实内容生成器对应的多个图像处理操作。
173.在一些实现方式中,渲染模块710提供将二维(2d)对象或来自三维(3d)世界(真实或虚构)的对象渲染到2d显示屏上的图形系统。在一些实现方式中,这样的图形系统(例如,包括在客户端设备102上的图形系统)包括图形处理单元(gpu),用于执行图像处理操作和渲染图形元素以进行显示。
174.在实现方式中,gpu包括逻辑图形处理流水线,逻辑图形处理流水线可以接收2d或3d场景的表示且提供表示2d图像的位图的输出以进行显示。现有的应用程序接口(api)已经实现了图形流水线模型。这样的api的示例包括开放图形库(opengl)api和metal api。图形处理流水线包括将一组顶点、纹理、缓冲器和状态信息转换成画面上的图像帧的若干阶段。在实现方式中,图形处理流水线的阶段之一是着色器,着色器可以用作应用于输入帧(例如,图像或视频)的特定增强现实内容生成器的一部分。着色器可以实施为在通常执行若干计算线程的专用处理单元(也称为着色器单元或着色器处理器)上运行的代码,代码被编程以对正在被渲染的片段生成适当等级的颜色和/或特殊效果。例如,顶点着色器处理顶点的特质(定位、纹理坐标、颜色等),并且像素着色器处理像素的特质(纹理值、颜色、z深度和α值)。在一些实例中,像素着色器称为片段着色器。
175.应当理解,可以提供其他类型的着色器处理。在示例中,在图形处理流水线内利用特定采样速率来渲染整个帧,并且/或者以特定每像素速率执行像素着色。以这种方式,给定电子设备(例如,客户端设备102)操作图形处理流水线以将与对象对应的信息变换成可以由电子设备显示的位图。
176.共享模块712生成用于存储和/或发送至消息传送服务器系统108的消息。共享模块712使得能够向消息传送服务器系统108的其他用户和/或客户端设备共享消息。
177.在实施方式中,增强现实内容生成器模块714使得可选图形项的显示以传送带式布置呈现。作为示例,用户可以利用各种输入来以与提供图形项的循环视图的传送带对应的方式将可选图形项旋转到显示屏幕上以及旋转离开显示屏幕。传送带布置允许多个图形项占据显示屏上的特定图形区域。在示例中,增强现实内容生成器可以被组织成相应的组以包括在传送带布置上,从而使得能够按组旋转通过增强现实内容生成器。
178.在给定的消息中,可以使用本文描述的实施方式来捕获对象或场景的3d模型。这样的3d模型可以与增强现实内容生成器例如(lenses和ar效果)组合,并且在本主题系统内共享,从而为观看者提供附加的交互性元素。
179.在本文描述的实施方式中,通过使用深度数据和图像数据,可以执行将z轴维度(例如,深度维度)添加到常规2d照片(例如,x轴和y轴维度)的3d面部和场景重构。该格式使得观看者能够与消息交互,改变由本主题系统渲染消息的角度/视角,并且影响在渲染消息中使用的粒子和着色器。
180.在示例中,观看者交互输入来自在观看消息时的运动(例如,来自向观看者显示消息的设备的运动传感器),该运动又被转化成内容、粒子和着色器如何被渲染的视角的改变。交互还可以来自屏幕上触摸姿势和其他设备运动。
181.图8示出了根据一些实施方式的描绘用于选择增强现实内容生成器并将其应用于媒体内容(例如,图像或视频)的传送带以及在消息传送客户端应用104(或消息传送系统100)中呈现所应用的增强现实内容生成器的示例用户界面。
182.在这样的用户界面的实施方式中,可以以传送带布置来呈现可选图形项850,在传
送带布置中,可选图形项850的一部分或子集在给定计算设备(例如,客户端设备102)的显示屏幕上可见。作为示例,用户可以利用各种输入来以与提供图形项的循环视图的传送带对应的方式将可选图形项旋转到显示屏幕上以及旋转离开显示屏幕。因此,在用户界面中提供的传送带布置允许多个图形项占据显示屏幕上的特定图形区域。
183.在示例中,对应于不同ar内容生成器的相应ar体验可以被组织成相应的组以包括在传送带布置上,从而使得能够按组旋转通过媒体叠加。尽管提供了传送带界面作为示例,但是可以理解,也可以使用其他图形界面。例如,一组增强现实内容生成器可以包括图形列表、滚动列表、滚动图形或者使得能够通过各种图形项导航以进行选择的另一图形界面等。如本文所使用的,传送带界面是指以类似于环形列表的布置显示图形项,从而使得能够基于用户输入(例如,触摸或姿势)通过环形列表进行导航以选择或滚动通过图形项。在示例中,可以在水平(或竖直)线或轴上呈现图形项的集合,其中,每个图形项被表示为特定缩略图像(或图标、化身等)。在任何一个时刻,传送带界面中的一些图形项可以被隐藏。如果用户想要查看隐藏的图形项,则在示例中,用户可以提供用户输入(例如,触摸、姿势等)以在特定方向(例如,左、右、上或下等)上滚动通过图形项。之后,显示传送带界面的后续视图,其中,动画被提供或渲染以呈现用于包括在界面上的一个或更多个附加图形项,并且其中,先前呈现的图形项中的一些可以隐藏在该后续视图中。在实施方式中,以这种方式,用户可以以环形方式来回导航通过图形项的集合。因此,可以理解,传送带界面可以通过在循环视图中只显示来自图形项的集合的图像的子集来优化屏幕空间。
184.如本文所描述的,增强现实内容生成器可以被包括在传送带布置(或如上所讨论的另一界面)上,从而使得能够旋转通过增强现实内容生成器。此外,可以基于包括例如时间、日期、地理位置、与媒体内容相关联的元数据等的各种信号来选择增强现实内容生成器以包括在内。在图8的用户界面的传送带布置示例中,从由本主题系统提供的可用增强现实内容生成器中选择相应的增强现实内容生成器。
185.在以下讨论中,可选图形项对应于应用于媒体内容的相应的增强现实内容生成器。如用户界面800所示,对应于传送带布置的可选图形项850包括电子设备(例如,客户端设备102)的显示屏幕中的可选图形项851。例如,经由客户端设备102的触摸屏幕接收滑动姿势,并且响应于接收到该滑动姿势,启用通过可选图形项的导航,以便于选择特定增强现实内容生成器。可选图形项851由用户经由触摸输入(例如,轻击或者通过在姿势结束时的触摸释放)来选择。在该示例中,可选图形项851对应于包括ar效果的特定增强现实内容生成器。
186.在图8的第二示例中,在选择可选图形项851时,ar效果860、ar效果862和ar效果864被渲染以在客户端设备102上显示。在该示例中,ar效果860是基于粒子的效果,其响应于观看者的电子设备(例如,客户端设备102)上的传感器信息(例如,陀螺仪数据等)而在空间上渲染并移动。ar效果862可以包括滤色和着色器效果,其也可以响应于传感器信息而移动。ar效果864包括3d附件(例如,玫瑰头带)。滤色的示例包括日光效果,其与对应于创建消息的位置的一天中的时间匹配(例如,基于包括在消息中的位置元数据)。着色器效果的示例包括但不限于以下:
187.●
液体围绕屏幕移动
188.●
微光效果
189.●
绽放效果
190.●
虹彩效果
191.●
基于运动改变背景。
192.在图8的第三示例中,用户在用户界面800中的ar效果870和ar效果872的显示中提供客户端设备102的运动。在该示例中,ar效果870、ar效果872和ar效果874分别是在第二示例中讨论的ar效果860、ar效果862和ar效果864的不同版本。ar效果870、ar效果872和ar效果874已经响应于客户端设备102的运动(例如,来自陀螺仪传感器的运动数据)而被渲染用于显示,并且之前提及的ar效果的视图响应于新接收到的运动数据而被更新(例如,重新渲染),所述新接收到的运动数据可以改变观看者正在观看的场景的视角。例如,粒子、滤色和/或3d附件响应于运动数据而改变。
193.在实现方式中,之前提及的ar效果和对应的元数据被包括在消息中,该消息可以被提供(例如,共享)给消息传送系统100的另一用户。该另一用户可以接收该消息,并且在被访问时查看消息以在接收客户端设备上显示。接收客户端设备使用与以上图7中描述的部件类似或相同的部件来渲染ar效果以用于如在所接收的消息中指定的那样显示。此外,该另一用户可以向接收客户端设备提供运动,作为响应,接收客户端设备发起ar效果的重新渲染,其中,观看者正在观看的场景的视角基于所提供的运动而改变。
194.图9示出了ar效果的示例,该ar效果示出了被渲染以在客户端设备上显示的粒子和多个帧。可以理解,可以提供示例ar效果以连同生成消息一起作为预览在发送方的客户端设备上显示或在接收方的客户端设备上显示(例如,在接收到由发送方创建的消息之后)。
195.在图9的第一示例中,提供在给定客户端设备上显示的ar效果910和ar效果920的视图900。例如,ar效果910提供在客户端设备的屏幕上被动画化的粒子和/或子画面。同样如所示,ar效果920对与用户嘴部对应的图像部分进行放大。
196.在第二示例中,提供在给定客户端设备上显示的ar效果960和ar效果970的视图950。例如,ar效果960在用户的图像周围提供第一框或形状(例如,矩形),同时还在框的边界周围提供动画颜色效果。同样如所示,ar效果970在用户的第二图像周围提供第二框或形状(例如,第二矩形)(并且使第一框的一部分模糊),同时还在框的边界周围提供动画颜色效果。
197.图10示出了ar效果的示例,该ar效果示出了被渲染以在客户端设备上显示的相应3d变换(例如,波纹或漩涡)。可以理解,可以提供连同生成消息一起作为预览在发送方的客户端设备上或在接收方的客户端设备上显示(例如,在接收到由发送方创建的消息之后)的示例ar效果。
198.在图10的第一示例中,提供在给定客户端设备上显示的ar效果1010的视图1000。例如,ar效果1010提供3d变换效果,该3d变换效果涉及动画子画面连同使用户的面部变形的半透明漩涡效果,其随着时间的推移在客户端设备的屏幕上被动画化。
199.在图10的第二示例中,提供在随后的时间在给定的客户端设备上显示的ar效果1010的视图1050。在图10的第三示例中,提供在随后的第二时间显示的ar效果1010的视图1070。
200.图11示出了ar效果的示例,该ar效果示出了被渲染以在客户端设备上显示的对动
画3d对象的相应3d变换(例如,波纹或漩涡)。可以理解,可以提供连同生成消息一起作为预览在发送方的客户端设备上或在接收方的客户端设备上显示(例如,在接收到由发送方创建的消息之后)的示例ar效果。
201.在图11的第一示例中,提供在给定客户端设备上显示的ar效果1010的视图1100。例如,ar效果1110提供涉及使用户的面部变形的旋涡效果(其被渲染在3d对象的表面上)的3d变换效果,并且随着时间的推移在客户端设备的屏幕上被动画化。
202.在图11的第二示例中,提供在随后的时间在给定的客户端设备上显示的ar效果1110的视图1120。在图11的第三示例中,提供在随后的第二时间显示的ar效果1110的视图1130。在图11的第四示例中,提供在随后的第三时间显示的ar效果1110的视图1140。从示例中的每一个可以看出,3d对象被示出为作为动画的不同部分的各种定位。
203.本文所述的包含在给定消息中的ar效果的实施方式可以包括基于各种信号和其他因素的交互特征(例如,由ar效果模块708和/或渲染模块710支持的),所述交互特征在由接收设备查看时可以修改给定消息的呈现。
204.图12是示出根据某些示例实施方式的用于提供用于选择具有3d效果的特定增强现实内容生成器的传送带界面的方法1200的流程图。方法1200可以包含在计算机可读指令中,所述计算机可读指令用于由一个或更多个计算机处理器执行,使得方法1200的操作可以由消息传送客户端应用104——特别是针对上面在图7中描述的注释系统206的各个部件——部分地或整体地执行;因此,以下通过参考其示例的方式来描述方法1200。然而,应当理解,方法1200的至少一些操作可以被部署在各种其他硬件配置上,并且方法1200不旨在限于消息传送客户端应用104。
205.在操作1202处,增强现实内容生成器模块714从可用的增强现实内容生成器中选择增强现实内容生成器的集合。在示例中,所选择的增强现实内容生成器的集合包括用于应用三维(3d)效果的至少一个增强现实内容生成器。
206.在操作1204处,增强现实内容生成器模块714使显示包括可选图形项的传送带界面(例如,如之前所讨论的用户界面800)。可选图形项中的每个可选图形项对应于增强现实内容生成器的集合中的相应的增强现实内容生成器。
207.在操作1206处,增强现实内容生成器模块714在客户端设备(例如,客户端设备102)处接收对来自可选图形项中的第一可选图形项的选择。在实施方式中,第一可选图形项是用于应用第一3d效果的第一增强现实内容生成器。
208.为了应用第一3d效果,图像数据和深度数据接收模块702可以接收由客户端设备102的光学传感器(例如,摄像装置)捕获的图像数据和深度数据。在示例中,在选择了第一增强现实内容生成器时,由客户端设备提供的摄像装置开始捕捉原始深度数据以及图像数据。
209.在操作1208处,ar效果模块708将所选择的包括3d效果的增强现实内容生成器应用于第一图像数据和/或第一深度数据(例如,前述捕获的深度数据和图像数据)。在示例中,所选择的增强现实内容生成器包括能够基于3d效果处理图像数据和/或深度数据的逻辑。
210.在实施方式中,将第一增强现实内容生成器应用于第一图像数据生成第二图像数据。因此,可以通过在示例中将第一增强现实内容生成器应用于第一图像数据来完成渲染
第二图像数据。此外,ar效果模块708使显示经渲染的第二图像数据,其中,经渲染的第二图像数据可以包括如本文所讨论的交互式3d效果。
211.在操作1210处,共享模块712生成包括向第一图像数据和第一深度数据应用的第一增强现实内容生成器(具有ar效果)的消息。如之前所讨论的,消息可以包括图6和/或图4中描述的信息,这使得消息的观看者在接收到消息时能够对消息进行重构和渲染。
212.在实施方式中,共享模块712将生成的消息存储在或发送至消息传送服务器系统108。在示例中,消息传送客户端应用104将消息发送至消息传送服务器系统108,这使得消息能够被存储和/或稍后由消息的特定接收方或观看者观看。
213.图13是示出根据某些示例实施方式的用于渲染消息视图的方法1300的流程图。方法1300可以包含在计算机可读指令中,所述计算机可读指令用于由一个或更多个计算机处理器执行,使得方法1300的操作可以由消息传送客户端应用104——特别是针对上面在图7中描述的注释系统206的各个部件——部分地或整体地执行;因此,以下通过参考其示例的方式来描述方法1300。然而,应当理解,方法1300的至少一些操作可以被部署在各种其他硬件配置上,并且方法1300不旨在限于消息传送客户端应用104。在至少一个实施方式中,方法1300可以结合上述方法1200来执行。
214.在操作1302处,图像数据和深度数据接收模块702接收由客户端设备102的光学传感器(例如,摄像装置)捕获的图像数据和深度数据。在示例中,为了创建消息,用户在如之前讨论的在消息传送客户端应用104中提供的传送带界面中选择增强现实内容生成器,这使得摄像装置捕获原始深度数据和摄像装置图像。
215.在操作1304处,ar效果模块708选择3d效果。在示例中,可以基于与如例如消息传送客户端应用104的用户界面(例如,图8中描述的传送带界面)中所提供的增强现实内容生成器的选择对应的用户输入来选择3d效果。
216.在操作1306处,ar效果模块708将所选择的3d效果应用于图像数据和/或深度数据。在示例中,所选择的3d效果包括使得能够处理图像数据和/或深度数据的逻辑。
217.在操作1308处,渲染模块710使用所应用的3d效果来渲染消息的视图。在示例中,渲染模块基于所应用的3d效果来提供由消息传送客户端应用104显示的消息的视图。如本文进一步描述的,消息的观看者可以提供附加输入(例如,运动数据和/或触摸输入),这使得消息响应于这样的输入而被更新和重新渲染。
218.在实施方式中,在接收到给定消息的场景中(例如,通过发送方将消息共享给接收方),可以执行在操作1302至操作1308中描述的类似操作以便渲染接收到的消息的视图。
219.图14是示出根据一些示例实施方式的执行用于处理图像数据和深度数据的转换通路的方法1400的流程图,该方法1400可以结合如上所述的方法1200和/或方法1300来执行。方法1400可以包含在计算机可读指令中,所述计算机可读指令用于由一个或更多个计算机处理器执行,使得方法1400的操作可以由消息传送客户端应用104——特别是针对上面在图7中描述的注释系统206的各个部件——部分地或整体地执行;因此,以下通过参考其示例的方式来描述方法1400。然而,应当理解,方法1400的至少一些操作可以被部署在各种其他硬件配置上,并且方法1400不旨在限于消息传送客户端应用104。
220.在操作1402处,图像数据和深度数据接收模块702接收由客户端设备102的光学传感器(例如,摄像装置)捕获的图像数据和深度数据。在示例中,深度数据包括对应于图像数
据的深度图。在实施方式中,如果图像数据的高度超过特定大小(例如,2048像素),则调整图像数据(例如,颜色帧)的大小以提高处理利用率(例如,用于本文中进一步描述的图像处理操作)并且更好地确保与更广泛种类的客户端设备的兼容性。
221.在示例实施方式中,在给定客户端设备不包括使得能够捕获深度信息的适当硬件(例如,深度感测摄像装置)的情况下,利用机器学习技术和启发式方法来生成深度图。这样的机器学习技术可以根据来自示例中的共享3d消息(或其他图像数据)的训练数据来训练机器学习模型。这样的启发式方法包括使用面部跟踪和肖像分割来生成人的深度图。
222.在示例实施方式中,之前提及的机器学习技术可以利用神经网络模型来生成深度图。对于深度估计,神经网络的输入是rgb图像,并且输出是深度图像。在示例中,神经网络生成分辨率低于rgb图像的分辨率的深度图。在示例中,使用这样的深度图渲染的3d效果可能受深度图的较低分辨率的限制。特别地,在该深度图的较低分辨率下保留精细细节(例如,毛发)可能是有挑战性的。因此,如本文中进一步讨论的,本主题技术提供各种技术来解决与深度图相关的该潜在缺点,以便生成在渲染并呈现给3d消息的观看用户时看起来更自然且更不虚假的更多3d效果。
223.在示例实施方式中,利用多视图立体计算机视觉技术根据其中用户相对于场景移动摄像装置的多个图像或视频生成深度图。
224.在另一实施方式中,客户端设备可以利用神经网络模型来生成分割掩码,所述分割掩码然后用于执行对给定图像的背景和对应深度图的修复,这将在本文中进一步讨论。
225.在操作1404处,图像数据和深度数据处理模块706至少使用深度数据来生成深度图。如下面进一步讨论的,为了附加的技术优点,可以至少部分地基于深度图来生成称为被压缩深度图的第二深度图。
226.在操作1406处,图像数据和深度数据处理模块706至少部分地基于图像数据来生成分割掩码。在实施方式中,图像数据和深度数据处理模块706使用卷积神经网络执行如下密集预测任务来确定分割掩码:在密集预测任务中,对每一像素进行预测以将所述像素分配给特定对象类别(例如,面部/肖像或背景),并且基于经分类的像素的分组(例如,面部/肖像或背景)来确定分割掩码。可替选地,分割掩码在由客户端设备102的硬件(例如,神经网络处理器或其他面向机器学习的处理器)生成之后可以包括在原始输入数据中而被接收。
227.在操作1408处,图像数据和深度数据处理模块706至少使用分割掩码来对所接收的图像数据执行背景修复和模糊化以生成背景修复后的图像数据。在示例中,图像数据和深度数据处理模块706执行从背景中消除肖像(例如,包括用户的面部)以及模糊背景以聚焦于帧中的人的背景修复技术。在实施方式中,之前提及的处理中的一些(例如,转换通路)用于深度和颜色纹理,而其他图像处理用于颜色纹理(例如,使背景模糊)。在实施方式中,处理(例如,转换通路)被链接以渲染给目标,并且处理后的深度图和颜色纹理以被效果消耗的方式被渲染。
228.在操作1410处,图像数据和深度数据处理模块706至少部分地基于深度图来生成深度修复掩码。在示例中,深度图可以对应于之前提及的压缩深度图。在示例中,图像数据和深度数据处理模块706使用深度修复掩码以便清理深度图中的伪影。可替选地,图像数据和深度数据处理模块706可以替代地利用以上提及的分割掩码来修复深度图(例如,放弃生
成深度修复掩码)。
229.在操作1412处,图像数据和深度数据处理模块706使用深度修复掩码执行深度图的修复以生成修复后的深度图。如之前所提及的,修复后的深度图对应于其中已经从原始深度图中去除了伪影(如果有的话)的后处理的深度图。在示例中,后处理的深度图包括应用于深度图的阿尔法通道(例如,除了定义针对图像中的像素的颜色值的通道之外的通道)的分割。
230.在操作1414处,图像数据和深度数据处理模块706至少部分地基于深度图来生成深度法线图。在实施方式中,该操作中的深度图可以对应于之前提及的压缩深度图。在示例中,图像数据和深度数据处理模块706通过使用深度法线图将3d效果应用于图像数据的前景区域来提供后处理的前景图像。
231.在操作1416处,渲染模块710至少使用作为包括在所生成的3d消息中的资产的背景修复后的图像、修复后的深度图和后处理的前景图像来生成3d消息的视图。在示例中,渲染模块710渲染3d消息的视图以供消息传送客户端应用104显示。
232.图15是示出根据某些示例实施方式的响应于移动数据更新消息视图的方法1500的流程图,该方法1500可以与如上所述的方法1200和/或方法1300和/或方法1400结合执行。方法1500可以包含在计算机可读指令中,所述计算机可读指令用于由一个或更多个计算机处理器执行,使得方法1500的操作可以由消息传送客户端应用104——特别是针对上面在图7中描述的注释系统206的各个部件——部分地或整体地执行;因此,以下通过参考其示例的方式来描述方法1500。然而,应当理解,方法1500的至少一些操作可以被部署在各种其他硬件配置上,并且方法1500不旨在限于消息传送客户端应用104。
233.在操作1502处,传感器数据接收模块704从运动传感器(例如,陀螺仪、动作传感器、触摸屏幕等)接收运动数据。在实施方式中,消息传送客户端应用104接收由客户端设备102的传感器(例如,位置或运动传感器)捕获的传感器数据。
234.在操作1504处,ar效果模块708基于运动数据来更新消息的视图。在实施方式中,响应于与客户端设备的滚动/偏航/俯仰方向的变化相对应的运动数据,消息在其如何由ar效果模块708渲染方面具有相应的变化(例如,-10度滚动的输入将使内容的视角移位+10度滚动)。在实施方式中,响应于在特定时间段(例如,3秒)内未接收到运动数据(例如,滚动/偏航/俯仰),ar效果模块708通过显示具有对俯仰、滚动和偏航的细微偏移的动画来更新消息的视图以演示深度和视差。另外,响应于运动,之前提及的动画将停止,并且对输入的响应由ar效果模块708处理。
235.在实施方式中,如前所述,可以将附加的ar效果和/或增强现实内容生成器应用于图像和/或深度数据,这改变了深度图的图像纹理、几何形状两者的属性以及重构的模型之前的深度尺寸。
236.在操作1506处,渲染模块710渲染更新后的消息的视图。
237.图16是示出示例软件架构1606的框图,该示例软件架构以与本文中描述的各种硬件架构结合使用。图16是软件架构的非限制性示例,并且应当理解的是,可以实现许多其他架构以促进本文中描述的功能。软件架构1606可以在诸如图17的机器1700的硬件上执行,机器包括处理器1704、存储器1714和(输入/输出)(i/o)部件1718等。示出了代表性硬件层1652并且该代表性硬件层可以表示例如图17的机器1700。代表性硬件层1652包括具有相关
联的可执行指令1604的处理单元1654。可执行指令1604表示软件架构1606的可执行指令,包括本文中描述的方法、部件等的实现方式。硬件层1652还包括也具有可执行指令1604的存储器和/或存储模块存储器/存储装置1656。硬件层1652还可以包括其他硬件1658。
238.在图16的示例架构中,软件架构1606可以被概念化为层的堆叠,在该层的堆叠中,每个层提供特定功能。例如,软件架构1606可以包括诸如操作系统1602、库1620、框架/中间件1618、应用1616和表示层1614的层。在操作上,层内的应用1616和/或其他部件可以通过软件堆栈调用api调用1608并且接收如消息1612中对api调用1608的响应。所示出的层在本质上是代表性的,并且不是所有软件架构都具有所有的层。例如,一些移动操作系统或专用操作系统可能不提供框架/中间件1618,而其他操作系统可能提供这样的层。其他软件架构可以包括另外的或不同的层。
239.操作系统1602可以管理硬件资源并且提供公共服务。操作系统1602可以包括例如核1622、服务1624和驱动器1626。核1622可以用作硬件与其他软件层之间的抽象层。例如,核1622可以负责存储器管理、处理器管理(例如,调度)、部件管理、联网、安全设置等。服务1624可以为其他软件层提供其他公共服务。驱动器1626负责控制底层硬件或与底层硬件对接。例如,根据硬件配置,驱动器1626包括显示器驱动器、摄像装置驱动器、驱动器、闪速存储器驱动器、串行通信驱动器(例如,通用串行总线(usb)驱动器)、驱动器、音频驱动器、电源管理驱动器等。
240.库1620提供由应用1616和/或其他部件和/或层使用的公共基础设施。库1620提供如下功能,该功能允许其他软件部件以比与底层操作系统1602的功能(例如,核1622、服务1624和/或驱动器1626)直接接口的方式更容易的方式来执行任务。库1620可以包括系统库1644(例如,c标准库),系统库1644可以提供函数例如存储器分配函数、串操纵函数、数学函数等。另外,库1620可以包括api库1646,例如媒体库(例如,支持诸如mpreg4、h.264、mp3、aac、amr、jpg、png的各种媒体格式的呈现和操纵的库)、图形库(例如,可以用于在显示器上以图形内容渲染2d和3d的opengl框架)、数据库库(例如,可以提供各种关系数据库功能的sqlite)、web库(例如,可以提供web浏览功能的webkit)等。库1620还可以包括各种其他库1648,以向应用1616和其他软件部件/模块提供许多其他api。
241.框架/中间件1618(有时也称为中间件)提供可以由应用1616和/或其他软件部件/模块使用的较高级别的公共基础设施。例如,框架/中间件1618可以提供各种图形用户界面(gui)功能、高级资源管理、高级位置服务等。框架/中间件1618可以提供可以由应用1616和/或其他软件部件/模块使用的广泛的其他api,其中一些可以专用于特定操作系统1602或平台。
242.应用1616包括内置应用1638和/或第三方应用1640。代表性内置应用1638的示例可以包括但不限于联系人应用、浏览器应用、图书阅读器应用、位置应用、媒体应用、消息传送应用和/或游戏应用。第三方应用1640可以包括由除特定平台的供应商之外的实体使用android
tm
或ios
tm
软件开发工具包(sdk)开发的应用,并且可以是在诸如ios
tm
、android
tm
、电话的移动操作系统或其他移动操作系统上运行的移动软件。第三方应用1640可以调用由移动操作系统(例如,操作系统1602)提供的api调用1608,以有利于本文中描述的功能。
243.应用1616可以使用内置操作系统功能(例如,核1622、服务1624和/或驱动器1626)、库1620和框架/中间件1618来创建用户接口以与系统的用户交互。替选地或另外地,在一些系统中,可以通过表示层例如表示层1614发生与用户的交互。在这些系统中,应用/部件“逻辑”可以与应用/部件的与用户交互的各方面分开。
244.图17是示出根据一些示例实施方式的机器1700的部件的框图,机器1700能够从机器可读介质(例如,机器可读存储介质)读取指令并且执行本文中讨论的方法中的任何一种或更多种。具体地,图17示出了呈计算机系统的示例形式的机器1700的示意表示,在该机器1700中可以执行用于使机器1700执行本文讨论的方法中的任何一种或更多种的指令1710(例如,软件、程序、应用、小程序、app或其他可执行代码)。同样地,指令1710可以被用于实现本文中描述的模块或部件。指令1710将通用的未编程的机器1700变换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1700。在可替选实施方式中,机器1700作为独立设备操作或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1700可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1700可以包括但不限于:服务器计算机、客户端计算机、个人计算机(pc)、平板计算机、膝上型计算机、上网本、机顶盒(stb)、个人数字助理(pda)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web家用电器、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器1700采取的动作的指令1710的任何机器。此外,虽然仅示出了单个机器1700,但是术语“机器”还应被视为包括单独或联合执行指令1710以执行本文中讨论的方法中的任一个或更多个方法的机器的集合。
245.机器1700可以包括处理器1704——其包括处理器1708至处理器1712、存储器/存储装置1706和i/o部件1718,它们可以被配置成例如经由总线1702彼此通信。存储器/存储装置1706可以包括存储器1714例如主存储器或其他存储装置以及存储单元1716,处理器1704能够例如经由总线1702访问存储器1714和存储单元1716两者。存储单元1716和存储器1714存储体现本文中描述的方法或功能中的任何一个或更多个方法或功能的指令1710。指令1710还可以在其被机器1700执行期间完全地或部分地驻留在存储器1714内、存储单元1716内、处理器1704中的至少一个内(例如,处理器的高速缓冲存储器内)或者其任何合适的组合内。因此,存储器1714、存储单元1716以及处理器1704的存储器是机器可读介质的示例。
246.i/o部件1718可以包括接收输入、提供输出、产生输出、传送信息、交换信息、捕获测量等的各种各样的部件。包括在特定机器1700中的具体i/o部件1718将取决于机器的类型。例如,诸如移动电话的便携式机器将很可能包括触摸输入设备或其他这样的输入机构,而无头服务器(headless server)机器将很可能不包括这样的触摸输入设备。将理解,i/o部件1718可以包括图17中未示出的许多其他部件。i/o部件1718根据功能被分组,仅是为了简化下面的讨论,并且分组决不是限制性的。在各种示例实施方式中,i/o部件1718可以包括输出部件1726和输入部件1728。输出部件1726可以包括视觉部件(例如,诸如等离子显示面板(pdp)、发光二极管(led)显示器、液晶显示器(lcd)、投影仪或阴极射线管(crt)的显示器)、听觉部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号发生器等。输入部件1728可以包括字母数字输入部件(例如,被配置成接收字母数字输入的键盘、触摸
屏幕;光电键盘(photo-optical keyboard)或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、跟踪球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和/或力的触摸屏幕或者其他触觉输入部件)、音频输入部件(例如,麦克风)等。
247.在另外的示例实施方式中,i/o部件1718可以包括生物特征部件1730、运动部件1734、环境部件1736或定位部件1738等各种其他部件。例如,生物特征部件1730可以包括用于检测表达(例如,手表达、面部表情、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1734可以包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。环境部件1736可以包括例如照明传感器部件(例如,光度计)、温度传感器部件(例如,检测周围温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、听觉传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近物体的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。定位部件1738可以包括位置传感器部件(例如,gps接收器部件)、海拔高度传感器部件(例如,从其中检测可以得到海拔高度的气压的高度计或气压计)、取向传感器部件(例如,磁力计)等。
248.可以使用各种各样的技术来实现通信。i/o部件1718可以包括通信部件1740,该通信部件能够操作成分别经由耦接1724和耦接1722将机器1700耦接至网络1732或设备1720。例如,通信部件1740可以包括网络接口部件或其他合适的设备以与网络1732对接。在其他示例中,通信部件1740可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(nfc)部件、部件(例如,低功耗)、部件以及经由其他模态提供通信的其他通信部件。设备1720可以是另一机器或各种外围设备中的任何一个外围设备(例如,经由usb耦接的外围设备)。
249.此外,通信部件1740可以检测标识符或包括可操作以检测标识符的部件。例如,通信部件1740可以包括射频识别(rfid)标签读取器部件、nfc智能标签检测部件、光学读取器部件(例如,用于检测下述项的光学传感器:一维条形码诸如通用产品代码(upc)条形码;多维条形码,诸如快速响应(qr)代码、aztec代码、数据矩阵、数据图示符(dataglyph)、麦克斯码(maxicode)、pdf417、超代码、ucc rss-2d条形码和其他光学代码)、或者听觉检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1740得到各种信息,例如,经由因特网协议(ip)地理位置得到位置、经由信号三角测量得到位置、经由检测可以指示特定位置的nfc信标信号得到位置等。
250.以下讨论涉及贯穿本主题公开内容提及的各种术语或短语。
[0251]“信号介质”是指能够存储、编码或携载由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以有助于软件或数据的通信。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指使其特性中的一个或更多个以对信号中的信息进行编码的方式来设置或改变的信号。术语“传输介质”和“信号介质”指相同的事物并且可以在本公开内容中互换使用。
[0252]“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外
联网、虚拟专用网络(vpn)、局域网(lan)、无线lan(wlan)、广域网(wan)、无线wan(wwan)、城域网(man)、因特网、因特网的一部分、公共交换电话网(pstn)的一部分、普通老式电话服务(pots)网络、蜂窝电话网络、无线网络、网络、无线网络、网络、其他类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(cdma)连接、全局移动通信系统(gsm)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xrtt)、演进数据优化(evdo)技术、通用分组无线电服务(gprs)技术、gsm演进的增强数据速率(edge)技术、包括3g的第三代合作伙伴计划(3gpp)、第四代无线(4g)网络、通用移动通讯系统(umts)、高速分组接入(hspa)、全球微波接入互操作性(wimax)、长期演进(lte)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
[0253]“处理器”是指根据控制信号(例如,“命令”、“操作码”、“机器码”等)操纵数据值并且产生被应用以操作机器的对应输出信号的任何电路或虚拟电路(由在实际处理器上执行的逻辑模拟的物理电路)。例如,处理器可以是中央处理单元(cpu)、简化指令集计算(risc)处理器、复杂指令集计算(cisc)处理器、图形处理单元(gpu)、数字信号处理器(dsp)、专用集成电路(asic)、射频集成电路(rfic)或它们的任何组合。处理器还可以是具有可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)的多核处理器。
[0254]“机器存储介质”是指存储可执行指令、例程和/或数据的单个或多个存储设备和/或介质(例如,集中式或分布式数据库、和/或相关联的缓存和服务器)。因此,该术语应被视为包括但不限于固态存储器以及光学和磁介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和/或设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(eprom)、电可擦除可编程只读存储器(eeprom)、fpga和闪存设备;磁盘,诸如内部硬盘和可移动磁盘;磁光盘;以及cd-rom和dvd-rom磁盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物,并且在本公开内容中可以互换使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,所述载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
[0255]“部件”是指具有以下边界的设备、物理实体或逻辑,该边界由功能或子例程调用、分支点、api或者对特定处理或控制功能提供分区或模块化的其他技术定义。部件可以经由它们的接口与其他部件对接以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且通常执行相关功能的特定功能的程序的一部分。部件可以构成软件部件(例如,在机器可读介质上实施的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例实施方式中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置成用于执行如本文中描述的某些操作的硬件部件。也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(fpga)或专用集成电路(asic)。硬件部件还可以包括通过软件临时配置成执行某些操作的
可编程逻辑或电路。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件而配置,硬件部件就成为被唯一地定制成执行所配置功能并且不再是通用处理器的特定机器(或机器的特定部件)。将理解的是,可以出于成本和时间考虑来推动在专用且永久配置的电路中或在短暂配置(例如,通过软件配置)的电路中机械地实现硬件部件的决策。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成涵盖有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中所描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的实施方式,无需在任一时刻对硬件部件中的每一个进行配置或实例化。例如,在硬件部件包括通过软件配置成专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处分别被配置为不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置一个或多个特定处理器以例如在一个时刻处构成特定硬件部件,并且在不同的时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为是通信上耦接的。在同时存在多个硬件部件的情况下,可以通过在两个或更多个硬件部件之间或之中(例如,通过适当的电路和总线)的信号传输来实现通信。在其中多个硬件部件在不同时间处被配置或实例化的实施方式中,可以例如通过将信息存储在多个硬件部件访问的存储器结构中并且在该存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在其通信地耦接到的存储器设备中。然后,其他硬件部件可以在随后的时间访问存储器装置以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源进行操作(例如,信息的收集)。在本文中描述的示例方法的各种操作可以至少部分地由(例如,通过软件)临时地配置或永久地配置以执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,本文中描述的方法可以至少部分地由处理器实现,其中特定的一个或更多个处理器是硬件的示例。例如,方法的操作中的至少一些操作可以由一个或更多个处理器或者处理器实现的部件来执行。此外,所述一个或更多个处理器还可以操作成支持“云计算”环境中的相关操作的执行或者操作为“软件即服务”(saas)。例如,操作中的至少一些操作可以由计算机组(作为包括处理器的机器的示例)执行,其中,这些操作能够经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,api)进行访问。某些操作的执行可以分布在处理器之间,不是仅驻留在单个机器内,而是跨多个机器部署。在一些示例实施方式中,处理器或处理器实现的部件可以位于单个地理位置中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例实施方式中,处理器或处理器实现的部件可以跨若干地理位置分布。
[0256]“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以便于这些指令的通信。可以使用传输介质经由网络接口设备来通过网络发送或接收指令。
[0257]“计算机可读介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物,并且可以在本公开内容中可互换地使用。
[0258]“客户端设备”是指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(pda)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。在本公开内容中,客户端设备也被称为“电子设备”。
[0259]“短暂消息”是指在时间有限的持续时间内可访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送方设置。替选地,访问时间可以是默认设置或者由接收方指定的设置。无论设置技术如何,该消息都是暂时的。
[0260]“信号介质”是指能够存储、编码或携载由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以有助于软件或数据的通信。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指使其特性中的一个或更多个以对信号中的信息进行编码的方式来设置或改变的信号。术语“传输介质”和“信号介质”指相同的事物并且可以在本公开内容中互换使用。
[0261]“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(vpn)、局域网(lan)、无线lan(wlan)、广域网(wan)、无线wan(wwan)、城域网(man)、因特网、因特网的一部分、公共交换电话网(pstn)的一部分、普通老式电话服务(pots)网络、蜂窝电话网络、无线网络、(pots)网络、蜂窝电话网络、无线网络、网络、其他类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(cdma)连接、全局移动通信系统(gsm)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xrtt)、演进数据优化(evdo)技术、通用分组无线电服务(gprs)技术、gsm演进的增强数据速率(edge)技术、包括3g的第三代合作伙伴计划(3gpp)、第四代无线(4g)网络、通用移动通讯系统(umts)、高速分组接入(hspa)、全球微波接入互操作性(wimax)、长期演进(lte)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
[0262]“处理器”是指根据控制信号(例如,“命令”、“操作码”、“机器码”等)操纵数据值并且产生被应用以操作机器的对应输出信号的任何电路或虚拟电路(由在实际处理器上执行的逻辑模拟的物理电路)。例如,处理器可以是中央处理单元(cpu)、简化指令集计算(risc)处理器、复杂指令集计算(cisc)处理器、图形处理单元(gpu)、数字信号处理器(dsp)、专用集成电路(asic)、射频集成电路(rfic)或它们的任何组合。处理器还可以是具有可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)的多核处理器。
[0263]“机器存储介质”是指存储可执行指令、例程和/或数据的单个或多个存储设备和/或介质(例如,集中式或分布式数据库、和/或相关联的缓存和服务器)。因此,该术语应被视为包括但不限于固态存储器以及光学和磁介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和/或设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(eprom)、电可擦除可编程只读存储器(eeprom)、fpga和闪存设备;磁盘,诸如内部硬盘和可移动磁盘;磁光盘;以及cd-rom和dvd-rom磁盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物,并且在本公开内容中可以互换使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介
质”明确地排除了载波、调制数据信号和其他这样的介质,所述载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
[0264]“部件”是指具有以下边界的设备、物理实体或逻辑,该边界由功能或子例程调用、分支点、api或者对特定处理或控制功能提供分区或模块化的其他技术定义。部件可以经由它们的接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且通常执行相关功能的特定功能的程序的一部分。部件可以构成软件部件(例如,在机器可读介质上实施的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例实施方式中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置成用于执行如本文中描述的某些操作的硬件部件。也可以机械地、电子地或其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(fpga)或专用集成电路(asic)。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件进行配置,则硬件部件变成被唯一地定制成执行所配置的功能并且不再是通用处理器的特定机器(或机器的特定部件)。将理解的是,可以出于成本和时间考虑来推动在专用且永久配置的电路中或在短暂配置(例如,通过软件配置)的电路中机械地实现硬件部件的决策。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成涵盖有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中所描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的实施方式,无需在任一时刻对硬件部件中的每一个进行配置或实例化。例如,在硬件部件包括通过软件配置成专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处分别被配置为不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置一个或多个特定处理器以例如在一个时刻处构成特定硬件部件,并且在不同的时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为是通信上耦接的。在同时存在多个硬件部件的情况下,可以通过在两个或更多个硬件部件之间或之中(例如,通过适当的电路和总线)的信号传输来实现通信。在其中多个硬件部件在不同时间处被配置或实例化的实施方式中,可以例如通过将信息存储在多个硬件部件访问的存储器结构中并且在该存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在其通信地耦接到的存储器设备中。然后,其他硬件部件可以在随后的时间访问存储器设备以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源进行操作(例如,信息的收集)。在本文中描述的示例方法的各种操作可以至少部分地由被临时地配置(例如,由软件)或永久地配置以执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,本文中描述的方法可以至少部分地由处理器实现,其中特定的一个或更多个处理器是硬件的示例。例如,方法
的操作中的至少一些操作可以由一个或更多个处理器或者处理器实现的部件来执行。此外,所述一个或更多个处理器还可以操作成支持“云计算”环境中的相关操作的执行或者操作为“软件即服务”(saas)。例如,操作中的至少一些操作可以由计算机组(作为包括处理器的机器的示例)执行,其中,这些操作能够经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,api)进行访问。某些操作的执行可以分布在处理器之间,不是仅驻留在单个机器内,而是跨多个机器部署。在一些示例实施方式中,处理器或处理器实现的部件可以位于单个地理位置中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例实施方式中,处理器或处理器实现的部件可以跨若干地理位置分布。
[0265]“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以便于这些指令的通信。可以使用传输介质经由网络接口设备来通过网络发送或接收指令。
[0266]“计算机可读介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物,并且可以在本公开内容中可互换地使用。
[0267]“客户端设备”是指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(pda)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
[0268]“短暂消息”是指在时间有限的持续时间内可访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送方设置。替选地,访问时间可以是默认设置或者由接收方指定的设置。无论设置技术如何,该消息都是暂时的。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1