一种视频处理方法及控制平台与流程

文档序号:14360224阅读:163来源:国知局

本发明涉及视频处理技术领域,具体涉及一种视频处理方法及控制平台。



背景技术:

目前,传统视频监控录像,一般是基于cpu服务器或者cpu和gpu异构服务器进行本地处理,不能实现云端化,受到时空限制,极为不便,而且视频解码通常放在cpu上进行,导致cpu内存和gpu显存存在大量数据交互,造成瓶颈,影响视频结构化分析性能,处理时间过长,常常用户无法忍受。因此,如何提升视频结构化分析效率的问题亟待解决。



技术实现要素:

本发明实施例提供了一种视频处理方法及控制平台,可以提升视频结构化分析效率。

本发明实施例第一方面提供了一种视频处理方法,包括:

接收由客户端发送的解析请求,所述解析请求中携带待处理影像数据的属性信息;

根据所述属性信息为所述待处理影像数据配置gpu资源;

通过所述gpu资源接收所述待处理影像数据,并对所述待处理影像数据进行解码操作;

通过多级压缩优化方法对深度神经网络模型进行加速操作;

通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行视频结构化分析,得到特征集;

将所述特征集发送给所述客户端。

本发明实施例第二方面提供了一种控制平台,所述控制平台包括高吞吐量分布式发布订阅消息装置,其用于与服务器集群之间进行通信,所述高吞吐量分布式发布订阅消息装置包括接收单元、配置单元、加速单元、分析单元和发送单元,其中,

所述接收单元,用于接收由客户端发送的解析请求,所述解析请求中携带待处理影像数据的属性信息;

所述配置单元,用于根据所述属性信息为所述待处理影像数据配置gpu资源;

所述接收单元,还用于通过所述gpu资源接收所述待处理影像数据,并对所述待处理影像数据进行解码操作;

所述加速单元,用于通过多级压缩优化方法对深度神经网络模型进行加速操作;

所述分析单元,用于通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行视频结构化分析,得到特征集;

所述发送单元,用于将所述特征集发送给所述客户端。

第三方面,本发明实施例提供了一种控制平台,包括:处理器和存储器;以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置成由所述处理器执行,所述程序包括用于如第一方面中所描述的部分或全部步骤的指令。

第四方面,本发明实施例提供了一种计算机可读存储介质,其中,所述计算机可读存储介质用于存储计算机程序,其中,所述计算机程序使得计算机执行如本发明实施例第一方面中所描述的部分或全部步骤的指令。

第五方面,本发明实施例提供了一种计算机程序产品,其中,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如本发明实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。

实施本发明实施例,具有如下有益效果:

可以看出,通过本发明实施例,接收由客户端发送的解析请求,解析请求中携带待处理影像数据的属性信息,根据属性信息为待处理影像数据配置gpu资源,通过gpu资源接收待处理影像数据,并对待处理影像数据进行解码操作,通过多级压缩优化方法对深度神经网络模型进行加速操作,通过加速操作后的深度神经网络模型对解码操作后的待处理影像数据进行视频结构化分析,得到特征集,将特征集发送给客户端,如此,可以对待处理影像数据分配gpu资源,并通过其进行解码,在此基础上,通过多级压缩优化方法对深度神经网络模型进行加速操作,来对解码操作后的待处理影像数据进行视频结构化分析,得到分析结果,从而,提升了视频结构化分析效率。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1a是本发明实施例提供的一种视频处理系统的网络架构图;

图1b是本发明实施例提供的一种视频处理方法的第一实施例流程示意图;

图2是本发明实施例提供的一种视频处理方法的第二实施例流程示意图;

图3a是本发明实施例提供的一种控制平台的实施例结构示意图;

图3b是本发明实施例提供的图3a所描述的控制平台的配置单元的结构示意图;

图3c是本发明实施例提供的图3a所描述的控制平台的加速单元的结构示意图;

图3d是本发明实施例提供的图3a所描述的视频处理装置的又一结构示意图;

图4是本发明实施例提供的一种控制平台的实施例结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。

在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置展示该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。

需要说明的是,相关技术中的的视频结构化分析系统都是基于图形处理器gpu(graphicsprocessingunit)解码+gpu分析实现。而相关技术是cpu解码+gpu分析,通常cpu解码是利用现有解码库实现,将压缩的视频信息解码成计算机能够读懂的像素信息,储存在内存中,gpu分析是使用根据需求预训练的深度神经网络模型,实现端到端的视频结构化分析。

进一步地,cpu软解码,利用cpu计算资源进行解码,但是高清视频分辨率越来越高,网络传输视频要求压缩率很高,使得解码运算的运算量很大,极大地消耗cpu运算能力。而且解码后视频像素信息存在内存中,与gpu显存进行大量数据交换,造成带宽瓶颈,分析速度往往达不到用户的需求。

因此,深度神经网络模型对视频特征进行提取,通过特征信息实现目标检测、识别和跟踪,达到视频结构化分析的目的。但是深度神经网络模型往往参数存在大量冗余,占据大量带宽和计算资源,硬解要求高,导致系统成本上升。

基于上述原因,本发明实施例可以利用gpu实现视频硬解码和结构化分析的云系统,cpu只负责调度,对性能要求不高。解码和处理都放在gpu上好处是避免数据交换带来的性能损失,缺点是对显存和计算资源需求更多,这就是本发明实施例要解决的问题,因此,如图1a所示,提供了一种视频处理系统的网络架构,其包括客户端、控制平台以及服务器集群,该服务器集群可以包含多个服务器。本发明实施例所描述控制平台可以为视频矩阵,服务器,等等,所述控制平台包括高吞吐量分布式发布订阅消息装置,本发明实施例中的深度神经网络模型可以预先保存在控制平台或者服务器集群中。本发明实施例中的待处理影像数据可以为以下至少一种:视频数据、图像数据等等。本发明实施例中的待处理影像数据的属性信息可以包括以下至少一种:内存大小、数据类型、数据格式、数据来源等等。需要说明的是,本发明实施例中的深度神经网络模型在诸多机器视觉任务,如分类、识别、检测等,都表现出具有强大的实现能力。并且实验表明,随着网络深度和广度的增加,模型的表现能力有很大的提升。但这也随之出现计算量增大,模型参数剧增等问题。本发明实施例中的神经网络模型可以用于实现以下至少一种功能:人脸识别、车牌识别、车型识别、目标检测、目标跟踪等等。本发明实施例中的客户端可以包括智能手机(如android手机、ios手机、windowsphone手机等)、平板电脑、视频矩阵、监控平台、车载设备、卫星、掌上电脑、笔记本电脑、移动互联网设备(mid,mobileinternetdevices)或穿戴式设备等,上述仅是举例,而非穷举,包含但不限于上述装置,当然,上述数据处理装置还可以为服务器。

另外,本发明实施例中,高吞吐量分布式发布订阅消息装置在视频处理系统中处于核心枢纽作用,负责用户与计算集群之间任务调度、负载平衡。例如,用户上传视频的话,首先,上传到高吞吐分布式消息模块的高速队列缓冲区,高吞吐量分布式发布订阅消息装置通过负载算法确定可用计算资源,发起一个push消息,由具有pull状态的计算单元将视频拉入所在单元进行后续运算。这种消息路由的push-pull机制,避免直接向计算集群推送视频,导致数据流阻塞、性能下降。

本发明实施例提供了一种视频处理方法,该视频处理方法,由控制平台实施,具体包括如下步骤:

接收由客户端发送的解析请求,所述解析请求中携带待处理影像数据的属性信息;

根据所述属性信息为所述待处理影像数据配置gpu资源;

通过所述gpu资源接收所述待处理影像数据,并对所述待处理影像数据进行解码操作;

通过多级压缩优化方法对深度神经网络模型进行加速操作;

通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行视频结构化分析,得到特征集;

将所述特征集发送给所述客户端。

可以看出,通过本发明实施例,接收由客户端发送的解析请求,解析请求中携带待处理影像数据的属性信息,根据属性信息为待处理影像数据配置gpu资源,通过gpu资源接收待处理影像数据,并对待处理影像数据进行解码操作,通过多级压缩优化方法对深度神经网络模型进行加速操作,通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行视频结构化分析,得到特征集,将特征集发送给客户端,如此,可以对待处理影像数据分配gpu资源,并通过其进行解码,在此基础上,通过深度神经网络模型进行加速处理,并对加速处理之后的待处理影像数据进行视频结构化分析,得到分析结果,从而,提升了视频结构化分析效率。

基于图1a所描述的网络架构,请参阅图1b,为本发明实施例提供的一种视频处理方法的第一实施例流程示意图。本实施例中所描述的视频处理方法,包括以下步骤:

101、接收由客户端发送的解析请求,所述解析请求中携带待处理影像数据的属性信息。

其中,控制平台包括高吞吐量分布式发布订阅消息装置,其用于接收客户端发送的解析请求。

102、根据所述属性信息为所述待处理影像数据配置gpu资源。

其中,不同的属性信息可以采用不同的gpu资源机制,例如,若视频的内存较小,则可以不实施本发明实施例,而是只有视频的内存较大时,才实施本发明实施例。

可选地,上述步骤102,根据所述属性信息为所述待处理影像数据配置gpu资源,可包括如下步骤:

21、获取服务器集群的资源状态信息;

22、根据所述服务器集群的资源状态信息以及所述属性信息确定所述待处理影像数据的gpu资源。

其中,服务器集群的资源状态信息包含服务器集群中每一服务器的资源状态信息,其中,资源状态信息可包括以下至少一种:gpu使用情况、gpu的接口、gpu的带宽、gpu的优先级等等。如此,可以预先设置属性信息与gpu资源之间的映射关系,进而,可以确定待处理影像数据的属性信息对应的gpu资源,根据该gpu资源以及服务器集群的资源状态信息获取相应的资源。

103、通过所述gpu资源接收所述待处理影像数据,并对所述待处理影像数据进行解码操作。

其中,gpu在视频解码能力上具有数倍于cpu的性能,但是在gpu中进行硬解码,占用显存资源,极大限制gpu进行视频结构化分析的路数,使得不能充分发挥gpu并行计算能力,造成对gpu计算资源的浪费,增加了系统成本。

可选地,本发明实施中,在执行所述对所述待处理影像数据进行解码操作的过程中,具体执行采用gpu高速共享显存解码技术对待处理影像数据进行解码操作。单路解码占用资源包括两部分:内部硬解器context资源和视频纹理缓冲区,gpu高速共享显存解码通过共享解码过程中的context资源,实现多路视频并行解码,而不是每一路解码单独占用context资源,共享显存实现1路*(内部硬解器context资源)+n路*(视频纹理缓冲区),context资源与视频缓冲区所占显存相近,使得显存减少了1倍,提高资源利用率。

104、通过多级压缩优化方法对深度神经网络模型进行加速操作。

其中,通过多级压缩优化方法对深度神经网络模型进行加速操作,并通过加速操作后的深度神经网络模型对解码操作后的待处理影像数据进行结构化分析,可以提升待处理影像数据的处理效率,减低gpu资源消耗。

可选地,上述步骤104,通过多级压缩优化方法对深度神经网络模型进行加速操作,可包括如下步骤:

41、获取所述通过深度神经网络模型的精度阈值;

42、根据所述多级压缩优化方法对深度神经网络模型对解码操作后的待处理影像数据进行多级加速操作,所述多级压缩优化方法依次执行顺序为:层融合操作、通道稀疏操作、核规整化操作以及权值int8量化,所述加速操作后的深度神经网络模型的精度高于所述精度阈值。

其中,上述精度阈值可以由多级压缩优化方法确定,当然,精度阈值也可以由用户自行设置或者系统默认。

另外,相关技术中,深度神经网络模型在视频结构化分析中具有很好的效果,但是模型存在大量冗余,占用大量存储和计算资源。因此,为了更好地实现工程化平台化,本发明实施例中,深度神经网络模型采用多级压缩优化方法进行加速操作,使得在gpu平台实现高速实时运算。首先,对结构化分析需要的检测和识别模型进行融合层、通道稀疏、核规整化及int8量化等多级压缩优化方法,这种方法不受模型限制,均可达到对显存和计算资源的最优化使用。

融合层,可以是,conv+bn+scale三层变成只计算conv了,减少了后面两层的计算量,是将神经网络中常见的convolution层、batchnorm层、scale层对这三层原始权重进行更新,融合成一个conv+bn+scale层,层融合后消除了batchnorm和scale层,减少了这两层所带来的计算量,降低了计算复杂度。

其中,c1、c2是convolution层权重,b1、b2、b3是batchnorm层的权重,s1、s2是scale层权重。融合后,将上述公式第一项作为c1,后三项作为c2,更新convolution权重,即消除batchnorm和scale层。

通道稀疏和核规整化int8量化,具体地,可以通过减少convolution层的输出通道,较少模型参数量的同时,降低计算量,减少中间结果占用的gpu显存资源,int8量化理论可以获得4倍并行运算加速效果,即对现有的模型进行再次fine-tuning,去掉冗余的通道,使网络节点处于未激活状态,同时卷积层参数进行核规整化,寻找一个饱和阈值t,使参数值尽量向0值附近对称压缩,以便进行int8量化,即将原始32位浮点模型(fp32)转换为8位整形模型(int8)来压缩显存和并行化提速的方法。通过这个凸优化问题,使得int8量化后的深度神经网络模型不至于造成精度下降。通常情况下,对c个通道的激活函数输出值进行稀疏,使得原始模型的输出激活值a与从原始c个通道稀疏裁剪成c’(0<c’<c)个通道的裁剪模型的各个激活值求代价函数最小化,另外n对应每一个激活函数输出层,求取fp32激活值统计分布pn和核规整化激活值统计分布qn相似度,并且对激活值规整化使得卷积核被约束到(-|t|,|t|)范围内,同时获得fp32激活值统计分布和核规整化激活值统计分布的最大相似度,如下公式:

是frobenius范数,wi是卷积核权重,λ最相是惩罚因子,值越大稀疏裁剪的通道越多,pn是n个激活层的(i=1,...,c)个fp32激活值统计分布,qn是核规整化激活层的激活值的int8量化统计分布,相关熵函数kl(q,p)用于fp32激活值和核规整化激活值统计分布相似性度量,以得到两者最相似分布,反推出饱和阈值t,从而可以将输入输出featuremap也量化到int8范围。fine-tuning是通过固定β,训练wi,然后固定wi训练β,得到最优解。

105、通过所述深度神经网络模型对所述加速操作后的待处理影像数据进行视频结构化分析,得到特征集。

其中,上述特征集可以为以下至少一种:关键信息(时间、地点、位置)、特征点、特征区域、目标人物及属性(例如,性别,身高,年龄,身份等等)、比对结果(例如,相似度值、匹配图像等等)。

可选地,上述步骤105,通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行视频结构化分析,得到特征集,可包括如下步骤:

通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行目标检测,得到目标,并对所述目标进行特征比对,以及识别,并确定所述目标的关键特征,得到所述特征集。

106、将所述特征集发送给所述客户端。

其中,可以将特征集发送给客户端,客户端可以查阅视频分析结果。

可以看出,通过本发明实施例,接收由客户端发送的解析请求,解析请求中携带待处理影像数据的属性信息,根据属性信息为待处理影像数据配置gpu资源,通过gpu资源接收待处理影像数据,并对待处理影像数据进行解码操作,通过多级压缩优化方法对深度神经网络模型进行加速操作,通过加速操作后的深度神经网络模型对解码操作后的待处理影像数据进行视频结构化分析,得到特征集,将特征集发送给客户端,如此,可以对待处理影像数据分配gpu资源,并通过其进行解码,在此基础上,通过多级压缩优化方法对深度神经网络模型进行加速操作,并对解码操作后的待处理影像数据进行视频结构化分析,得到分析结果,从而,提升了视频结构化分析效率。

与上述一致地,请参阅图2,为本发明实施例提供的一种视频处理方法的第二实施例流程示意图。本实施例中所描述的视频处理方法,包括以下步骤:

201、接收由客户端发送的解析请求,所述解析请求中携带待处理影像数据的属性信息。

202、获取当前网络速率。

其中,在当前网络速率较慢时,也无法较好实施本发明实施例,因此,本发明实施例也可以应用在网络速率较好的环境。

203、在所述当前网络速率以及所述待处理影像数据的内存大小满足预设条件时,根据所述属性信息为所述待处理影像数据配置gpu资源。

其中,上述预设条件可以由系统默认,或者,用户自行设置。上述预设条件可以为:网络速率大于第一预设阈值,待处理影像数据的内存大小大于第二预设阈值,上述第一预设阈值、第二预设阈值均可以由用户自行设置或者系统默认,或者,上述预设条件可以为:网络速率处于第一预设范围,待处理影像数据的内存大小处于第二预设范围,上述第一预设范围、第二预设范围均可以由用户自行设置或者系统默认。

204、通过所述gpu资源接收所述待处理影像数据,并对所述待处理影像数据进行解码操作。

205、通过多级压缩优化方法对深度神经网络模型进行加速操作。

206、通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行视频结构化分析,得到特征集。

207、将所述特征集发送给所述客户端。

其中,上述步骤201、203-步骤207的具体描述可参照图1b所描述的视频处理方法的对应步骤101-步骤106,在此不再赘述。

可以看出,通过本发明实施例,接收由客户端发送的解析请求,解析请求中携带待处理影像数据的属性信息,获取当前网络速率,在当前网络速率以及待处理影像数据的内存大小满足预设条件时,根据属性信息为待处理影像数据配置gpu资源,通过gpu资源接收待处理影像数据,并对待处理影像数据进行解码操作,通过多级压缩优化方法对深度神经网络模型进行加速操作,通过所述加速操作后的深度神经网络模型对解码操作后的待处理影像数据进行视频结构化分析,得到特征集,将特征集发送给客户端,如此,可以对待处理影像数据分配gpu资源,并通过其进行解码,在此基础上,通过多级压缩优化方法对深度神经网络模型进行加速操作,并对解码操作后的待处理影像数据进行视频结构化分析,得到分析结果,从而,提升了视频结构化分析效率。

与上述一致地,以下为实施上述视频处理方法的装置,具体如下:

请参阅图3a,为本发明实施例提供的一种控制平台的实施例结构示意图。本实施例中所描述的所述控制平台包括高吞吐量分布式发布订阅消息装置,其用于与服务器集群之间进行通信,包括:接收单元301、配置单元302、加速单元303、分析单元304和发送单元305,具体如下:

所述接收单元301,用于接收由客户端发送的解析请求,所述解析请求中携带待处理影像数据的属性信息;

所述配置单元302,用于根据所述属性信息为所述待处理影像数据配置gpu资源;

所述接收单元301,还用于通过所述gpu资源接收所述待处理影像数据,并对所述待处理影像数据进行解码操作;

所述加速单元303,用于通过多级压缩优化方法对深度神经网络模型进行加速操作;

所述分析单元304,用于通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行视频结构化分析,得到特征集;

所述发送单元305,用于将所述特征集发送给所述客户端。

可选地,如图3b,图3b为图3a中所描述的控制平台中的配置单元302的具体细化结构,所述配置单元302可包括:第一获取模块3021和配置模块3022,具体如下:

第一获取模块3021,用于获取服务器集群的资源状态信息;

配置模块3022,用于根据所述服务器集群的资源状态信息以及所述属性信息确定所述待处理影像数据的gpu资源。

可选地,如图3c,图3c为图3a中所描述的控制平台中的加速单元303的具体细化结构,所述加速单元303可包括:第二获取模块3031和加速模块3032,具体如下:

第二获取模块3031,用于获取所述通过深度神经网络模型的精度阈值;

加速模块3032,用于根据所述多级压缩优化方法对深度神经网络模型进行多级加速操作,所述多级压缩优化方法依次执行顺序为:层融合操作、通道稀疏操作、核规整化操作以及权值int8量化,所述加速操作后的深度神经网络模型的精度高于所述精度阈值。

可选地,所述分析单元304具体用于:

通过所述加速操作后的深度神经网络模型对所述解码操作后的待处理影像数据进行目标检测,得到目标,并对所述目标进行特征比对,以及识别,并确定所述目标的关键特征,得到所述特征集。

可选地,所述属性信息包括所述待处理影像数据的内存大小,图3d为图3a中所描述的控制平台的又一变型结构,图3d与图3a相比较,其还可包括:获取单元306,具体如下:

获取单元306,用于获取当前网络速率;由所述配置单元302在所述当前网络速率以及所述待处理影像数据的内存大小满足预设条件时,执行所述根据所述属性信息为所述待处理影像数据配置gpu资源的步骤。

可以看出,通过本发明实施例所描述的控制平台,接收由客户端发送的解析请求,解析请求中携带待处理影像数据的属性信息,根据属性信息为待处理影像数据配置gpu资源,通过gpu资源接收待处理影像数据,并对待处理影像数据进行解码操作,通过多级压缩优化方法对深度神经网络模型进行加速操作,通过加速操作后的深度神经网络模型对解码操作后的待处理影像数据进行视频结构化分析,得到特征集,将特征集发送给客户端,如此,可以对待处理影像数据分配gpu资源,并通过其进行解码,在此基础上,通过深度神经网络模型进行加速处理,并对加速处理之后的待处理影像数据进行视频结构化分析,得到分析结果,从而,提升了视频结构化分析效率。

与上述一致地,请参阅图4,为本发明实施例提供的一种控制平台的实施例结构示意图。本实施例中所描述的控制平台,包括:至少一个输入设备1000;至少一个输出设备2000;至少一个处理器3000,例如cpu;和存储器4000,上述输入设备1000、输出设备2000、处理器3000和存储器4000通过总线5000连接。所述控制平台包括高吞吐量分布式发布订阅消息装置,其用于与服务器集群之间进行通信,所述控制平台包括高吞吐量分布式发布订阅消息装置集成于处理器3000。

其中,上述输入设备1000具体可为触控面板、物理按键或者鼠标。

上述输出设备2000具体可为显示屏。

上述存储器4000可以是高速ram存储器,也可为非易失存储器(non-volatilememory),例如磁盘存储器。上述存储器4000用于存储一组程序代码,上述输入设备1000、输出设备2000和处理器3000用于调用存储器4000中存储的程序代码,执行包括上述方法实施例中记载的任何一种视频处理方法的部分或全部步骤。

本发明实施例还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时包括上述方法实施例中记载的任何一种视频处理方法的部分或全部步骤。

本发明实施例还提供一种计算机程序产品,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如上述方法实施例中记载的任何一种视频处理方法的部分或全部步骤。

尽管在此结合各实施例对本发明进行了描述,然而,在实施所要求保护的本发明过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。

本领域技术人员应明白,本发明的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。计算机程序存储/分布在合适的介质中,与其它硬件一起提供或作为硬件的一部分,也可以采用其他分布形式,如通过internet或其它有线或无线电信系统。

本发明是参照本发明实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程视频处理设备的处理器以产生一个机器,使得通过计算机或其他可编程视频处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程视频处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程视频处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管结合具体特征及其实施例对本发明进行了描述,显而易见的,在不脱离本发明的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本发明的示例性说明,且视为已覆盖本发明范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1