使用机器学习算法来满足SLA要求的系统和方法与流程

文档序号:16512794发布日期:2019-01-05 09:26阅读:362来源:国知局
使用机器学习算法来满足SLA要求的系统和方法与流程

本公开大体上涉及计算机联网工具,并且具体地,涉及一种机器学习算法,所述机器学习算法进行操作以针对容器化环境中的虚拟网络功能来预测并实施将使得系统能够满足服务水平协议(sla)的动作。



背景技术:

在网络功能虚拟化编排器世界中,存在许多不同的挑战。结合软件定义网络(sdn),网络功能虚拟化(nfv)技术承诺帮助变换当今的载波网络。它将变换如何部署和管理载波网络以及交付服务的方式。最终目标是使得服务提供商能够降低成本、增加业务敏捷性,并且加速新服务的上市时间。

nfv将网络功能与底层硬件分离,因此它们在商用现成的且专门构建的硬件上作为软件图像运行。nfv通过使用标准虚拟化技术(计算、网络和存储)将网络功能虚拟化来这样做。目标是通过只有在需要时并且在需要的地方分配并使用物理和虚拟资源来降低对专用的专门物理设备的依赖。利用这种方法,服务提供商可以通过将更多的部件转移到公用物理基础设施而同时优化其使用来降低总体成本,从而允许这些部件通过根据需要来部署新应用和服务而更动态地响应于变化的市场需求。网络功能的虚拟化还实现加速新服务的上市时间,因为它允许服务交付的更自动化且流线型方法。

展示出nfv服务的益处的简单实例是虚拟化防火墙或负载平衡器。代替安装并操作专用程序来执行网络功能,nfv允许操作人员根据需要在虚拟机(vm)上简单地加载软件图像。在移动网络中,实例包括将移动分组核心功能虚拟化,诸如,分组数据网络网关(pgw)、服务网关(sgw)、移动管理实体(mme)以及其他元件。

nfv将网络功能与硬件分离。然而,从基于nfv的服务中提取最大值需要新的编排能力。

在服务实现的广义背景下,传统的编排是协调并调整在设计、创建和交付定义的服务中的业务和操作过程。这个编排过程涉及使用并管理复杂的系统和工具,诸如订单、库存和资源管理系统;配置和供应工具;以及和与这些工具和系统相关联的过程结合的运营支撑系统(oss)。编排解决方案通过与业务支撑系统(bss)和客户关系管理(crm)系统编排结合来将跨技术和组织的任务自动化并且最终减少订单到收入时间而对服务提供商起到至关重要的作用。

网络功能虚拟化编排存在许多挑战。例如,虚拟网络功能(vnf)的供应、监控和恢复多数是整体的并且由单个主机执行。接下来,vnf的自动缩放/修复决策是基于代码形式的if-else条件。此外,没有一个用于将vnfkpi(关键性能指标)数据暴露给网络功能虚拟化编排器(nfvo)的标准。最后,在当前状态下,如果一个或多个vnf下降,那么将出现网络服务停机时间。在nfv环境下,归因于vnf的动态性质和底层基础设施,维持sla的能力变得甚至更复杂。因此,预测网络停机时间并对其采取措施的能力变得更关键。

除了上述问题之外,网络服务可以由来自不同供应商并且跨越在多种传统硬件设备之上产生的多个容器和虚拟机的多个vnf组成。这可以导致混合架构。在混合架构中,难以满足执行供应、恢复并满足sla要求。系统可能很难以智能的方式通过在if-else条件之外采取措施来作出vnf缩放/修复决策。最后,在从此类各种来源提供数据的上述此类混合架构中,难以使将vnfkpi(关键性能指标)暴露给nfvo的方法标准化或协调。

附图说明

通过以下结合附图的详细描述,将容易理解本公开,在附图中:

图1示出根据本公开的一方面的计算设备的基本计算部件。

图2示出其中应用本公开的一般背景。

图3示出根据本公开的一方面的决策树。

图4示出根据本公开的用于不同时段n的各个值的表。

图5示出本公开的示例方法。

具体实施方式

概述

本发明的方面在独立权利要求中陈述,并且优选特征在从属权利要求中陈述。一个方面的特征可以单独地应用于每个方面或者与其他方面结合。

公开了与网络服务相关的系统、方法、设备、计算机程序、计算机程序产品以及计算机可读设备,网络服务由跨越在多种传统硬件设备之上产生的多个容器和虚拟机的多个vnf组成。在方法实例中,方法包括在监控与恢复节点处通过多个信道从相应容器化虚拟网络功能收集虚拟网络功能关键性能指标数据。方法包括:在监控与恢复节点处维持相应容器化虚拟网络功能的状态信息;以及在监控与恢复节点处运行机器学习算法,机器学习算法一经训练便学习并预测相应容器化虚拟网络功能是否需要缩放、修复或上下文切换到同类型虚拟网络功能中的一者以产生确定。

可以应用于这种情形的示例机器学习算法如下:

t(s)=(σ(m(v)+r(a)))%t(m)

r(a)=rvnf/rtotal<=全局中间资源使用

t(m)=m(v)max+r(a)max,其中

t(s)是针对相应容器化虚拟网络功能的缩放、学习或上下文切换到同类型虚拟网络功能的阈值;

m(v)是数值变量;

r(a)是多个容器化虚拟网络功能之中的相应容器化虚拟网络功能的绝对单独资源使用;

rvnf是给定的虚拟网络功能的资源使用;

rtotal是包括一组虚拟网络功能的网络服务的总资源使用;

t(m)是阈值最大值;并且

σ表示从i=1到n的总和,其中n是缩放、修复或上下文切换的阈值t(s)已经成功的次数;并且

当t(s)阈值被满足n次时,向供应节点提供指令以执行针对相应容器化虚拟网络功能的缩放、修复和上下文切换中的一者。

上述方法的益处在于,在包括来自不同供应商的跨越在多种传统硬件设备之上产生的多个容器和虚拟机的多个vnf的网络服务内,所公开的系统可以实施供应、监控和恢复方法来满足服务水平协议。

描述

本公开解决了如何满足由来自不同供应商的跨越在多种传统硬件设备之上产生的多个容器和虚拟机的多个vnf组成的网络服务的服务水平协议的需要。本文中公开的工具和概念将智能容器微型架构用于vnf的监控和恢复。系统还应用新的机器学习算法来预期迫近的vnf缩放、修复和失败情形。系统使用新的容器自动缩放vnf或者根据需要而自动修复vnf。当系统预测vnf可能下降时,系统在热备份模式下上下文切换到同类型容器,以避免网络服务停机时间。本公开首先在图1中描述一些基本硬件部件,并且随后行进到描述用于监控和恢复vnf的上下文和概念。

本公开首先转到图1,该图公开了可以应用于本公开的系统实例的一些基本硬件部件。参考图1,示例性系统和/或计算设备100包括处理单元(cpu或处理器)110和系统总线105,系统总线将包括诸如只读存储器(rom)120和随机存取存储器(ram)125等系统存储器115的各种系统部件耦合到处理器110。系统100可以包括高速存储器的高速缓存112,高速缓存与处理器110直接连接、连接在其附近或者集成为其一部分。系统100将来自存储器115、120和/或125和/或存储设备130的数据复制到高速缓存112,以便由处理器110快速访问。通过这种方式,高速缓存提供避免在等待数据时的处理器110延迟的性能提升。这些和其他模块可以控制或被配置成控制处理器110来执行各种操作或动作。其他系统存储器115也可供使用。存储器115可以包括具有不同性能特性的多个不同类型的存储器。可以理解,本公开可以在具有不止一个处理器110的计算设备100上操作,或者在联网在一起以提供更大处理能力的计算设备的群组或集群上操作。处理器110可以包括任何通用处理器和硬件模块或软件模块,诸如,存储在存储设备130中的模块1132、模块2134以及模块3136,模块被配置成控制处理器110以及专用处理器,其中软件指令合并到处理器中。处理器110可以是含有多个核或处理器、总线、存储器控制器、高速缓存等的独立计算系统。多核处理器可以是对称或不对称的。处理器110可以包括多个处理器,诸如,具有在不同插口中的多个物理分开的处理器的系统,或者具有在单个物理芯片上的多个处理器核的系统。类似地,处理器110可以包括位于多个分开的计算设备中但诸如经由通信网络而一起工作的多个分布式处理器。多个处理器或处理器核可以共享诸如存储器115或高速缓存112等资源,或者可以使用独立资源进行操作。处理器110可以包括状态机、专用集成电路(asic)或者可编程门阵列(pga,包括现场pga)中的一者或多者。

系统总线105可以是若干类型的总线结构中的任一者,包括存储器总线或存储器控制器、外围总线以及使用多种总线架构中的任一者的局部总线。存储在rom120等中的基本输入/输出系统(bios)可以提供有助于(诸如在启动期间)在计算设备100内的元件之间传输信息的基本例程。计算设备100还包括存储设备130或计算机可读存储介质,诸如,硬盘驱动器、磁盘驱动器、光盘驱动器、磁带驱动器、固态驱动器、ram驱动器、移动式存储设备、廉价磁盘冗余阵列(raid)、混合存储设备等。存储设备130由驱动接口连接到系统总线105。驱动器和相关联的计算机可读存储设备提供计算机可读指令、数据结构、程序模块以及计算设备100的其他数据的非易失性存储。在一方面,执行特定功能的硬件模块包括存储在有形计算机可读存储设备中的软件部件以及必要的硬件部件,诸如处理器110、总线105、诸如显示器135的输出设备等等,以执行特定功能。在另一方面,系统可以使用处理器和计算机可读存储设备来存储指令,指令在被处理器执行时致使处理器执行操作、方法或其他具体动作。基本部件和适当的变化可以更改,取决于设备的类型,诸如计算设备100是小型的手持式计算设备、台式计算机还是计算机服务器。当处理器110执行指令以执行“操作”时,处理器110可以直接地执行操作和/或帮助、指导或与另一设备或部件协作来执行操作。

尽管本文中描述的示例性实施例采用诸如硬盘130等存储设备,但在示例性操作环境下也可以使用能够存储可由计算机访问的数据的其他类型的计算机可读存储介质,诸如磁带盒、闪存卡、数字多功能盘(dvd)、盒式磁带、随机存取存储器(ram)125、只读存储器(rom)120、含有位流的电缆等等。根据本公开,有形计算机可读存储介质、计算机可读存储设备、计算机可读存储介质以及计算机可读存储器设备明确地排除诸如短暂波、能量、载波信号、电磁波以及信号本身等介质。

为了实现与计算设备100的用户交互,输入设备145代表任何数量的输入机构,诸如,用于语音的麦克风、用于手势或图形输入的触敏屏、键盘、鼠标、运动输入、语音等等。输出设备135也可以是本领域的技术人员已知的许多输出机构中的一者或多者。在一些情况下,多模式系统使得用户能够提供多种类型的输入来与计算机设备100通信。通信接口140通常支配和管理用户输入和系统输出。对于在任何特定硬件布置上的操作并没有限制,因此所描绘的基本硬件可以容易随着改进硬件或固件布置被开发出来而被它们替代。

为清楚地说明,说明性系统实施例呈现为包括单独的功能块,功能块包括标记为“处理器”或处理器110的功能块。这些块表示的功能可以通过使用共享或专用硬件来实现,包括但不限于,能够执行软件和硬件的硬件,诸如处理器110,它是专门构建来作为在通用处理器上执行的软件的等效物进行操作。例如,图1中呈现的一个或多个处理器的功能可以由单个共享处理器或多个处理器提供。(使用术语“处理器”不应被解释为排他地指代能够执行软件的硬件。)说明性实施例可以包括微处理器和/或数字信号处理器(dsp)硬件、用于存储执行下文所述的操作的软件的只读存储器(rom)120,以及用于存储结果的随机存取存储器(ram)125。还可以提供超大规模集成(vlsi)硬件实施例以及与通用dsp电路结合的自定义vlsi电路。

各种实施例的逻辑操作被实施为:(1)在通用计算机内的可编程电路上运行的一系列计算机实施的步骤、操作或程序,(2)在专用可编程电路上运行的一系列计算机实施的步骤、操作或程序,和/或(3)可编程电路内的互连机器模块或程序引擎。图1所示的系统100可以实践方法的全部或部分、可以是系统的一部分,或者可以根据有形计算机可读存储设备中的指令进行操作。此类逻辑操作可以被实施为模块,模块被配置成控制处理器110根据模块的编程来执行特定功能。例如,图1示出三个模块mod1132、mod2134和mod3136,它们是被配置成控制处理器110的模块。这些模块可以存储在存储设备130上并且在运行时加载到ram125或存储器115中,或者可以存储在其他计算机可读存储器位置。

示例计算设备100的一个或多个部分(直到并包括整个计算设备100)可以被虚拟化。例如,虚拟处理器可以是根据特定指令集执行的软件对象,即使在与虚拟处理器相同的类型的物理处理器不可用时也如此。虚拟化层或虚拟“主机”可以通过将虚拟化操作转换成实际操作来启用一个或多个不同计算设备或设备类型的虚拟化部件。然而最终,每种类型的虚拟化硬件由一些底层的物理硬件实施或执行。因此,虚拟化计算层可以在物理计算层之上操作。虚拟化计算层可以包括虚拟机、覆盖网络、监管程序、虚拟切换以及任何其他虚拟化应用中的一者或多者。

处理器110可以包括本文中公开的所有类型的处理器,包括虚拟处理器。然而,当提及虚拟处理器时,处理器110包括与执行虚拟化层中的虚拟处理器相关联的软件部件和执行虚拟化层必要的底层硬件。系统100可以包括接收存储在计算机可读存储设备中的指令的物理或虚拟处理器110,指令致使处理器110执行某些操作。当提及虚拟处理器110时,系统还包括执行虚拟处理器110的底层物理硬件。

论述了可以应用于本公开的系统实例的基本计算部件后,本公开现在转到图2,该图示出智能网络功能虚拟化容器微型架构200。所公开的解决方案包括网络服务202,网络服务使用供应节点204来供应诸如网络224的部件,供应节点在以高可用性模式设置的docker容器内运行。供应节点204执行功能,包括例如供应、升级、降级和删除网络224,网络由在docker容器和虚拟机内运行的多个vnf226、230、234组成。docker容器是允许在不同用户之间共享硬件能力的一种虚拟化形式并且表现为单独的服务器或机器。docker容器将操作系统虚拟化,从而将它分成虚拟化隔室以运行容器应用。供应节点204还负责执行资源管理、占用人管理、和vnf的订购,以及其他nfvo操作。供应节点204还负责创建通过覆盖网络连接到供应节点204的单独监控与恢复(m/r)节点206、208、210。

供应节点204也负责基于从m/r节点206、208、210接收的预测信息来进行网络服务上的按比例放大/缩小、修复以及上下文切换操作。

m/r节点206、208、210是以高可用性模式设置的轻量型docker容器并且负责监控、恢复和满足单独vnf的服务水平协议(sla)要求。m/r节点206、208、210是轻量型的,因为相对于模拟硬件层的虚拟机而言,它们具有相对较轻的处理开销。m/r节点206、208、210将收集vnfkpi(关键性能指标)数据和通过一个或多个信道216接收的其他vnf相关信息,诸如,cpu使用、存储器使用、磁盘使用、网络延迟、网络往返时间,以及通过日志文件212得到的vnf错误数据。收集和/或学习步骤可以是连续的、周期性的或者在某些策略性时间执行。m/r节点206、208、210还从openstack收集整体系统健康信息。openstack是通常部署为基础设施即服务(iaas)的用于云计算的开源软件平台。openstack由控制遍及数据中心的处理、存储和联网资源的硬件池的相关部件组成。

m/r节点206、208、210还维持容器化vnf214的状态,以便在主vnf出故障的情况下有可能实现到同类型vnf228、232、236的上下文切换220。图2示出到同类型vnf232的上下文切换220。上下文切换220代表了任一m/r节点206、208、210从相应的相关联vnf226、230、234上下文切换到相应的同类型vnf228、232、236。一个或多个vnf可以上下文切换到一个或多个同类型vnf。

m/r节点206、208、210各自运行机器学习算法,机器学习算法负责学习并预测容器化主vnf226、230、234是否需要缩放或修复或者一些其他动作。例如,算法可以基于如上所述收集的数据而确定vnf有可能出故障。预测发送到供应节点204,并且基于预测,供应节点204将采取适当的措施。例如,如果cpu使用、存储器使用、磁盘使用、网络延迟、网络往返时间等中的一者或多者的使用激增,使得它们将要击溃网络或者在轨迹上或展示出基于在用于机器学习算法的训练数据中看出的先前经验将导致vnf故障的模式,那么系统可以预测如果没有采取适当的措施则将要发生故障。

基于机器学习算法的输出,供应节点204将执行以下项中的一者或多者:(1)缩放操作,其中供应节点204根据需要通过借助新docker容器或虚拟机来添加(和/或移除)vnf实例而自动地缩放网络服务;(2)修复操作,在这种情况下,vnf需要一些类型的修复动作,并且供应节点204执行该功能;以及(3)故障动作,在这种情况下,vnf有可能出故障,并且供应节点204在vnf下降之前导致在热备份模式下从出故障的vnf上下文切换到相关联的同类型vnf,以避免网络服务停机时间。关于上述项(2),缩放操作可以包括基于虚拟网络功能缩放要求或政策来移除docker容器或虚拟机。

vnfkpi数据由m/r节点206、208、210连续地且通过诸如ipsla、netconf、snmp等多个信道216来收集。ipsla代表“互联网协议服务水平协议”。思科互联网(ciscointernetwork)操作系统的特征是允许it专业人员实时地收集关于网络性能的信息。对ipsla的任何引用可以指代在本质或目的上类似于思科版本的任何sla。netconf是由ietf(互联网工程任务组)针对安装、操纵和删除网络设备的配置定义的协议。netconf操作是使用xml编码在远程过程调用(rpc)层之上实现。netconf提供用于编辑和查询网络设备上的配置数据的一组基本操作。snmp(简单网络管理协议)是用于收集和组织关于ip网络上的被管理设备的信息并且用于更改信息以改变设备行为的互联网标准协议。并没有要求从任何特定的信道或标准检索数据。支持所有的各种标准和信道。例如,在一方面,可以建立vnf供应商可以遵循的简单机制,以通过vnflinux机器上的标准tcp端口将vnf的kpi数据暴露给nfvo。

m/r节点206、208、210可以在定义的tcp端口处以规律的间隔通过安全壳(ssh)隧道来监听。可以使用以下格式:

<kpi>

<variable-name>networklatency</variable-name>

<variable-value>200</variable-value〉

</kpi>

接下来描述机器学习算法,机器学习算法用公式表示来基于不同的系统参数预测vnf的缩放、修复或故障场景。等式由决策树(见图3)在学习/训练阶段期间使用。示例等式如下:

机器学习算法

t(s)=(σ(m(v)+r(a)))%t(m)

r(a)=rvnf/rtotal<=全局中间资源使用

t(m)=m(v)max+r(a)max,其中

t(s)是针对相应容器化虚拟网络功能的缩放、学习或上下文切换到同类型虚拟网络功能的阈值;

m(v)是数值变量;

r(a)是一个vim(虚拟基础设施管理器)或多个vims上的多个容器化虚拟网络功能之中的相应容器化虚拟网络功能的绝对单独资源使用;

rvnf是给定的虚拟网络功能的资源使用;

rtotal是包括一组虚拟网络功能的网络服务的总资源使用;

t(m)是阈值最大值;并且

符号“σ”是从i=1到n的总和,其中n是缩放、修复或上下文切换的阈值t(s)已经成功的次数。

当t(s)阈值被满足n次时,系统向供应节点提供指令以执行针对相应容器化虚拟网络功能的缩放、修复和上下文切换中的一者。

图3示出将决策树用于预测。过程中的另一步骤是以集合来分配训练数据,如树300所示。训练数据提供关于系统参数的示例输入,诸如kpi数据和基于输入的决策,以训练决策树。图4示出训练数据。在又一步骤中,系统运行算法并且基于训练数据进行预测并再次将数据馈送到决策树以便进一步训练。例如,基于所示的数据和决策树,此处得到一些实例输入/输出:kpi=5、c=6、p=是。在这个实例中,kpi值为5,计算值为6并且预测为是,那么采取行动来缩放、修复或恢复。其他实例包括:kpi=7、c=2、p=否;kpi=8、c=4、p=是;kpi=5、c=5、p=否。将预测馈送回到决策树就是随着时间推移系统可以如何学习。随着决策树越来越密集,预测将提高并且预测的信心也将进一步提高。

图4示出用于以样本kpi数据和诸如“计算”参数的其他系统参数作为学习/训练集来馈送决策树的数据400。为简洁起见,仅示出了1个kpi变量和1个数值变量。实际上,工具利用基于sla的多个kpi和多个数值变量,如上文所述。过程的第一步骤是基于探试法、sla规范和人类数据而将样本vnf数据用作用于决策树的训练集。最终,如表的右列所示,上述等式将产生缩放、修复或恢复的决策。

图5示出本概念的方法实例。方法可以在任何特定的节点上实践。方法优选在m/r节点206、208、210中的一者上实践,但并不要求任何特定的硬件或虚拟化对象执行步骤。方法可以在一个或多个硬件或虚拟部件上实践。方法包括:通过一个或多个信道从相应容器化虚拟网络功能收集虚拟网络功能关键性能指标数据(步骤502);维持相应容器化虚拟网络功能的状态信息(步骤504);以及运行机器学习算法,机器学习算法一经训练便学习并预测相应容器化虚拟网络功能是否需要缩放、修复或上下文切换到同类型虚拟网络功能中的一者以产生确定(步骤506)。收集和学习/预测可以是连续的、间歇的或者在特定的时间安排。上文陈述了示例机器学习算法。考虑到所有vnf的最佳或优选最大值,可以通过探试法来设置n值,以避免误报。如果甚至在n之后(t(s)=l),那么意味着vnf需要缩放、修复或恢复,取决于上下文。服务可以具有其他vnf以及它们自己的t(s)值。还预期与上述算法具有类似功能的其他机器学习算法。

收集和运行步骤可以在m/r节点206、208、210处进行。维持相应容器化虚拟网络功能的状态信息的步骤也可以在m/r节点206、208、210处进行。当t(s)阈值被满足n次并且来自机器学习算法的确定表明应采取措施时,方法可以包括向供应节点204提供指令以针对相应容器化虚拟网络功能执行缩放、修复或上下文切换中的一者。例如,n可以是3,使得在进行缩放之前需要满足阈值三次。收集虚拟网络功能关键性能指标数据的步骤可以通过多个信道来进行,诸如,ipsla、netconf和snmp信道中的两者或更多。

当机器学习算法预测相应容器化虚拟网络功能需要缩放时,方法将包括向供应节点204提供指令以添加新的虚拟网络功能实例。供应节点204随后可以使用新的docker容器或虚拟机来添加新的虚拟网络功能,如本领域的技术人员将理解。供应节点204还可以基于虚拟网络功能缩放要求或政策来移除docker容器或虚拟机。决策还可以是指按比例缩小vnf,并且在此类情况下,停止或移除相关联的容器。

本文中公开的各个方面可以被实施为体现在有形(即,非暂时性)介质中的硬件、固件和/或软件逻辑,逻辑在被执行时进行操作以执行上述各种方法和过程。也就是,逻辑可以体现为物理布置、模块或部件。有形介质基本上可以是能够存储逻辑或计算机程序代码的任何计算机可读介质,逻辑或计算机程序代码可以例如由处理器或整个计算系统执行,以执行与实例相关联的方法和功能。此类计算机可读介质可以包括,但不限于包括,物理存储和/或存储器设备。可执行逻辑可以包括,但不限于包括,代码设备、计算机程序代码,和/或可执行计算机命令或指令。

应了解,计算机可读介质、计算机可读存储设备或者机器可读介质排除信号或体现在载波中的信号。

与本公开的方法相关联的步骤可以差别很大。在不脱离本公开的范围的精神的情况下,可以对步骤进行添加、移除、改变、组合以及重新排序。例如,也可以应用机器学习算法的更广泛表征。方法方面可以包括在监控与恢复节点处通过多个信道从相应容器化虚拟网络功能收集虚拟网络功能关键性能指标数据。方法可以包括:在监控与恢复节点处维持相应容器化虚拟网络功能的状态信息;以及在监控与恢复节点处运行机器学习算法,机器学习算法一经训练便学习并预测相应容器化虚拟网络功能是否需要缩放、修复或上下文切换到同类型虚拟网络功能中的一者以产生确定。收集和/或学习可以是连续或间断的。机器学习算法可以基于以下参数中的一者或多者:缩放的阈值、多个容器化虚拟网络功能之中的相应容器化虚拟网络功能的绝对单独资源使用、给定虚拟网络功能的资源使用、包括一组虚拟网络功能的网络服务的总资源使用、与缩放的阈值次数相关的阈值最大值和总和,以及修复或上下文切换是否成功。因此,呈现的实例应被视为说明性而非限制性的,并且实例并不限于本文中给出的细节,而是可以在所附权利要求书的范围内更改。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1