内容中心网络边缘节点势能增强路由方法与流程

文档序号:13985884阅读:335来源:国知局
本发明属于互联网领域,涉及一种内容中心网络边缘节点势能增强路由方法。
背景技术
::根据ciscovni的预测报告,2021年视频类应用产生的流量将约占网络总流量的82%。视频内容的大量复制传播的需求带来了内容分发网络(contentdeliverynetworking,cdn)和对等网络(eertopeer,p2p)的流行和商用。这二者均提高了用户访问内容的速度,但cdn通过dns重定向方式将用户请求转发到网络的边缘服务器,其内容存放地点受限;p2p对每个内容生成一个跟踪器,其交付有效性低。由于二者均无法摆脱基于ip地址的端到端转发模式,造成了诸如ddos攻击等安全事故。因此,研究者们提出了一种全新的未来网络架构——信息中心网络(informationcentricnetworking,icn),从根本上解决当前面向连接的互联网模式与快速增长的流量需求之间的冲突。icn通过内容的名字而不是分配的ip地址进行标识,因此用户发出的请求只需关注内容的本身,而不关注内容存储的位置。典型的icn架构有dona、pursuit、ccn、comet、psirp,其中ccn(contentcentricnetworking)被认为是最有前途的方案之一。ccn架构采用了类似url的命名的方式,提供端到内容的服务,并且支持扩展路由节点的功能,使得路由器不仅具有传统的转发功能,还具有一定存储的能力,其目的是通过“存储换带宽”的方式降低数据包在网络中的传输时间,实现比cdn更加灵活的分布式缓存网。然而,在传统的ccn路由机制中,这种“分布式缓存”的优势并未得到很好的发挥,这是因为传统的路由机制只能实现兴趣包向发布者进行路由,而路径外的大量就近缓存无法感知利用,导致了大量带宽资源的浪费。因此,需要设计出一种高效可靠的缓存感知的路由机制来充分发挥ccn的缓存优势。对于ccn的缓存感知的机制,主要解决的问题可以归结为两点:1)如何发现缓存内容;2)如何朝着最近的一个内容源转发兴趣包。现有缓存感知路由机制可分为两类,一类是请求者主动发布报文探测缓存内容的位置:现有文献提出一种邻居缓存探测的路由机制(neighborcacheexplorerouting,nce),该方案利用分布式蚁群算法计算最短路径,可实现局部缓存的感知。但该方案并未明确指出探测的深度,当网络范围增大时,可能造成开销过大。另一类是由缓存节点向周围发布已经缓存的内容信息,请求者被动接收后进行综合判断,再选出最优路径:文献提出了一种基于势能的路由机制(cacheawaretargetidentification,catt),该方案对于稳定的发布者节点构建永久势场(permanetpotentialfield,ppf),采用类似于传统ccn的洪泛通知方式实现;对易变的缓存节点构建易变势场(volatilepotentialfield,vpf),采用固定跳数的通告邻居节点内容的势能,兴趣包依据收到的最小势能确定下一跳的转发端口从而获取最近的内容。但该方案并未区分缓存节点和发布者节点的服务器性能,造成兴趣包并未选择最近的缓存节点路由,内容的请求时延大;同时catt将缓存的所有内容以相同的跳数向周围节点进行通告,造成巨大的带宽开销。由于ccn路由器的主要功能仍然是快速转发数据包,因此需要考虑路由器缓存功能的有限性。另外,在多数真实场景下,位于网络核心及中间的路由器不会产生内容请求,兴趣包均来自靠近网络边缘的用户,因此也需要考虑利用网络边缘的缓存,将兴趣包尽可能的吸引到就近的缓存节点,提高内容的响应速度。技术实现要素:有鉴于此,本发明的目的在于提供一种内容中心网络边缘节点势能增强路由方法,提出了一种边缘节点势能增强的路由机制。为达到上述目的,本发明提供如下技术方案:内容中心网络边缘节点势能增强路由方法,该方法包括以下步骤:s1:兴趣包达到缓存节点;s2:服务器根据收到的兴趣包发送相应数据包,并沿原路返回;s3:建立边缘节点增强路由机制(edgenodepotential-enhancedrouting,enper)势能模型;s4:利用缓存节点内容通告机制将势能扩散出去。进一步,所述s1具体为:当兴趣包到达某个节点时,将根据内容中心网络(contentcentricnetworking,ccn)的路由特点查询内容存储表(contentstore,cs);如果匹配到相关条目,则直接返回数据包;如果没有匹配到相关条目,则查询待定兴趣表(pendinginteresttable,pit);如果在pit中查询到之前已有兴趣包请求该内容,则将请求端口添加到pit条目中,并等待数据包的返回;如果pit中没查询到相应匹配项,则在pit中添加请求条目,兴趣包查找转发信息表(forwardinginformationbase,fib)中具有最小的势能值的转发接口进行转发;如果此时在fib中也查询不到,则丢弃兴趣包;进一步,所述s2具体为:发布者服务器收到兴趣包后,发送相应数据包并沿原路返回;每经过一跳,检查pit,如果pit中存在多个端口,则复制数据包发送给多个请求者;然后将数据包存储在cs中,并建立自治域内的节点势场。进一步,所述s3具体为:将网络抽象成无向图,当产生一个新的内容k时,将网络中的所有节点分成内容发布者节点np、缓存节点nc和无内容缓存的节点ni,得到叠加势能;s表示缓存内容k的节点集合:缓存节点的势能参数其中,的取值范围在0到1之间;l为路由器负载的大小,当兴趣包的请求量过大、路由器无法满足请求时,l减小,参数值降低;为任意缓存节点到发布者的跳数,为边缘缓存节点到发布者服务器np之间的跳数;越靠近网络边缘的缓存,值越接近1,势能的绝对值越大;越靠近发布者的缓存,值越接近于0,势能的绝对值越小。进一步,所述发布者节点np的势能计算方法为:将发布者服务器设置为长期稳定的负点电荷,形成自治域内的全网势场;所述全网势场在内容未发生变化时,保持稳定状态;网络中任意节点ni受到发布者np的吸引力为根据两者之间的跳数、时延或链路带宽进行计算:其中,为发布者生产内容的质量,为节点ni到发布者节点np之间的最小跳数;n是符号,当为np时,势能的计算公式为当为ni时,势能的计算公式为随着跳数的增加,越远离发布者的节点ni受到的势能吸引力越小,即越小。进一步,所述缓存节点nc的势能计算方法为:设置α为缓存节点nc的内容质量比例系数:其中,为发布者生产内容的质量,为节点ni到发布者np之间的最小跳数,α为0.1到0.3之间的常数。进一步,所述叠加势能计算方法为:其中,为发布者生产内容的质量,为节点ni到发布者节点np之间的最小跳数,α为0.1到0.3之间的常数。进一步,所述s4具体为:ccn网络的内容流行度根据内容的请求次数进行计算,假设一个k内容在请求节点ni上某个时间段t内收到的兴趣包请求次数为定义该内容的流行度为:其中,k表示该缓存节点的内容种类,表示在t时间段内到达ni的总共请求的次数;采用简单的预测机制对流行度进行修正,σ为预测权重:pt+1(k)=σpt(k)+(1-σ)pt-1(k)当第一次请求k内容时,边缘节点将收集下游的请求总次数,并在向上游发送一个兴趣包的同时通知上游节点k内容的流行度;当内容返回并建立势场后,边缘节点将在周期t的时间段继续统计,并向上游缓存节点通知内容流行度的变化,保持上游流行度的实时性,保证对同一内容通告范围的统一性。进一步,所述通告范围满足:当pt+1(k)<h1时,通告范围跳数为0,即节点对该内容不进行通告;当hm<pt+1(k)<hm+1时,通告范围跳数为m,即向周围m跳范围进行通告,m为势能通告范跳数的阈值数,m=2,3,4…;n为最大势能通告跳数的阈值数;当pt+1(k)>hn时,通告范围跳数为n,即向周围n跳范围内的节点进行通告;其中,h1,h2,…,hn为跳跃阈值,h1<h2<…<hn;hm为阈值,k为请求的内容的名字。本发明的有益效果在于:1)在现有文献提出势能的概念基础上,针对ccn中的兴趣包来自网络边缘却无法在边缘节点得到快速响应的问题进行重新建模,提出了一种边缘节点势能增强的路由机制。2)提出一种在边缘节点对内容的流行度进行预测,并结合网络拓扑范围的大小对缓存内容的势能值进行不同跳数的通告机制。附图说明为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:图1为nper的转发过程;图2为缓存节点的势能叠加图;图3为网络的拓扑和缓存节点的势场图;图4为平均请求时延随仿真时间的变化;图5为平均请求时延随zipf的变化趋势;图6为发布者服务器负载减小率随zipf的变化趋势;图7为缓存通告开销随zipf的变化趋势。具体实施方式下面将结合附图,对本发明的优选实施例进行详细的描述。在ccn路由机制中,当发布者产生一个新内容,将通过洪泛的方式对全网节点进行通告,兴趣包基于转发信息表(forwardinginformationbase,fib)查找一条到达发布者的最佳路径。对于每个路由器,fib中只包括到达内容发布者节点的下一跳端口,却没有包括到达就近缓存节点的下一跳端口。由于无法感知网络中存在的大量缓存资源,传统ccn路由机制的平均请求时延较大。本发明在suyongeum等学者提出的势能概念基础上,重新设计了一种缓存可感知的边缘节点增强路由机制。在该模型下,发布者或缓存对象被当作负点电荷,兴趣包即带正电的试探电荷,将沿着梯度下降最快、势能最小的方向转发。图1展示了兴趣包经过缓存节点时的转发过程。当兴趣包到达某个节点时,将根据ccn的路由特点首先查询内容存储表(contentstore,cs),如果匹配到相关条目则直接返回数据包;如果没有匹配项则查询待定兴趣表(pendinginteresttable,pit),(1)如果在pit中查询到之前已有兴趣包请求该内容则将请求端口添加到pit条目中,并等待数据包的返回;如果pit中也没相应匹配项,进行步骤(2)在pit中添加请求条目,然后(3)兴趣包将会查找fib中具有最小的势能值的转发接口进行转发。如果此时fib中也查询不到,(4)将会把兴趣包丢弃。发布者服务器收到兴趣包后,将会发送相应数据包并沿原路返回。每经过一跳,(5)先检查pit后,如果pit中存在多个端口则复制数据包发送给多个请求者(6)然后将数据包存储在cs中,并建立自治域内的节点势场。1.enper势能模型的建立首先将网络抽象成无向图,当产生一个新的内容k时,网络中的所有节点可分成三类,分别是内容发布者节点np,缓存节点nc和无内容缓存的节点ni,s表示缓存内容k的节点集合:1.1发布者节点的势能由于发布者服务器为内容产生的源头,具有较大的输出速率、较高的处理性能和长时间的存储能力,因此设置为长期稳定的负点电荷,形成自治域内的全网势场。除非内容发生变化,该全网势场一旦建立将保持稳定状态,无需经常更新。网络中任意节点ni受到发布者np的吸引力为其值根据两者之间的距离进行计算,距离可以为跳数、时延、链路带宽等。其中,为发布者生产内容的质量,大小与服务器的缓存容量、处理速度等因素有关,公式(1)的负号保证兴趣包朝着势场的最低点进行路由。定义为节点ni到np之间的最小跳数,随着跳数的增加,越远离发布者的节点ni受到的势能吸引力越小,即越小。1.2缓存节点的势能虽然ccn网络中的路由转发节点具有缓存能力,但与发布者进行比较,路由器的主要功能为线速转发数据包,其缓存容量和处理性能远不及专为本域提供内容的发布者服务器。尤其是当缓存用尽时会根据ccn设置的替换算法删除一部份内容,造成后续的兴趣包在无法命中。根据该特性,设置α为缓存节点nc的内容质量比例系数:由于当前互联网的内容的请求符合幂律分布特征(zipf或mandelbrot-zipf分布),即80%的请求只与20%的内容有关。例如,当网络中内容的总数为n=1000,zipf=1.0时,前129项内容的请求累计概率已达到0.8,其他zipf分布指数与累计概率到达0.8时的内容个数关系如表1所示。根据以上分析,为了让缓存节点能尽可能的存储请求量大的内容,同时又考虑到路由节点的性能和成本,设置α为0.1到0.3之间的常数。表1zipf分布指数与请求累计达0.8时内容个数的关系1.3叠加势能由于数据包在返回中会存储在途经节点,因此当网络中同时存在多个缓存内容和发布者产生的内容时,总势场会以线性叠加的方式呈现,如下所示:通过上式可以推断出当存在多个缓存内容时,靠近发布者的势能通过相互叠加的方式会比靠近边缘的副本节点的势能更大,如图2(a)所示。然而在多数实际场景中,兴趣包来自靠近边缘网络的的用户,位于网络核心及中间的路由器不会产生请求;如果从边缘出发的兴趣包受到了网络核心的吸引并向发布者服务器转发,将错过更靠近边缘的缓存内容,造成用户请求时延的增加。所以考虑加强网络边缘缓存的势能值,如图2(b)右所示。原因有两点:1)将来自边缘的兴趣包直接在边缘节点上命中,可减少请求时延;2)边缘缓存节点集中收集多次相同兴趣包的请求将增加该内容的驻留时间,提升目标缓存内容的可用性,进而增加缓存命中率。图3展示了一个内容中心的网络的拓扑的势场图。当网络中产生一个新内容k,发布者首先将其洪泛通告到自治域内的所有路由器,并在路由器的fib中建立到发布者的路由条目。假设pc1首先发出请求k内容的兴趣包,由于此时网络中的节点均没有该缓存内容,路由节点会根据fib计算出最短路径,并将兴趣包转发到发布者,响应的数据包将沿着之前兴趣包的请求路径逐跳返回给pc1并建立势场。此处的缓存采用ccn默认的方案cce(cacheeverythingeverywhere),即内容k存储在返回途中经过的所有节点,当pc2发出相同的兴趣包请求k时,将在ra上对和发布的缓存内容的势能值进行判断。设发布者的缓存节点的内容质量比例系数为α=0.1,当网络中未采用边缘节点势能加强机制时,在ra上收到发布的势能为收到发布的势能为由于兴趣包的下一跳为rb,朝着具有更小势能的转发,而不是在最近的命中。根据以上分析,为了保证兴趣包可以受到边缘缓存势能的吸引朝着最近的缓存进行路由,提出了缓存节点的势能参数在考虑节点负载的情况下,提高边缘缓存的势能值。的取值范围在0到1之间。其中,l为路由器负载的大小,当兴趣包的请求量过大、路由器无法满足请求时,l减小,参数值降低。为任意缓存节点到发布者的跳数,为边缘缓存节点到发布者服务器np之间的跳数。越靠近网络边缘的缓存,值越接近1,势能的绝对值越大;越靠近发布者的缓存,值越接近于0,势能的绝对值越小。如图3同样设发布者缓存节点的内容质量比例系数α=0.1,路由器可以满足请求需求,即l=1时,增强边缘节点的势能,兴趣包发送到ra上接收到的混合后的势能值为由于此时兴趣包对比后将朝着势能更低、跳数更少的方向转发。2.缓存节点内容通告机制当节点势场的模型建立后,如果缺少通告机制将势能扩散出去,那么基于势场路由机制与传统的ccn路由机制无异:兴趣包将在转发路径上随机命中,错过临近的缓存节点。因此需要添加通告机制实现势场的吸引。但如果将所有缓存内容向全网进行通告,不仅仅会造成网络的大量开销,当缓存内容根据不同算法被替换时,也需要向周围节点发布nack通告删除相应的fib条目,这也将占用大量的带宽资源。因此,需要一种简单高效的流行度判断机制和一种适应网络拓扑的通告范围机制来实现基于势能的路由。2.1通告内容流行度的计算和预测在现有文献中,根据内容请求呈幂律分布特点将内容划分成三类:流行、普通、冷门,据此对缓存内容进行区分通告,但是该方案的成立是提前已知所有内容的请求的次数和整体流行度,在真实的网络情况下是无法实现。另外,兴趣包的请求个数还具有“收敛性”,当一个节点收到大量相同的兴趣包时,会记录下游请求端口并添加在pit中,然后仅向上游发出一个兴趣包,因此类似于文献提出的统计上游节点,或统计域内的所有节点收到兴趣包的个数的方式也是不可取的。根据以上分析,内容的流行度值只能在边缘节点进行统计和计算。本发明提出的边缘加强的势能方案,在考虑节点负载的情况下,可将具有相同请求的兴趣包尽可能地吸引到一个边缘缓存节点,得到更加精确的内容流行度。ccn网络的内容流行度根据内容的请求次数进行计算,假设一个k内容在请求节点ni上某个时间段t内收到的兴趣包请求次数为那么该内容的流行度定义为:其中,k表示该缓存节点的内容种类,表示在t时间段内到达ni的总共请求的次数。由于从兴趣包命中到通知发布到周围节点需要经过一段时间,在这段时间内的流行度可能发生变化,因此需要采用简单的预测机制对流行度进行修正,σ为预测权重:pt+1(k)=σpt(k)+(1-σ)pt-1(k)(6)当第一次请求k内容时,边缘节点将收集下游的请求总次数,并在向上游发送一个兴趣包的同时通知上游节点k内容的流行度。当内容返回并建立势场后,边缘节点将在周期t的时间段继续统计,并向上游缓存节点通知内容流行度的变化,保持上游流行度的实时性,保证对同一内容通知范围的统一性。2.2缓存节点通告范围的设定由上小节可知,当预计的流行度越大,代表请求的次数越多,缓存内容的稳定性越高,对其进行大范围的通告可提高内容的可用性。通告节点的最大范围n跳的设置需要依赖特定的网络拓扑结构和大小,且需要满足如下要求:1)通告范围限制在域内;2)副本通告产生的控制流量应限定在一定程度内;3)n的选择应小于缓存节点到发布者之间的跳数。表2缓存通告范围因此本发明根据网络的大小设置跳跃阈值实现针对不同流行度内容的缓存通告,其阈值为h1,h2,…,hn(h1<h2<…<hn)。当pt+1(k)<h1时,节点对该内容不进行通告,当pt+1(k)>hn时,向周围n跳范围内的节点进行通告,当hm<pt+1(k)<hm+1时,向周围m跳范围进行通告,其中0<k<n。3.实验设置本实施例采用了开源的仿真平台ndnsim对上述路由机制进行实现,并对catt和仿真平台上主流的路由机制best-routing进行对比。ndnsim是基于ns-3的仿真工具,在该平台上加入了ndn协议栈,可实现ccn网络的路由机制。实验的节点总数为30个,请求到达服从泊松分布。此外用户的请求分布根据zipf的指数分布进行调整。zipf指数代表请求内容的集中度,指数越大表示用户请求内容越相似,越小表示请求越内容分散。仿真时间为180s,其他参数如表3所示:表3实验参数设置3.1性能评价指标为了客观反映不同路由机制的实际效果及不同参数对路由机制的影响,本实施例定义了以下的性能评价指标。1)平均请求时延单个内容的请求时延是指用户从开始发送兴趣包到接收数据包整个过程的时间,平均请求时延是指在周期为t(此处设置为20s)的范围内,计算所有请求内容时延的平均值。平均请求时延反应用户发从出请求到响应的平均时间,该值越小代表等待时间更短,用户体验更佳。2)发布者服务器负载减少率(loadreductionratio)其中,s_counts表示发布者服务器的响应次数,r_counts表示用户的请求的总次数。服务器负载的减小率表示由于网络中分布的缓存的响应使得发布者的负载减小,该指标越高,说明网络中的缓存起到的效果越明显。3)缓存通告报文开销(overheadofcachenotificationmessage)缓存通告开销定义单位时间内每个缓存通告的报文长度与传输距离的乘积,并对通知内容个数求和,大小主要取决于报文的长度、报文的通告数量和跳数。该值越大,表示缓存通告的开销越大,占用的带宽越多。3.2仿真结果及分析设置仿真条件为catt的缓存通告为2跳,enper的最大通告范围为3跳,zipf=1。在仿真的初期,由于网络中所有路由节点均无存储,不同路由机制的兴趣包都必须到达发布者服务器以获取内容,初期的请求时延相等且较大,随着网络中缓存的内容逐渐增加,获取内容的跳数减少,平均时延逐渐降低,最后趋于平稳。对比分析,三种路由机制的平均请求时延从大到小依次为best-routing、catt、enper。具体原因如下:best-routing的fib中只存在到发布者的最短路径,无法感知路径外的缓存节点的内容,因此大部分兴趣包需要穿过整个网络到达发布者,占用的链路资源最多,平均请求时间最长;catt采用了基于势能的缓存感知路由机制,相比best-routing可以让兴趣包朝着缓存节点进行路由,平均请求时延下降;enper通过增加边缘节点的势能值将兴趣包吸引到最近的缓存节点命中,跳数最少,占用的资源最少。根据图4的仿真结果可以分析出在仿真初期数据波动较大,为仿真预热时间,因此后续对比将取100秒~180秒之间的稳定数据进行分析。由于在不同的网络场景下zipf的指数分布具有一定差异性,本实施例通过改变zipf的分布参数(0.7~1.1)比较三种路由的差异。如图5,随着zipf参数的增加,三种请求平均时延不断减小,其原因是zipf分布指数越小表示请求内容越离散,多样化的内容请求将导致有限的存储空间被高频率地替换,缓存利用率低;随着zipf分布指数的增加,请求内容的局域性和集中性不断加强,cs储存的内容稳定,兴趣包得以在缓存节点中命中内容,平均请求时延不断减小。对比分析可以得出,当zipf=1时,enper的平均请求时延相比best-routing减少了约43%,与catt相比减少了17%。图6分析了zipf分布指数对发布者服务器负载的影响。发布者负载减小率越大表示兴趣包可以更多的在网络中的缓存节点上获得请求的内容。三者比较性能最优的是enper。在zipf=1时,enper路由机制可以减少83%的发布者服务器的负载,其原因是通过改变节点的势能,兴趣包可以在边缘节点获得请求内容,而无需到达发布者。随着zipf指数的增加,纵坐标对应的数值增长速率放缓,原因是采用的缓存机制为lru,即当路由器缓存装满时,会将最近一段时间最少请求的内容淘汰。当请求逐渐集中,此时的缓存容量大小又保持一定时,增长趋势放缓。图7分析了缓存通告开销和zipf指数分布的关系。两者进行比较,enper的通告开销更低,原因是catt在周期时间内会将所有缓存节点的内容向周围节点以固定跳数的方式进行扩散,并且不区分请求次数很少、非流行的内容,这种盲目通告的方式会浪费带宽资源。enper由于增加了边缘缓存节点的势能,兴趣包不仅可以通过势能的吸引在边缘节点上命中,还可以通过在边缘节点集中收集兴趣包的个数,更好的统计出用户的请求分布,减少上游节点存在的pit过滤效应。此外,enper按照流行度的预测值对通告范围进行设置,大量非流行的内容不会向周围节点发出通告报文,因此不仅提升了内容的可用性,还减少了通告开销。为了实现请求内容的就近应答,提高缓存资源的利用率,对内容中心网络的缓存节点和发布者节点构造了势能模型,并在此基础上提出了一种边缘节点势能增强的路由机制enper。通过改变靠近边缘的节点势能值,增加了边缘缓存内容的吸引力,将兴趣包吸引到就近的节点上快速命中响应,减少了内容的平均请求时延和发布者服务器的负载;同时,还通过在边缘节点计算内容的预测流行度,对数量较少但流行度高的内容扩大范围通告,对数量较多但流行度低的内容减少或不发送通告,降低了通告报文对网络带宽的消耗。最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1