基带池系统的制作方法

文档序号:7995141阅读:474来源:国知局
基带池系统的制作方法
【专利摘要】本发明提供一种基带池系统,属于无线通信领域。其中,基带池系统,包括:多个服务器;通过PCIe总线与服务器连接的的多个加速板卡,用于与连接的服务器CPU进行通信,并与射频拉远单元RRU进行通信;与所述多个加速板卡连接的交换机,用于与所述加速板卡进行数据交换及共享,实现多个加速板卡之间的基带数据交换,从而在分属不同服务器的小区物理层间进行实时数据交换;与所述多个服务器的以太网口连接的以太网交换机,用于实现小区协议栈处理虚拟机的迁移和备份功能。本发明的技术方案能够实现基带池的协作化能力和动态负载迁移能力,降低系统的处理功耗。
【专利说明】基带池系统
【技术领域】
[0001]本发明涉及无线通信领域,特别是指一种基带池系统。
【背景技术】
[0002]随着近几年能源和电力价格的上涨,全球移动通信网络运营商面临日渐严重的成本压力,运营商获取站址和机房的难度也在不断加大。全球大多数主流运营商通常同时拥有2-3个不同通信制式的网络,为保证网络的服务质量,需要部署大量的基站以解决网络覆盖的问题。站址和机房资源的相对稀缺,与不断增长的基站数量的矛盾在一定时期内无法协调,目前已成为运营商无法回避的难题。尽管在运营成本方面面临巨大压力,运营商的盈利能力并不随之提高,由于电信市场的激烈竞争,单用户平均收入(ARPU)增长缓慢甚至下降。出于行业持续盈利和长期发展考虑,移动通信产业界提出新型无线网络架构C-RAN,C-RAN 是基于集中化处理(Centralized Processing),协作式无线电(CollaborativeRadio)和实时云计算构架(Real-time Cloud Infrastructure)的绿色无线接入网构架(Clean system)。其本质是通过实现减少基站机房数量,减少能耗,采用协作化、虚拟化技术,实现资源共享和动态调度,提高频谱效率,以达到低成本,高带宽和灵活度的运营。
[0003]C-RAN的系统架构,主要是由射频拉远单元(RRU)与天线组成的分布式无线网络,具备高带宽、低延迟的光传输网络连接远端无线射频单元,通用处理器和实时虚拟技术组成的集中式基带处理池三大部分组成,所有基带处理单元和远端无线射频单元通过高带宽、低延迟的光传输网络连接起来。基带处理单元(BBU)集中在一个物理站点构成基带池。基带池中多个基带处理单元之间通过高带宽、低延迟、灵活拓扑、低成本交叉连接。基带池上需要应用基站虚拟化技术,支持基带池物理资源和计算能力的虚拟分配和组合。
[0004]集中式基站内多个BBU互联互通构成高容量、低延迟的互联架构。远端的RRU通过互联架构交换到集中式基带池中任一个BBU。这种方式是对现有BBU进行集中化集成,可有效实现载波负载均衡、容灾备份,并达到提高设备利用率、减少基站机房数量、降低能耗的目的。
[0005]现有技术实现BBU基带池方案,多依靠传统DSP (数字信号处理器)+FPGA (现场可编程门阵列器件)的架构处理基带信号,并同时采用额外的附加交换设备实现多块基带处理单元之间的IQ路数据的交换。这种架构最大化的依赖于背板的交换能力和交换板的数据调度吞吐能力,且各厂家之间的接口无论从软件还是到硬件均是不统一的,若同一个基带池内存在不同厂家的基带处理设备,设备之间的互联互通是一个很困难的事情。
[0006]传统的基带处理单板的结构如图1所示,基带板上所有的元器件选取准则,需根据设计的整体处理能力而定,FPGA和DSP的选型、使用数量、比例等均随着半导体芯片工艺的提升而发生变化,每代产品与上一代产品具有着巨大的差异。若需要提高基带单板的处理能力,往往需要更换整块单板,对运营商意味着之前投资的巨大浪费。另外,由于不同代板卡之间的处理能力不同、设计原则不同,不同单板之间若需要协作完成某项功能时,会有巨大的设计困难。因此目前已有基带池的多载波分配调度方案都是以载波为粒度进行调配。这大大限制了多载波硬件资源的处理负载均衡功能的灵活性。
[0007]基于此,有些厂商也在这方面做了有益的探索。使用SDR (软件无线电)技术,将原DSP的处理功能移植到CPU上实现。将专用设备替换为通用设备,以纯软件实现基带信号的方式辅以已有的IT化技术(如虚拟化等),替换封闭、且运算量配比固定的当前商用架构。但由于这个处理平台考虑了过多的通用功能,需要在CPU外围增加很多对于通信系统无意义的设备,包括南桥芯片、北桥芯片、显卡芯片等,造成了整体的功耗性能比过高,不利于通信平台的绿色化。
[0008]基于此,两类方案均不适应未来运营商高能效、低成本的需求,需要另外寻找一种可行的方案。

【发明内容】

[0009]本发明要解决的技术问题是提供一种基带池系统,能够实现基带池的协作化能力和动态负载迁移能力,降低处理功耗。
[0010]为解决上述技术问题,本发明的实施例提供技术方案如下:
[0011]—方面,提供一种基带池系统,包括:
[0012]多个服务器;
[0013]通过PCIe总线与服务器连接的的多个加速板卡,用于与连接的服务器CPU进行通信,并与射频拉远单元RRU进行通信;
[0014]与所述多个加速板卡连接的交换机,用于与所述加速板卡进行数据交换及共享,实现多个加速板卡之间的基带数据交换,从而在分属不同服务器的小区物理层间进行实时数据交换;
[0015]与所述多个服务器的以太网口连接的以太网交换机,用于实现小区协议栈处理虚拟机的迁移和备份功能。
[0016]进一步地,所述加速板卡包括:
[0017]无线接口模块,用于接收RRU发送的上行数据,并发送下行数据和同步信号给RRU ;
[0018]对外数据交换接口模块,用于将本小区需要对外交换和共享的基带数据按照接口协议打包后发送给所述交换机,并接收所述交换机发送的打包数据,对打包数据进行解析;
[0019]处理模块,用于对所述无线接口模块和所述对外数据交换接口模块接收到的数据进行物理层处理。
[0020]进一步地,所述处理模块包括:
[0021]物理算法子模块,用于接收服务器通过PCIe总线传送的待计算数据,对所述待计算数据进行计算后,上报计算结果至连接的服务器或通过板间接口将计算结果发送给与其他服务器连接的加速板卡。
[0022]进一步地,所述物理算法子模块包括但不限于:
[0023]FFT/iFFT单元,用于对数据进行FFT/iFFT变换;
[0024]Turbo编译码单元,用于对数据进行Turbo编译。
[0025]进一步地,所述对外数据交换接口模块包括:[0026]CoMP协作化逻辑通道,用于将从多个RRU接收到的同一UE的数据汇聚给同一个加速板卡的处理模块及服务器,以便由所述加速板卡的处理模块计算出的下行CoMP权值因子分发给其他相关加速板卡;
[0027]物理层与高层间接口逻辑通道,用于将从RRU接收到的数据经物理层处理后透传至其小区的高层协议栈所在的服务器。
[0028]进一步地,所述无线接口模块通过通用公共无线接口 CPRI与RRU连接。
[0029]进一步地,所述加速板卡间交换机为通用交换机,所述通用交换机包括但不限于:以太网交换机、Infin1-Band交换机、PCIe交换机。
[0030]进一步地,所述对外数据交换接口模块与所述交换机通过通用接口连接,所述通用接口包括但不限于:以太网接口、IB接口连接、和PCIe接口。
[0031]进一步地,所述处理模块与服务器通过PCIe接口连接。
[0032]本发明的实施例具有以下有益效果:
[0033]上述方案中,基带池系统由服务器、加速板卡间交换机、服务器间以太网交换机和加速板卡四部分组成,加速板卡具有板间数据交换接口和RRU通信接口的能力,通过加速板卡间交换机和加速板卡的相互配合能够实现服务器之间物理层内数据的实时传输,而服务器间交换机负责服务器内高层协议栈虚机的迁移,从而使得基带池具有协作化能力和动态负载迁移能力,资源可灵活配置,从而降低处理功耗。
【专利附图】

【附图说明】
[0034]图1为现有技术中的基带处理单板的结构示意图;
[0035]图2为本发明实施例的基带池系统的结构示意图;
[0036]图3为本发明实施例的加速板卡的、结构示意图;
[0037]图4为本发明实施例的基带池系统的数据流动示意图;
[0038]图5为本发明实施例的基带池系统的动态载波负载迁移示意图。
【具体实施方式】
[0039]为使本发明的实施例要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
[0040]本发明实施例提供了一种基带池系统,能够实现基带池的协作化能力和动态负载迁移能力,降低处理功耗。
[0041]如图2所示,本发明实施例提的基带池系统包括:
[0042]多个服务器10 ;
[0043]通过PCIe总线与服务器10连接的的多个加速板卡11,用于与连接的服务器CPU进行通信,并与射频拉远单元RRU进行通信;
[0044]与所述多个加速板卡11连接的交换机12,用于与所述加速板卡11进行数据交换及共享,实现多个加速板卡11之间的基带数据交换,从而在分属不同服务器10的小区物理层间进行实时数据交换;
[0045]与所述多个服务器10的以太网口连接的以太网交换机13,用于实现小区协议栈处理虚拟机的迁移和备份功能。[0046]进一步地,如图3所示,加速板卡11包括:
[0047]无线接口模块112,用于接收RRU发送的上行数据,并发送下行数据和同步信号给RRU ;
[0048]对外数据交换接口模块111,用于将本小区需要对外交换和共享的基带数据按照接口协议打包后发送给所述交换机,并接收所述交换机发送的打包数据,对打包数据进行解析;
[0049]处理模块113,用于对无线接口模块和对外数据交换接口模块接收到的数据进行
物理层处理。
[0050]进一步地,处理模块113包括:
[0051]物理算法子模块,用于接收服务器通过PCIe总线传送的待计算数据,对所述待计算数据进行计算后,上报计算结果至连接的服务器或通过板间接口将计算结果发送给与其他服务器连接的加速板卡。
[0052]进一步地,物理算法子模块包括但不限于:
[0053]FFT/iFFT单元,用于对数据进行FFT/iFFT变换;
[0054]Turbo编译码单元,用于对数据进行Turbo编译码。
[0055]本发明的基带池系统由服务器、加速板卡间交换机、服务器间以太网交换机和加速板卡四部分组成,加速板卡具有板间数据交换接口和RRU通信接口的能力,通过加速板卡间交换机和加速板卡的相互配合能够实现服务器之间物理层内数据的实时传输,而服务器间交换机负责服务器内高层协议栈虚机的迁移,从而使得基带池具有协作化能力和动态负载迁移能力,资源可灵活配置,从而降低处理功耗。
[0056]下面结合附图对本发明的基带池系统进行进一步介绍:
[0057]如图2所示,本发明的基带池系统由服务器、加速板卡、交换机和以太网交换机四部分组成。
[0058]其中,服务器可以为GPP (General Purpose Processors,通用处理器)服务器,其包括CPU及其外围附属配件,是一个通用的标准平台,随着IT技术的不断演进按照摩尔定律不停地升级换代。
[0059]加速板卡是整个基带池系统的核心部分,其具备物理层处理功能、对外数据交换功能和与RRU的通信功能,如图2所示,在加速板卡中,对外数据交换接口模块通过交换机与其他加速板卡连接,无线接口模块与RRU进行通信连接,处理模块分别连接对外数据交换接口模块和无线接口模块,处理模块连接服务器。具体地,无线接口模块可以通过CPRI(通用公共无线接口)与RRU连接,处理模块可以与服务器通过PCIe接口连接,对外数据交换接口模块可以与交换机通过以太网接口或IB接口连接。
[0060]交换机可以是以太网交换机、也可以是Infin1-Band交换机。交换机可以组成一定的互联结构,以实现更大规模的基带池平滑扩展。交换机的交换端口与加速板卡的对外数据交换接口模块连接,用于实现服务器间实时高带宽地交换数据。
[0061]以太网交换机,用于与服务器的以太网口相连,实现服务器间的虚拟机迁移和备份等云计算功能,并用于服务器间以及与外部其他设备的网络通信。以太网交换机包括有:SI接口、X2接口、高层应用的通信接口等。
[0062]本发明的基带池系统中,加速板卡应具有三方面的功能:[0063]I)物理层处理或部分物理层处理
[0064]即加速板卡的处理模块所执行的功能,加速板卡可以对数据进行算法处理,这样可以为CPU分担处理物理层算法的负载,提升基带池系统的整体性能功耗比。其主要功能可以包括FFT/iFFT/Turbo编码/Turbo译码等功能,也可以包括物理层处理的大部分功能。加速板卡需要具有PCIe连接总线接口,处理模块通过该接口与CPU的部分物理层以及L2等高层协议站进行实时高速通信。
[0065]2) CPRI 接 口功能
[0066]即无线接口模块所执行的功能,服务器需要通过CPRI连接与RRU通信,所以在加速板卡上需要保留与RRU通信的CPRI接口能力,无线接口模块将接收到的上行IQ(频率调制)数据从CPRI接口中解析出来,发送下行数据和同步信号给RRU,以确保RRU的同步状态和正常工作状态。
[0067]3)对外交换数据功能
[0068]即对外数据交换接口模块所执行的功能,此功能将需要对外交换的数据打包成相关的接口协议,可以是以太网或IB接口。对外交换数据的主要目的是使得多服务器间可以低时延地协同工作。对外数据交换接口模块可设计两个逻辑信道:
[0069]一 =CoMP协作化逻辑通道。上行方面,当多个RRU的覆盖范围有交叠时,同一个UE的发送数据可能被多个RRU接收,相关数据需要通过协作化逻辑通道传输到一个服务器上统一联合处理,以获取最大的增益。下行方面,当多个UE通过下行JT与多个RRU通信时,需要将多个UE的信道测量信息汇总后生成下行预编码矩阵,且多小区内的多UE的速率匹配结果也需要通过协作化逻辑通道发送给相关联合发送小区进行预编码和物理资源映射。
[0070]二:物理层与高层间接口逻辑通道。当夜间BBU基带池内附着的UE数量较少时,基带池内的大部分计算能力都处在空闲状态。因此小区高层协议栈处理和部分CPU上的LI层处理功能需要动态地集中迁移到一个服务器下,而其余服务器或睡眠或关断电源或采用其他节电的方法实现降低整体BBU池功耗的目的。因此需要通过高层配置将加速板卡处理后的部分数据交换到新的目标服务器上,目标服务器的板卡仅起到透传作用,这样实现动态负载迁移的能力。
[0071]如图4所示,本发明基带池系统的各组成部分的基本工作原理如下流程描述,以上行为例:
[0072]第一步:加速板卡通过与RRU的CPRI接口获取从RRU侧发送过来的空口数据;
[0073]第二步:加速板卡对原始IQ数据进行部分物理层处理,将时域信号数据转换成频域信号数据;
[0074]第三步:根据后台配置,加速板卡选择已处理后的频域信号数据通过PCIe接口发送给本服务器(即与自身连接的服务器)或者发送给基带池内的其他服务器上所插的加速板卡的虚拟接口(通过服务器间的交换机);
[0075]第四步:本服务器上的加速板卡根据后台配置,接收其他加速板卡发送过来的频域信号数据,并将本加速板卡接收到的RRU频域信号数据汇总后,通过PCIe总线发送给本服务器的CPU ;
[0076]第五步:本服务器的CPU执行部分LI层算法,可包含CoMP算法等运算功能;
[0077]第六步:本服务器上的CPU处理部分LI层功能,但涉及到类似“Turbo码译码”或“DFT/IDFT”等密集运算时将需要计算的数据通过PCIe接口发送到加速板卡,将加速板卡作为协处理单元使用,加速板卡计算完成后,将计算结果通过PCIe接口发送给服务器的物
理层;
[0078]第七步:本服务器上的物理层与本服务器上的L2/L3层协议栈处理虚拟机逻辑单元进行数据交换,物理层上报计算结果,L2/L3层发送控制信息和信令信息等;
[0079]第八步:本服务器将通过服务器集成的通用以太网口与核心网设备相通信,完成BBU的S1/X2接口功能等。
[0080]此外,本发明的基带池系统还具有动态载波负载迁移能力,可灵活配置各服务器资源,下面以图5为例,说明物理层功能的虚机切换过程,假设服务器上启动了三类虚拟机:L1层处理虚拟机,L2层处理虚拟机,L3层处理虚拟机,则动态载波负载迁移过程如下:
[0081]第一步:在发现各服务器处理负载较轻时,触发载波切换流程;
[0082]第二步:选中多个服务器中的一台作为切换目标机;
[0083]第三步:在目标机上启动L3层处理虚拟机,将源服务器上的L3层虚拟机内的信息实时同步到目标机中;
[0084]第四步:同步完成后,关闭源虚拟机,目标机的L3层虚拟机通过服务器的以太网接口与源服务器上的L2/L1层虚机保持通信;
[0085]第五步:重复第三步-第四步的操作,将L2/L1层虚拟机均在目标机中实现复制转移;
[0086]第六步:配置源目标机的加速板卡将FFT处理之后的频域信号数据路由到目标机的加速板卡上,目标机加速板卡透传此信息通过PCIe总线与LI层虚拟机通信。
[0087]通过上述第一步-第六步即可完成载波切换过程。
[0088]本发明的基带池系统由服务器、交换机和加速板卡三部分组成,结构简洁,组网灵活;加速板卡具有数据交换能力和RRU通信能力,通过交换机和加速板卡的相互配合能够实现服务器之间数据的实时传输,使得基带池具有协作化能力和动态负载迁移能力,资源可灵活配置;此外,加速板卡还具有物理层算法能力,能够为服务器分担处理物理层算法的负载,提升基带池系统的整体性能功耗比。
[0089]此说明书中所描述的许多功能部件都被称为模块、单元,以便更加特别地强调其实现方式的独立性。
[0090]本发明实施例中,模块可以用软件实现,以便由各种类型的处理器执行。举例来说,一个标识的可执行代码模块可以包括计算机指令的一个或多个物理或者逻辑块,举例来说,其可以被构建为对象、过程或函数。尽管如此,所标识模块的可执行代码无需物理地位于一起,而是可以包括存储在不同位里上的不同的指令,当这些指令逻辑上结合在一起时,其构成模块并且实现该模块的规定目的。
[0091]实际上,可执行代码模块可以是单条指令或者是许多条指令,并且甚至可以分布在多个不同的代码段上,分布在不同程序当中,以及跨越多个存储器设备分布。同样地,操作数据可以在模块内被识别,并且可以依照任何适当的形式实现并且被组织在任何适当类型的数据结构内。所述操作数据可以作为单个数据集被收集,或者可以分布在不同位置上(包括在不同存储设备上),并且至少部分地可以仅作为电子信号存在于系统或网络上。
[0092]在模块可以利用软件实现时,考虑到现有硬件工艺的水平,所以可以以软件实现的模块,在不考虑成本的情况下,本领域技术人员都可以搭建对应的硬件电路来实现对应的功能,所述硬件电路包括常规的超大规模集成(VLSI)电路或者门阵列以及诸如逻辑芯片、晶体管之类的现有半导体或者是其它分立的元件。模块还可以用可编程硬件设备,诸如现场可编程门阵列、可编程阵列逻辑、可编程逻辑设备等实现。
[0093]在本发明各方法实施例中,所述各步骤的序号并不能用于限定各步骤的先后顺序,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,对各步骤的先后变化也在本发明的保护范围之内。
[0094]以上所述是本发明的优选实施方式,应当指出,对于本【技术领域】的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
【权利要求】
1.一种基带池系统,其特征在于,包括: 多个服务器; 通过PCIe总线与服务器连接的的多个加速板卡,用于与连接的服务器CPU进行通信,并与射频拉远单元RRU进行通信; 与所述多个加速板卡连接的交换机,用于与所述加速板卡进行数据交换及共享,实现多个加速板卡之间的基带数据交换,从而在分属不同服务器的小区物理层间进行实时数据交换; 与所述多个服务器的以太网口连接的以太网交换机,用于实现小区协议栈处理虚拟机的迁移和备份功能。
2.根据权利要求1所述的基带池系统,其特征在于,所述加速板卡包括: 无线接口模块,用于接收RRU发送的上行数据,并发送下行数据和同步信号给RRU ; 对外数据交换接口模块,用于将本小区需要对外交换和共享的基带数据按照接口协议打包后发送给所述交换机,并接收所述交换机发送的打包数据,对打包数据进行解析; 处理模块,用于对所述无线接口模块和所述对外数据交换接口模块接收到的数据进行物理层处理。
3.根据权利要求2所述的基带池系统,其特征在于,所述处理模块包括: 物理算法子模块,用于接收服务器通过PCIe总线传送的待计算数据,对所述待计算数据进行计算后,上报计算结果至连接的服务器或通过板间接口将计算结果发送给与其他服务器连接的加速板卡。
4.根据权利要求3所述的基带池系统,其特征在于,所述物理算法子模块包括但不限于: FFT/iFFT单元,用于对数据进行FFT/iFFT变换; Turbo编译码单元,用于对数据进行Turbo编译码。
5.根据权利要求2所述的基带池系统,其特征在于,所述对外数据交换接口模块包括: CoMP协作化逻辑通道,用于将从多个RRU接收到的同一 UE的数据汇聚给同一个加速板卡的处理模块及服务器,以便由所述加速板卡的处理模块计算出的下行CoMP权值因子分发给其他相关加速板卡; 物理层与高层间接口逻辑通道,用于将从RRU接收到的数据经物理层处理后透传至其小区的高层协议栈所在的服务器。
6.根据权利要求2所述的基带池系统,其特征在于,所述无线接口模块通过通用公共无线接口 CPRI与RRU连接。
7.根据权利要求2所述的基带池系统,其特征在于,所述加速板卡间交换机为通用交换机,所述通用交换机包括但不限于:以太网交换机、Infin1-Band交换机、PCIe交换机。
8.根据权利要求2或7所述的基带池系统,其特征在于,所述对外数据交换接口模块与所述交换机通过通用接口连接,所述通用接口包括但不限于:以太网接口、IB接口连接、和PCIe 接口。
9.根据权利要求2所述的基带池系统,其特征在于,所述处理模块与服务器通过PCIe接口连接。
【文档编号】H04W72/00GK103916909SQ201310002283
【公开日】2014年7月9日 申请日期:2013年1月4日 优先权日:2013年1月4日
【发明者】段然, 袁雁南, 吕锐新, 陈奎林 申请人:中国移动通信集团公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1