一种基于AI的负载预测方法与流程

文档序号:31860736发布日期:2022-10-19 04:47阅读:356来源:国知局
一种基于AI的负载预测方法与流程
一种基于ai的负载预测方法
技术领域
1.本公开针对在无线通信网络内交换用于负载预测的人工智能(ai)计算信息。


背景技术:

2.自优化网络(son)已成为移动通信系统的一个关键特性。特别地,自动移动性负载均衡(mlb)是son中的一项重要功能。例如,在蜂窝网络中利用mlb,通信系统可以均匀地分配小区流量负载,并将移动用户从一个小区转移到另一个小区。这种优化旨在提高系统容量和可靠性,以及改善用户体验。此外,本功能能够最大限度地减少网络管理和优化任务中的人为干预。


技术实现要素:

3.本公开描述了一种用于在无线通信系统中的各种网元之间交换ai计算信息的方法和系统。
4.在一个示例实施方式中,公开了一种由无线通信系统的网元执行的用于交换ai计算信息的方法。该方法包括:由无线通信网络的第一网元向无线通信网络的第二网元发送用于负载预测的第一消息,其中,该第一消息包括用于第一网元的负载预测的机器学习模型的输入或者机器学习模型的模型配置信息中的至少一个。
5.在上述实施方式中,机器学习模型的输入包括以下中的至少一项:与第一网元相关联并由其服务的当前小区的当前负载信息;当前小区的相邻小区的当前负载信息;当前小区的历史负载信息;或者相邻小区的历史负载信息。
6.在上述任一实施方式中,机器学习模型的模型配置信息包括以下中的至少一项:机器学习模型类型;ai算法信息;运行机器学习模型的硬件平台的信息;或者机器学习模型的训练配置信息。
7.在上述任一实施方式中,机器学习模型类型包括以下中的至少一种:时间级别模型类型;空间级别模型类型;历史级别模型类型;或者相似模型类型。
8.在上述任一实施方式中,ai算法信息指示以下中的至少一种:自回归综合移动平均(arima)算法;先知模型算法;随机森林算法;长短期记忆(lstm)算法;或者集成学习算法。
9.在上述任一实施方式中,硬件平台信息包括以下中的至少一项:图形处理单元(gpu)信息;现场可编程门阵列(fpga)信息;专用集成电路(asic)信息;或者片上系统(soc)信息。
10.在上述任一实施方式中,训练配置信息包括以下中的至少一种:梯度配置;权重配置;导出配置;或者机器学习模型的训练参数的大小。
11.在上述任一实施方式中,第一消息包括以下消息之一:下一代无线接入网(ng-ran)节点配置更新消息;下一代nodeb分布式单元(gnb-du)配置更新消息;下一代nodeb集中式单元(gnb-cu)配置更新消息;en-dc配置更新消息;或者ai配置更新消息。
12.上述任一实施方式还包括由第一网元接收来自第二网元的对第一消息的响应消息。
13.在上述任一实施方式中,响应消息包括以下之一:ng-ran节点配置更新确认消息;ai配置更新确认消息;gnb-du配置更新确认消息;gnb-cu配置更新确认消息;或者en-dc配置更新确认消息。
14.在上述任一实施方式中,第一条消息包括单向ai配置传输消息。
15.在上述任一实施方式中,第一网元或第二网元包括基站。
16.在上述任一实施方式中,基站包括以下中的至少一种:新一代nodeb(gnb);演进型nodeb(enb);或者nodeb。
17.在上述任一实施方式中,第一网元包括基站的分布式单元(du),而第二网元包括基站的集中式单元(cu)。
18.在上述任一实施方式中,第一网元包括基站的集中式单元(cu),而第二网元包括基站的分布式单元(du)。
19.在上述任一实施方式中,第一网元被配置为辅节点,而第二网元被配置为主节点,并且第一网元和第二网元形成双连接配置。
20.在上述任一实施方式中,还包括使第二网元根据ai计算信息消息适配运行在第二网元上的机器学习模型。
21.还公开了各种网元。这些网络节点中的每一个包括处理器和存储器,其中处理器被配置为从存储器读取计算机代码以实施上述方法中的任何一种。
22.还公开了一种非暂时性计算机可读介质。这种非暂时性计算机可读介质包括在由计算机执行时使计算机执行上述方法中的任何一种的指令。
23.上述实施例及其实施方式的其他方面和可替选方案在下面的附图、说明书和权利要求中进行了更详细地描述。
附图说明
24.图1示出了无线通信网络的示例性系统图。
25.图2示出了用于负载预测的示例性机器学习模型。
26.图3示出了用于在基站之间交换ai计算信息的消息流。
27.图4示出了用于在基站之间交换ai计算信息的另一消息流。
28.图5示出了用于从du向cu发送ai计算信息的消息流。
29.图6示出了用于从du向cu发送ai计算信息的另一个消息流。
30.图7示出了用于从cu向du发送ai计算信息的消息流。
31.图8示出了用于从cu向du发送ai计算信息的另一个消息流。
32.图9示出了具有主节点和辅节点的示例性双连接架构。
33.图10示出了用于从辅节点向主节点发送ai计算信息的消息流。
34.图11示出了用于从辅节点向主节点发送ai计算信息的另一个消息流。
35.图12示出了具有主节点和辅节点的另一示例性双连接架构。
36.图13示出了具有主节点和辅节点的另一示例性双连接架构。
37.图14示出了具有主节点和辅节点的另一示例性双连接架构。
具体实施方式
38.本公开中的实施方式和/或实施例的技术和示例可以被用于提高移动性负载均衡(mlb)的性能,并节省通信系统中的能源。术语“示例性”被用于表示
“……
的示例”,并且除非另有说明,否则并不意味着理想的或者优选的示例、实施方式或者实施例。这些实施方式可以以各种不同的形式体现,并且因此,本公开或者所要求保护的主题内容的范围旨在被解释为不限于下文所述的任何实施例。各种实施方式可以被体现为方法、设备、组件或者系统。因此,本公开的实施例可以例如采用硬件、软件、固件或者其任何组合的形式。
39.本公开涉及一种用于在无线通信系统中的网元之间交换用于负载预测的ai计算信息的方法和系统。在下面公开的实施方式中,网元被配置为基于一个或者多个学习模型执行负载预测。下面公开的网元还能够基于从对端网元获取的ai计算或者机器学习模型信息来自适应地配置、更新和优化机器学习模型。网元还使用更新或者优化的机器学习模型来预测网元中的负载。尽管以下公开是在第四代(4g)和第五代(5g)蜂窝网络的背景下提供的,但是本公开的基本原理适用于其他无线基础设施,以及支持基于ai的负载预测和负载均衡的有线网络。
40.图1示出了包括多个用户设备(ue)和运营商网络的示例性无线通信网络100。例如,运营商网络还可以包括至少一个无线接入网(ran)140和一个核心网110。ran 140可以被回程到核心网110。ran 140可以包括一个或者多个各种类型的无线基站(bs)或者无线接入网节点120和121,包括但不限于下一代nodeb(gnb)、en-gnb(能够连接到4g核心网的gnb)、演进型nodeb(enodeb或者enb)、下一代enb(ng-enb)、nodeb或者其他类型的基站。基站可以经由诸如x2或者xn接口之类的通信接口彼此连接。例如,bs 120还可以包括集中式单元(cu)122和至少一个分布式单元(du)124和126形式的多个独立单元。cu 122可以经由各种f1接口与du1 124和du2 126连接。在一些实施例中,cu可以包括gnb集中式单元(gnb cu),而du可以包括gnb分布式单元(gnb-du)。例如,无线通信网络100可以包括以无线方式接入ran 140的各种ue。每个ue可以包括但不限于移动电话、智能手机、平板电脑、笔记本电脑、车辆车载通信设备、路边通信设备、传感器设备、智能电器(诸如电视、冰箱和烤箱)、mtc/emtc设备、iot设备或者能够进行无线通信的其他设备。ue可经由ran 140或经由ran 140和核心网110两者或者直接经由ue之间的侧链路间接地彼此通信。
41.为了简单和清楚起见,在无线通信网络100中仅示出了一个ran 140。应当理解,一个或者多个ran 140可以存在于无线通信网络系统100中,并且每个ran可以包括多个基站。每个基站可以服务于一个或者多个ue。
42.负载均衡
43.在无线通信系统中,每个基站支持不同数量的ue,并且每个ue可以在系统内的不同时间和不同位置生成不同量的流量。无线通信系统的一个重要特征是流量负载在时间和空间上的变化。例如,基站可能在一天中的不同时间、一周中的不同日子或者一年中的不同月份经历不同的负载。又例如,基站可能在热点城市位置经历更高的负载,并且在偏远位置经历更低的负载。不同的ue行为也可能影响基站负载。例如,语音通话中的ue可能会产生低带宽流量,而接收视频流的ue可能会产生高带宽流量。此外,在同一应用中,流量带宽可能会发生显著变化。例如,ue可以在不同时间以显著不同的比特率接收视频流。
44.由于负载变化,当容量达到基站的最大设计容量时,基站可能会变得繁忙、拥挤,
甚至过负载。当这种情况发生时,因为ue可能会失去与网络的连接,所以服务质量(qos)下降,并且用户体验受到负面影响。在基站过负载情况下,基站可能还需要重启以从过负载状态恢复,从而导致基站覆盖区域内的服务中断。另一方面,过负载基站的相邻基站可能仅被轻微占用和未充分使用。分配给相邻基站的频谱资源和硬件/软件容量将被浪费。因此,引入负载均衡是为了将流量或者用户从繁忙的基站转移到未充分使用的基站,以实现跨基站负载均衡的目标。
45.负载均衡带来的另一个好处是能效。在无线通信系统中,可以通过从相邻基站引入用户并去激活相邻基站,来利用一个基站的容量以节省能源。当负载条件发生变化时,相邻基站可以被激活。激活和去激活可以全部或者部分地被应用于基站。
46.为了实现负载均衡,基站实时监测其负载信息。负载信息可以包括物理资源块(prb)使用情况、传输网络层(tnl)容量、硬件负载、激活的ue的数量、无线资源控制(rrc)连接等。基站进一步与其相邻基站交换负载信息。基于本地基站和相邻基站的负载信息,基站可以决定将其部分ue转移到相邻基站。例如,在基站负载较重而相邻基站负载较轻的情况下,基站可以通过转移来优化基站之间的负载分布。在一些实施方式中,一个基站可以接管相邻基站的全部流量,以便相邻基站可以被去激活以节省能源。
47.虽然上述描述是在基站中的负载均衡的背景中提供的,但是类似的负载均衡也可以发生在同一基站的小区之间。
48.除了使用实时负载信息进行负载均衡决策外,还可以考虑历史负载信息。此外,随着ai技术的快速发展,使用当前负载信息和历史负载信息作为输入,基于深度学习模型来预测基站的负载信息是可能的。利用所预测的负载信息,无线通信系统能够预先选择适当的移动性策略,并以主动的方式优化系统性能。例如,系统可能能够预测,对于特定基站,在特定时间,流量负载可能会达到峰值。例如,流量负载峰值可以在一些可预测的时间帧内发生。然后,系统可能能够将诸如传输资源之类的更多通信资源预先分配给基站。
49.虽然上述描述是在基站的背景中提供的,但是负载均衡原则通常也可以被应用于通信系统中的其他网元。
50.使用ai的负载信息预测
51.ai计算的操作可以在基站中本地执行。例如,基站可以配置有为ai任务分配的ai计算相关模块。ai计算还可以在基站外执行,例如,由基站外的ai服务器或服务器集群(诸如,基于云的ai服务器或服务器集群)执行。可以为ai计算部署至少一个机器学习(ml)负载预测模型。特别地,ml负载预测模型可以被预先训练,并且可以在部署后重新训练。当部署了多个ml负载预测模型时,基站可被配置为基于特定需求来选择用于执行负载预测的模型。
52.ai计算的操作需要特定信息,并且这种ai计算信息包括ml负载预测模型的输入和相关的ml负载预测模型配置信息。细节描述如下。
53.图2示出了使用长短期记忆(lstm)算法的示例性ml负载预测模型。该模型可以配置为递归神经网络(rnn)。输入负载信息210是ml负载预测模型的输入。有两个lstm网络212和214。全连接层216从lstm网络214获取输入,并生成作为输出的预测负载信息218。图2的可替选方案,ml负载预测模型也可以被配置为卷积神经网络(cnn)或者任何其他类型的神经网络。
54.对ml负载预测模型的输入包括以下中的至少一项:当前小区的当前负载信息;相邻小区的当前负载信息;当前小区之前的历史负载信息;相邻小区之前的历史负载信息。历史负载信息可以是之前一小时、之前一天、之前一周、之前一月、之前一年等的负载信息,并且本公开中没有施加限制。
55.ml负载预测模型可以包括时间的级别(或者时间级别)模型、空间级别模型、历史级别模型和相似模型中的至少一个。例如,时间级别模型从时间角度预测负载信息,其中包括基站流量的趋势。时间级别模型可以采用季节性自回归综合移动平均(sarima)作为建模算法,并使用之前时间的负载信息作为输入。又例如,空间级别模型从空间角度预测诸如小区的物理位置,或者通过基于预定义模式划分小区而获得的子小区的物理位置之类的负载信息。空间级别模型可以是线性回归模型,该线性回归模型使用当前小区和相邻小区在当前时间的负载信息作为输入。又例如,历史级别模型可以被用于基于基站流量负载的历史模式来捕获残差。历史级别模型可以是回归树模型,该回归树模型使用当前小区在之前时间的负载信息和相邻小区在当前时间的负载信息作为输入。在一些实施方式中,通过将各种模型串联在一起,ml负载预测模型可以进一步实施为级联模型,以利用不同类型模型带来的不同优势。
56.ml负载预测模型配置信息(可替选地被称为ml负载预测模型信息)可以包括以下中的至少一个:ai算法信息、关于运行ml负载预测模型的硬件平台的信息,或者ml负载预测模型的训练信息。
57.ai算法信息标识由ml负载预测模型所使用的算法,并且所指示的ai算法可以包括以下中的至少一个:自回归综合移动平均(arima)模型、先知模型、随机森林模型、长短期记忆(lstm)模型或者集成学习模型。作为示例,在一些实施方式中,arima模型可以被用于学习和预测基于时间的负载模式,因为arima模型在时间序列预测方面表现良好。随机森林模型可以被用于学习和预测基于空间的负载模式。集成学习模型可以被用于组合来自多个模型的预测,以减少方差并获得更好的预测结果。其他算法也在考虑之中。
58.ml负载预测模型可以在各种硬件平台上运行。该硬件平台可以包括图形处理单元(gpu)、现场可编程门阵列(fpga)、专用集成电路(asic)和片上系统(soc)。不同的硬件平台可以具有不同的计算能力,并呈现不同的性能特征。选择的硬件平台由被包括在ml负载预测模型信息中的硬件平台信息进行指示。
59.ml负载预测模型的训练信息可以包括:梯度参数信息、权重参数信息或者导出/偏差参数信息。这些信息可以指示ml模型的大小。例如,权重参数或者偏差参数信息可以指示模型的权重和偏差的数量。梯度参数可以最小化模型的损失函数。
60.a计算信息交换
61.基站可以使用基于ai的负载预测模型来预测基站的未来负载,以促进更高效、更鲁棒的网络资源管理,并提高网络性能。由于网络流量或者负载分布在无线通信系统中的基站和其他网元上,也由于无线流量的移动性,不同基站上的负载可能是相关的。因此,负载预测可能不会孤立地实现,即,负载预测可能不会仅限于单个基站的范围。当基站执行基于ai的负载预测时,基站不仅需要访问基站本地的信息,还需要被告知相邻基站的负载信息。当基于ai的负载预测被执行时,其他基站(诸如相邻基站)上的负载情况必须被考虑,因此负载预测可以在系统层面被执行。
62.除了交换当前负载信息之外,基站还可以彼此交换和共享所预测的负载信息。为了实现精确和最佳的负载均衡决策,基站在评估或者预测负载信息时可能需要应用一致的规则。关键是,当前和预测的负载信息以相同或者类似的方式导出,并遵循相同的原则。否则,例如,基于一种负载预测策略在一个基站中生成的负载信息结果可能不会被使用不同预测策略的另一个基站正确解释,并且这将对预测结果产生负面影响。
63.特别地,当将ai计算应用于负载预测时,本公开前面描述的ai计算配置信息是促成预测输出的主要因素。例如,对ml预测模型的不同输入可能导致不同的负载预测输出。此外,即使使用相同的输入,不同类型的ml预测模型也可能生成不同的负载预测输出。例如,诸如时间级别模型、空间级别模型、历史级别模型和相似模型之类的不同类型的模型可以被选择,以捕获不同的输入特征,并且它们可以生成不同的预测结果。类似地,基于不同ai算法的ml预测模型可以生成不同的负载预测输出。例如,一些算法可以专注于捕捉时间特征,而其他一些算法可以专注于捕捉空间特征。又例如,一些算法可能保留长期记忆,而一些其他算法可能对历史事件保留短期记忆。此外,即使对于使用相同类型模型和相同ai算法的ai负载预测,ml预测模型的特定参数的配置(诸如权重、偏差和梯度配置)也可能对负载预测输出有直接影响。
64.在无线通信系统中,包括基站的网元可以由不同的供应商开发和制造。即使这些网元遵循相同的标准,不同的供应商在基于标准的特性或者功能上使用不同的实施方式也是一种常见的做法。来自不同供应商的基站需要相互协作并支持互操作性。为了支持移动性负载均衡,来自不同供应商的基站需要彼此交换包括负载预测信息在内的信息。这些基站可以由它们各自的供应商使用不同的软件和硬件单独开发。因此,每个供应商在ai负载预测方面可能有自己的开发策略和设计选择。例如,ml负载预测模型的类型可能不同,并且用于ml负载预测模型的ai算法也可能不同。此外,被用于训练ml负载预测模型的数据集、ml负载预测模型的参数以及被用于训练和部署ml负载预测模型的硬件平台也可能不同。在这些不同的设计选择下,可以预期不同供应商的基站所生成的负载预测信息会呈现出很大的变化或不一致。这种变化和不一致可能导致基站中的次优负载均衡决策。
65.应当理解,对于诸如gnb之类的特定类型的基站,其可以包括诸如cu和至少一个du之类的不同的单元。在这种架构中,cu和du可以由不同的供应商开发。特别地,cu和du可能都部署他们自己选择的至少一个ml负载预测模型,并分别计算负载预测信息,并且负载预测结果也可能受到ai计算信息的影响。
66.作为解决上述由不一致的ai计算信息引起的问题的一个解决方案,ai计算信息可以在诸如基站、cu和du等之类的部署ml负载预测模型的各种网元之间交换。一旦网元从另一个网元接收到ai计算信息,该网元就可以分析接收到的ai计算信息,以获得在另一个网元(可替选地被称为对端或者对端网元)上运行的ml负载预测模型的配置和状态信息。该网元可能能够基于接收到的ai计算信息来更新其自己的ml负载预测模型,例如,通过重新训练其自己的ml负载预测模型。可替选地,它可以基于接收到的ai计算信息,调整ml负载预测模型的特定参数。在一些实施方式中,可能有多个ml负载预测模型部署在网元中,并且网元可以选择与接收到的ai计算信息最匹配的模型之一。通过跟踪和匹配接收到的ai计算信息,在网元上运行的ml负载预测模型倾向于与在对端上运行的ml负载预测模型更一致。因此,负载预测结果变得更加一致。下面描述的各种实施例提供了用于解决ai计算信息不一
致性的ai计算信息交换的实施方式。
67.实施例1
68.在本公开的这个实施例中,公开了一种用于在基站之间交换ai计算信息的方法。每个基站可以包括gnb、enb、nodeb或者任何其他类型的发送和接收站中的一个。
69.参考图3,基站1可以利用消息310向基站2发送ai计算信息。该消息310可以包括基站之间的通用配置更新消息,诸如ng-ran节点配置更新消息,或者服务于ai配置更新目的的专用消息,例如,ai配置更新消息。
70.如前所述,ai计算信息包括ml负载预测模型的输入和相关ml负载预测模型配置信息。
71.ml负载预测模型的输入可包括以下中的至少一项:
72.·
当前小区的当前负载信息;
73.·
相邻小区的当前负载信息;
74.·
当前小区之前时间的历史负载信息;或者
75.·
相邻小区之前时间的历史负载信息。
76.历史负载信息可以包括但不限于之前一小时、之前一天、之前一周、之前一月或之前一年的负载信息。
77.ml负载预测模型信息可包括以下中的至少一项:
78.·
模型类型信息;
79.·
ai算法信息;
80.·
硬件平台信息;或者
81.·
训练配置信息。
82.模型类型信息可包括指示以下中的至少一项的信息:
83.·
时间的(时间)级别模型;
84.·
空间级别模型;
85.·
历史级别模型;或者
86.·
相似模型。
87.ai算法信息可以包括指示ai算法的信息,包括以下中的至少一种:
88.·
arima模型算法;
89.·
先知模型算法;
90.·
随机森林算法;
91.·
lstm算法;或者
92.·
集成学习算法。
93.硬件平台信息可包括以下中的至少一项:
94.·
gpu信息;
95.·
fpga信息;
96.·
asic信息;或者
97.·
soc信息。
98.训练配置信息可包括以下中的至少一项:
99.·
梯度参数信息;
100.·
权重参数信息;
101.·
导出/偏差参数信息;或者
102.·
机器学习模型的训练参数的大小。
103.在基站2接收到包含ai计算信息的消息310之后,基站2可以基于接收到的ai计算信息重新训练或者更新其自己的ml负载预测模型。在一些实施方式中,基站2中可能部署了多个ml负载预测模型,并且基站2可以选择使用与ai计算信息最匹配的模型。
104.基站2可以向基站1发送对应的确认消息312作为确认。消息312可以包括基站之间的通用配置更新确认消息,诸如ng-ran节点配置更新确认消息,或者专用消息,例如ai配置更新确认消息。
105.特别地,上述消息可以经由x2或者xn接口发送。
106.图4示出了用于在基站1和基站2之间交换ai计算信息的另一实施方式。在该实施方式中,从基站1向基站2发送专用消息410。例如,消息410可以包括ai配置传输消息。消息410可以是单向消息,并且因此,可能没有发送回基站1的确认消息。
107.实施例2
108.在本公开的这个实施例中,公开了一种用于在du和cu之间交换ai计算信息的方法。
109.如前所述,gnb可以包括集中式单元(cu)和至少一个分布式单元(du)。cu和du可以经由f1接口连接。gnb中的cu和du可以被分别称为gnb-cu和gnb-du。可替选地,能够连接到5g网络的enb也可以类似地被划分为cu和至少一个du,其分别被称为ng-enb-cu和ng-enb-du。ng-enb-cu和ng-enb-du可以经由w1接口连接。在本实施例中,du可以包括gnb-du或者ng-enb-du中的至少一个,而cu可以包括gnb-cu或者ng-enb-cu中的至少一个。
110.参考图5,du可以利用消息510向cu发送ai计算信息。消息510可以包括du和cu之间的通用配置更新消息,诸如gnb-du配置更新消息,或者服务于ai配置更新目的的专用消息,例如,ai配置更新消息。关于ai计算信息的细节在实施例1中描述,并且在这里不再重复。
111.cu可以向du发送对应的确认消息512作为确认。消息512可以包括cu和du之间的通用配置更新确认消息,诸如gnb-du配置更新确认消息,或者诸如ai配置更新确认消息之类的专用消息。
112.特别地,上述消息可以经由f1或者w1接口发送。
113.图6示出了用于从du向cu发送ai计算信息的另一实施方式。在该实施方式中,从du向cu发送专用消息610。例如,消息610可以包括ai配置传输消息。消息610可以是单向消息,并且可能没有发送回du的确认消息。
114.类似地,ai计算信息可以从cu被发送到du。参考图7,du可以利用消息710向cu发送ai计算信息。消息710可以包括cu和du之间的通用配置更新消息,诸如gnb-cu配置更新消息,或者诸如ai配置更新消息之类的服务于ai配置更新目的的专用消息。关于ai计算信息的细节在实施例1中描述,并且在这里不再重复。
115.du可以向cu发送对应的确认消息712作为确认。消息712可以包括du和cu之间的通用配置更新确认消息,诸如gnb-cu配置更新确认消息,或者诸如ai配置更新确认消息之类的专用消息。
116.特别地,上述消息可以经由f1或者w1接口发送。
117.图8示出了用于从cu向du发送ai计算信息的另一实施方式。在该实施方式中,专用消息810从cu被发送到du。例如,消息810可以包括ai配置传输消息。消息810可以是单向消息,并且可能没有发送回cu的确认消息。
118.实施例3
119.在本公开的这个实施例中,公开了一种用于在辅节点和主节点之间交换ai计算信息的方法。
120.作为一种新空口(nr)部署选项,lte enb可以用作主节点,而en-gnb可以用作辅节点,以形成被称为双连接的架构。参考图9作为示例,在该架构中,ue可以与主节点910和辅节点912两者进行通信。
121.参考图10,辅节点可以利用消息1010向主节点发送ai计算信息。消息1010可以包括基站之间的通用配置更新消息,诸如ng-ran节点配置更新消息,或者诸如en-dc配置更新消息之类的辅节点和主节点之间的通用配置更新消息,或者诸如ai配置更新消息之类的服务于ai配置更新目的的专用消息。
122.主节点可以向du发送对应的确认消息1012作为确认。消息1012可以包括基站之间的通用配置更新确认消息,诸如ng-ran节点配置更新确认消息,或者诸如en-dc配置更新确认消息之类的辅节点和主节点之间的通用配置更新消息,或者诸如ai配置更新确认消息之类的专用消息。
123.特别地,上述消息可以经由x2接口发送。
124.图11示出了用于从辅节点向主节点发送ai计算信息的另一实施方式。在该实施方式中,专用消息1110被从辅节点发送到主节点。例如,消息1110可以包括ai配置传输消息。消息1110可以是单向消息,并且可能没有发送回辅节点的确认消息。
125.虽然上述描述是在en-dc双连接的背景中提供的,但相同的原理通常也可被应用于通信系统中的任何其他类型的双连接。例如,如图12所示,使用gnb 1210作为主节点并且ng-enb 1212作为辅节点的双连接。又例如,如图13所示,使用gnb 1310作为主节点并且另一gnb 1312作为辅节点的双连接。又例如,如图14所示,使用ng enb 1410作为主节点并且gnb 1412作为辅节点的双连接。
126.上面的描述和附图提供了具体的示例实施例和实施方式。然而,所描述的主题内容可以以各种不同的形式体现,因此,所涵盖或者要求保护的主题内容旨在被解释为不限于本文所述的任何示例实施例。旨在为要求保护或涵盖的主题提供合理宽泛的范围。其中,例如,主题内容可被体现为方法、设备、组件、系统或者用于存储计算机代码的非暂时性计算机可读介质。因此,实施例可以例如采取硬件、软件、固件、存储介质或者其任何组合的形式。例如,上述方法实施例可以由包括存储器和处理器的组件、设备或者系统,通过执行存储在存储器中的计算机代码来实施。
127.在整个说明书和权利要求书中,除了明确规定的含义之外,术语在上下文中可能具有暗示或隐含的微妙含义。同样,本文使用的短语“在一个实施例/实施方式中”不一定指同一实施例,而本文使用的短语“在另一个实施例/实施方式中”不一定指不同的实施例。例如,所要求保护的主题内容包括全部或部分示例实施例的组合。
128.一般来说,术语至少部分可以从上下文中的用法来理解。例如,本文中使用的诸如“和”、“或”或者“和/或”等术语可以包括多种含义,这些含义至少部分取决于使用这些术语
的上下文。通常,“或”如果用于关联列表,诸如a、b或c,则意指在这里用于包容性意义到a、b和c,以及在这里用于排他性意义的a、b或c。此外,本文使用的术语“一个或多个”,至少部分取决于上下文,可被用于描述单数意义上的任何特征、结构或者特性,或者可被用于描述复数意义上的特征、结构或者特性的组合。类似地,诸如“a”、“an”或“the”之类的术语可以被理解为表示单数用法或者复数用法,这至少部分取决于上下文。此外,术语“基于”可被理解为不一定意在传达一组排他因素,并且可允许不一定明确描述的附加因素的存在,这至少部分地取决于上下文。
129.在本说明书中对特征、优势或者类似语言的引用并不意味着本解决方案能实施的所有特征和优势都应该或者被包括在其任何单个实施方式中。相反,提及特征和优势的语言被理解为意指结合实施例描述的特定特征、优势或者特性被包括在本解决方案的至少一个实施例中。因此,在整个说明书中对特征和优势以及类似语言的讨论可以但不一定指同一实施例。
130.此外,在一个或者多个实施例中,本解决方案的所述特征、优势和特性可以以任何合适的方式组合。根据本文的描述,相关领域的普通技术人员应当认识到,本解决方案可以在没有特定实施例的一个或者多个特定特征或优势的情况下实践。在其他情况下,在某些实施例中可以认识到可能不存在于本解决方案的所有实施例中的附加特征和优点。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1