MLUE性能和无能力的制作方法

文档序号:33367718发布日期:2023-03-08 00:52阅读:258来源:国知局
MLUE性能和无能力的制作方法
ml ue性能和无能力
技术领域
1.本公开涉及ue有能力(无能力)执行和/或训练ml模型的指示,并且涉及在考虑到ue有能力(无能力)执行和/或训练ml模型的情况下ml模型的执行和/或训练的网络发起的触发。
2.缩写
3.3gpp:第三代合作伙伴项目
4.3g/4g/5g:第三代/第四代/第五代
5.ai:人工智能
6.gnb:5g基站
7.iab:集成接入和回程
8.ie:信息元素
9.lte:长期演进
10.mdt:最小化驾驶测试
11.ml:机器学习
12.mtc:机器类型通信
13.ran:无线电接入网
14.rel:版本
15.rrc:无线电资源控制
16.rrm:无线电资源管理
17.rsrp:参考信号接收功率
18.sa:系统架构
19.son:自优化网络
20.ts:技术规范
21.ue:用户设备


背景技术:

22.5g演进推动了对研究用例并且提出支持人工智能(ai)/机器学习(ml)的5g系统的潜在服务需求的需要。3gpp sa1研究项目在s1-193606中达成一致,该项目描述了目标并且强调ml和ai将参与具体的5g网络实体和基础设施。开发机器学习过程和模型的方式已经假定5g业务和最终用户的设备将参与ml模型训练。
23.shai shalev shwartz和shai ben david的著作“understanding machine learning:from theory to algorithms”(剑桥大学出版社,2014年)描述了如下ml:“作为一个跨学科领域,机器学习与统计、信息论、博弈论和优化等数学领域有着共同的线索。它自然是计算机科学的一个子领域,因为我们的目标是对机器进行编程,使其能够学习。从某种意义上讲,机器学习可以被视为ai(人工智能)的一个分支,因为毕竟,将经验转化为专业知识或检测复杂感官数据中有意义模式的能力是人类(和动物)智能的基石”。此外,在本书
中,机器学习(ml)被定义为自动学习的一部分,通过该部分,计算机被编程,以便其可以从其可用的输入中“学习”。学习被定义为将经验转化为专业知识或知识的过程。学习算法的输入是表示经验的训练数据,并且输出是一些专业知识,其通常采用可以执行某种任务的另一计算机程序的形式。
24.3gpp rel-16在以ran为中心的数据收集机制下定义的5g特征使得运营商能够监测和优化其5g部署。在该上下文中,lte中定义的son和mdt成为新5g数据收集方法的基线。
25.驾驶测试最小化(mdt)是标准化的3gpp lte特征,其涉及用于收集自己的测量并且向网络报告自己的测量的商业ue[参见3gpp ts 37.320]。基本概念旨在取代为网络优化而执行的专用并且成本高昂的驱动器测试。mdt涉及蜂窝网络的普通用户,并且利用其收集的数据(例如,用于移动性目的)。基本上,定义了两种mdt报告方法:即时mdt和记录mdt。即时mdt报告表示ue在执行无线电测量之后立即生成无线电测量的实时报告。在记录mdt报告中,配置在ue处于连接模式时进行,并且mdt数据收集在ue进入空闲或非活动模式时在ue处进行。然后,当ue进入连接模式时,日志形式的延迟报告被发送;ue可以通过rrc消息向网络指示测量可用性,并且网络可以通过ue信息请求/响应过程获取记录的报告。
[0026]
因此,5g版本16中的自动数据收集继承了两种类型的mdt:即时和记录mdt提供的方法,以分别递送实时测量(例如,针对典型rrm操作而执行的测量结果)和在ue没有活动rrc连接(即,处于rrc空闲状态或rrc不活动状态)期间获取的非实时测量结果。
[0027]
ai/ml算法的训练需要大量数据。如果ml模型的训练在网络侧执行,则这些数据的传输可以高度影响网络性能以及频谱效率(因为网络需要大量ue测量)。作为替代,ml模型训练可以在ue处进行,在这种情况下,需要通过接口(特别是:无线电接口)传送的数据量显著减少。
[0028]
ue可以具有若干本地可用的已训练ml模型。这些已训练ml模型可以用于解决一个或多个优化问题。此外,ue可以具有不同替代解决方案来解决某个优化问题。例如,ue可以具有非ml算法(其在ue中是本地的),或者它可以具有复杂度和性能不同的一个或多个不同ml算法。
[0029]
ml模型执行可以在ue侧、在网络侧或这两者。ue可以执行其在本地训练自己的已训练ml模型。在某些情况下,ue可以在本地执行已经由网络训练但已经下载到ue的已训练ml模型。
[0030]
当ue执行ml模型时,它可以或可以不进一步训练ml模型。即,ue可以基于ml模型的执行来进一步适配ml模型的一个或多个已学习参数,或者一旦ml模型的参数已经被学习,ue可以保持ml模型的参数恒定。表达“执行和/或训练ml模型”涵盖这两种情况。
[0031]
pct/ep2020/061734“mdt configuration for ml-model training at ue”提出了一种框架,其中网络通过mdt配置指示ue本地和自主地训练ml模型。具体地,其为网络引入了一种方法以触发ue通过测量或预先配置的“测量功能”来监测所提供的ml模型的学习过程,并且直接使用这些测量来训练ml模型。由ue输出的目标是已训练ml模型。例如,ue可以由网络配置为监测与特定网络模型/行为或属性相对应的测量功能,描述为:“当服务小区rsrp在特定范围内时”、“服务小区rsrp有多少次落入预定义范围内”、“当分组延迟超过特定阈值时”、“当接收的干扰功率超过某个阈值时”等。
[0032]
如果ml模型在网络侧执行,则ue还向网络报告已训练模型(连同已训练精度)以及
训练时段结束的指示。如果ml模型在ue侧执行,则ue仅向网络指示ml训练时段的结束。在这两种情况下,ue还可以向网络报告(实时地或基于取决于其rrc状态的日志)导致与要观察或训练的ml模型的给定偏差的“仅”测量。
[0033]
该现有技术允许ue在本地训练一个或多个ml问题。然而,在某些情况下,可能需要推迟执行,例如,因为其他组件(例如,在联合学习中)尚未以一定程度的精度进行训练。


技术实现要素:

[0034]
本发明的目的是改进现有技术。
[0035]
根据本发明的第一方面,提供了一种装置,该装置包括一个或多个处理器和存储指令的存储器,该指令在由一个或多个处理器执行时,使该装置:检查终端是否向网络指示终端执行和/或训练机器学习模型的性能;监测终端是否处于无能力状态;如果终端指示该性能并且终端处于无能力状态,则向网络通知终端处于无能力状态,其中在无能力状态下,终端不能执行和/或训练机器学习模型,或者终端不能至少以预定义性能执行和/或训练机器学习模型。
[0036]
根据本发明的第二方面,提供了一种装置,该装置包括:一个或多个处理器和存储指令的存储器,该指令在由一个或多个处理器执行时使该装置:检查终端是否向网络指示终端执行和/或训练机器学习模型的性能;监测终端是否处于有能力状态;如果终端指示该性能并且终端处于有能力状态,则向网络通知终端处于有能力状态,其中在有能力状态下,终端能够至少以预定义性能执行和/或训练机器学习模型。
[0037]
根据本发明的第三方面,提供了一种装置,该装置包括:一个或多个处理器和存储器,存储指令,该指令在由一个或多个处理器执行时使该装置:检查终端是否指示终端执行和/或训练机器学习模型的性能;监测是否接收到作为终端处于无能力状态的依据的信息;如果终端指示终端的性能并且作为终端处于无能力状态的依据的信息被接收到,则禁止指令终端执行和/或训练机器学习模型,其中在无能力状态下,终端不能执行和/或训练机器学习模型,或者终端不能至少以预定义性能执行和/或训练机器学习模型。
[0038]
根据本发明的第四方面,提供了一种装置,该装置包括:一个或多个处理器和存储指令的存储器,该指令在由一个或多个处理器执行时使该装置:检查终端是否指示终端执行和/或训练机器学习模型的性能;监测是否接收到作为终端处于有能力状态的依据的信息;如果终端指示终端的性能并且作为终端处于有能力状态的依据的信息被接收到,则指令终端执行和/或训练机器学习模型,其中在有能力状态下,终端能够至少以预定义性能执行和/或训练机器学习模型。
[0039]
根据本发明的第五方面,提供了一种装置,该装置包括:一个或多个处理器和存储指令的存储器,该指令在由一个或多个处理器执行时使该装置:监测是否接收到关于终端执行和/或训练机器学习模型的信息;监督预定义条件是否成立;如果关于终端执行和/或训练机器学习模型的信息被接收到并且预定义条件成立,则指示终端停止机器学习模型的执行和/或训练。
[0040]
根据本发明的第六方面,提供了一种装置,该装置包括:一个或多个处理器和存储指令的存储器,该指令在由一个或多个处理器执行时使该装置:检查终端是否执行和/或训练机器学习模型;监测终端是否接收到停止执行和/或训练机器学习模型的指令;如果终端
执行和/或训练机器学习模型并且该指令被接收到,则禁止终端执行和/或训练机器学习模型。
[0041]
根据本发明的第七方面,提供了一种方法,该方法包括:检查终端是否向网络指示终端执行和/或训练机器学习模型的性能;监测终端是否处于无能力状态;如果终端指示该性能并且终端处于无能力状态,则向网络通知终端处于无能力状态,其中在无能力状态下,终端不能执行和/或训练机器学习模型,或者终端不能至少以预定义性能执行和/或训练机器学习模型。
[0042]
根据本发明的第八方面,提供了一种方法,该方法包括:检查终端是否向网络指示终端执行和/或训练机器学习模型的性能;监测终端是否处于有能力状态;如果终端指示该性能并且终端处于有能力状态,则向网络通知终端处于有能力状态,其中在有能力状态下,终端能够至少以预定义性能执行和/或训练机器学习模型。
[0043]
根据本发明的第九方面,提供了一种方法,该方法包括:检查终端是否指示终端执行和/或训练机器学习模型的性能;监测是否接收到作为终端处于无能力状态的依据的信息;如果终端指示终端的性能并且作为终端处于无能力状态的依据的信息被接收到,则禁止指示终端执行和/或训练机器学习模型,其中在无能力状态下,终端不能执行和/或训练机器学习模型,或者终端不能至少以预定义性能执行和/或训练机器学习模型。
[0044]
根据本发明的第十方面,提供了一种方法,该方法包括:检查终端是否指示终端执行和/或训练机器学习模型的性能;监测是否接收到作为终端处于有能力状态的依据的信息;如果终端指示终端的性能并且作为终端处于有能力状态的依据的信息被接收到,则指示终端执行和/或训练机器学习模型,其中在有能力状态下,终端能够至少以预定义性能执行和/或训练机器学习模型。
[0045]
根据本发明的第十一方面,提供了一种方法,该方法包括:检查终端是否指示终端执行和/或训练机器学习模型的性能;监测是否接收到作为终端处于有能力状态的依据的信息;如果终端指示终端的性能并且作为终端处于有能力状态的依据的信息被接收到,则指令终端执行和/或训练机器学习模型,其中在有能力状态下,终端能够至少以预定义性能执行和/或训练机器学习模型。
[0046]
根据本发明的第十二方面,提供了一种方法,该方法包括:检查终端是否执行和/或训练机器学习模型;监测终端是否接收到停止执行和/或训练机器学习模型的指令;如果终端执行和/或训练机器学习模型并且该指令被接收到,则禁止终端执行和/或训练机器学习模型。
[0047]
第七方面至第十二方面的每个方法可以是机器学习方法。
[0048]
根据本发明的第十三方面,提供了一种计算机程序产品,该计算机程序产品包括指令集,该指令集当在装置上执行时被配置为使该装置执行根据第七方面至第十二方面中任一方面的方法。计算机程序产品可以体现为计算机可读介质或直接可加载到计算机中。
[0049]
根据本发明的一些实施例,可以实现以下优点中的至少一个:
[0050]
·
网络可以控制ue执行和/或训练ml模型;
[0051]
·
如果ue不能执行命令,则可以避免从网络向ue发出关于执
[0052]
行和/或训练ml模型的命令;
[0053]
·
如果ue由于其当前状态而无法执行和/或训练ml模型,则ue可以返回到默认行
为。
[0054]
应当理解,任何上述修改都可以单独或组合地应用于它们所指代的各个方面,除非它们被明确表示为排除替代方案。
附图说明
[0055]
另外的细节、特征、目的和优点从以下结合附图对本发明的优选实施例的详细描述中很清楚,在附图中:
[0056]
图1示出了关于ue性能信息的消息交换;
[0057]
图2示出了用于向网络通知静态ue性能和ue的时变ml能力的两种不同消息交换选项;
[0058]
图3示出了用于向网络通知ue的时变ml能力的消息交换;
[0059]
图4示出了根据本发明的一些示例实施例的消息流;
[0060]
图5示出了根据本发明的一些示例实施例的消息流;
[0061]
图6示出了根据本发明的一些示例实施例的消息流;
[0062]
图7示出了根据本发明的一些示例实施例的消息流;
[0063]
图8示出了根据本发明的实施例的装置;
[0064]
图9示出了根据本发明的实施例的方法;
[0065]
图10示出了根据本发明的实施例的装置;
[0066]
图11示出了根据本发明的实施例的方法;
[0067]
图12示出了根据本发明的实施例的装置;
[0068]
图13示出了根据本发明的实施例的方法;
[0069]
图14示出了根据本发明的实施例的装置;
[0070]
图15示出了根据本发明的实施例的方法;
[0071]
图16示出了根据本发明的实施例的装置;
[0072]
图17示出了根据本发明的实施例的方法;
[0073]
图18示出了根据本发明的实施例的装置;
[0074]
图19示出了根据本发明的实施例的方法;以及
[0075]
图20示出了根据本发明的实施例的装置。
具体实施方式
[0076]
以下,参考附图详细描述本发明的某些实施例,其中除非另有描述,否则实施例的特征可以彼此自由组合。然而,应明确理解,某些实施例的描述仅通过示例的方式给出,并且决不打算将其理解为将本发明限制于所公开的细节。
[0077]
此外,应当理解,该装置被配置为执行对应方法,尽管在一些情况下仅描述了该装置或仅描述了该方法。
[0078]
当ml模型在ue侧执行和/或训练时,ue可以具有可用于解决特定问题的一个或多个已训练模型。ue可以另外具有内部实现的非ml算法(例如,ue中的本地算法)。网络应当能够向ue指示ue在任何给定时间应当使用哪个模型以及应当在何时激活该模型。
[0079]
另一方面,ue应当能够向网络指示它是否是具有ml性能的ue。此外,即使ue已经向
网络指示其具有ml性能,仍然有可能ue在一段时间内变得无法执行ml,例如,在ue检测到其电池电量已经下降到某个阈值以下的情况下,或者在其存储器已满的情况下。因此,ue应当能够动态地向网络指示其当前ml能力。在本技术中,ue的无能力不仅包括ue根本不能执行和/或训练ml模型的情况,还包括ue能够执行和/或训练ml模型但性能低于预定义(期望)性能的情况。
[0080]
目前,在现有技术中,不知道激活已训练ml模型以在ue处执行的机制。此外,当前,没有允许ue在其不能在其给定状态下执行ml的情况下指示如何操作的机制。
[0081]
在本技术中,术语“性能(capability)”/“能够(capable)”/“无性能(incapability)”/“不能够(incapable)”等指示与ue装配的资源(诸如电池、存储器、处理能力)相关的ue的静态属性。术语“有能力(ability)”/“能够(able)”/“无能力(inability)”/“不能(unable)”等指示关于这些资源的动态属性,即,如果ue当前具有足够的资源来执行和/或训练ml模型。该能力(也称为“ml能力”)可以被认为是ue的动态状态。
[0082]
根据一些示例实施例,假定5g ue和gnb能够在ml模型的支持下操作。一个或多个已训练ml模型可以在ue处用于执行特定任务/解决特定问题。还允许ue使用非ml算法来执行给定任务/解决给定问题。
[0083]
此外,假定:
[0084]
·
模型可以在网络处训练并且在ue侧下载
[0085]
·
模型可以在ue自身处训练
[0086]
·
在网络和ue处训练的模型的混合可以在ue侧获取
[0087]
根据本发明的一些示例实施例,提供以下功能中的一个或多个功能来管理和/或协调ml模型执行和/或训练:
[0088]
·
向网络指示ml ue能力和ue默认行为:ue向网络指示其在给定时间执行ml模型的能力。与ml模型执行相关能力不同于现有静态ue性能,因为它可以随时间变化,并且不仅取决于ue类型,还取决于当前ue能力(功率、存储器等)。此外,当ue不能执行和/或训练ml模型时,ue可以向网络指示其返回到的默认行为。默认行为也可以取决于ue类型和能力(功率、存储器等)。
[0089]
·
用于执行和/或训练的已训练ml模型的基于网络的ml激活:
[0090]
网络可以针对给定任务/问题激活ue处可用的一个(多个已训练ml模型中的一个)。
[0091]
·
在ue处执行/训练的ml模型的基于网络的ml解激活:网络检测到ml模型对于给定任务/问题不是最佳的并且将其解激活。ue返回到默认行为,直到网络为要解决的任务/问题而激活(可能不同的)ml模型
[0092]
·
如果其状态不允许(完全)ml处理,则ue随时向网络指示其执行和/或训练ml模型的能力。ue可以自行向网络指示其无能力(周期性地或基于触发,即,当ue变得不能执行和/或训练ml模型时),或者网络可以请求ue提供其有能力(无能力)的指示。
[0093]
存在不同方法可以用于ue向网络指示其ml能力。仅仅重用ue性能ie不足以捕获ml能力,因为它是在注册过程期间向网络指示一次以通知ue性能的所有细节的静态字段。ue性能ie可以指示ue是否具有执行(或甚至训练自己)ml算法的性能,即,它是否配备有必要的资源。此外,根据一些示例实施例,ue能够在时间过程中指示其ml能力。如果具有ml能力
的ue的当前状态不允许它执行已训练模型,例如,如果它的存储器已满,或者如果它的电池降到阈值以下,或者ml性能超出ue处理器的处理性能,则它可能变得无法执行已训练模型。
[0094]
·
选项a:将现有ue性能ie与新ie(例如,“ml状态指示”)
[0095]
一起重用
[0096]
ue可以重用由ue是否能够执行和/或训练ml模型的附加指示扩展的现有ue性能信息元素。如图1所示,响应于来自gnb的ue性能询问,ue用ue性能信息进行回复,ue性能信息包括ie“ml支持”。“ml支持=真”指示ue配备有执行和/或训练ml模型所需要的资源(特别是:硬件),即,ue能够执行和/或训练ml模型。
[0097]
此外,根据一些示例实施例,ue向网络指示新ie(例如,“ml状态指示”ie)。该“ml状态指示”ie不是静态的(即,gnb不解释这是恒定的ue准备就绪),而是反映ue在给定状态/时刻执行和/或训练ml模型的能力。与静态ue性能信息ie不同,“ml状态指示”是时间相关(动态)指示。它是对通用ue性能(静态能力)的补充信息。ue可以通过与ue性能信息分离的消息(如图2a所示)或通过扩展ue性能过程来提供“ml状态指示”。例如,如图2b所示,扩展ue性能过程可以由通用ml支持指示触发。在接收到ml支持指示(指示ue能够执行和/或训练ml模型)之后,gnb可以向ue请求其(时间相关)ml能力。例如,在该第二请求中,gnb可以仅请求关于时间相关ml状态指示的信息。然而,在一些示例实施例中,gnb也可以请求静态属性的状态。
[0098]
ml能力可以是单个布尔值(“是”或“否”),也可以包括不同资源的若干布尔值(例如,存储器:“能够”,电池电量:“不能够”)。可以针对多个ml模型或ml模型类中的每个指示这样的布尔值。在一些示例实施例中,ml能力可以包括数值(例如,可用存储器:50%(假定gnb已知总存储器,例如作为ue性能信息的一部分)或可用存储器:3.8gb),使得gnb可以根据数值确定ue执行和/或训练特定ml模型的能力。指示类型可以是混合的,例如电池电量:“是”,存储器:7.2gb)。
[0099]
一旦ue检测到内部约束和限制以继续先前声明的“ml状态指示”,例如,由于要求对运行ml模型训练的处理操作,ue可以向gnb发送其能力的不同值。根据“ml状态指示”值的变化,ue还可以针对给定任务/问题更新其默认行为并且将其通知网络。默认行为在ue操作的时间过程中可以不是唯一的行为,并且可以取决于ue状态。例如,在其存储器已满时,ue可以向网络指示其默认行为是为某个任务“运行非ml算法”,但如果稍后其状态发生变化,则可以指示其已经准备好为该任务“运行轻ml算法”。
[0100]
·
选项b:定义新的时变ml ue能力ie
[0101]
根据一些示例实施例,ue可以提供无线电性能ml ue能力ie。ue可以与关于选项a讨论的ue性能过程分开地提供该ie。它指示ue执行和/或训练ml模型的(时间相关)能力。该ie可以针对预期ue执行和/或训练的特定问题/算法/ml模型来定制。选项b如图3所示。
[0102]
与现有ue性能ie不同,该ie根据ue状态和设备类型指示ue在给定时间执行和/或训练ml的能力。此外,在一些示例实施例中,通过该ie,ue可以针对给定问题更新其默认行为并且将其通知网络。
[0103]
在一些示例实施例中,ue可以在任何时间指示其ml能力。在一些示例实施例中,ue可以周期性地和/或在ml能力改变(从能够改变为不能改变或反之亦然)和/或基于某种其他触发来指示其ml能力。ue ml能力可以改变以反映实际ue准备就绪以对ml模型进行动作
(执行和/或训练)。
[0104]
在一些示例实施例中,仅实现选项a和b中的一个。在一些示例实施例中,实现选项a和b两者。
[0105]
此外,在一些示例实施例中,ue可以向网络指示其与ml模型相关联的默认行为(其与特定优化问题相关),当ml执行和/或训练不可能时(ue无法进行ml),ue将返回到该ml模型。
[0106]
·
默认行为可以取决于ue类型。例如,作为iab节点(也称为iab mt)的一部分的ue可以更强大。相反,mtc设备可以不如常规ue强大。因此,它可以具有与简单智能手机不同的默认行为。
[0107]
·
默认行为可以是静态的或时间相关的。在后一种情况下,它可以随ue状态(处理能力、存储器等)而变化。
[0108]
例如,(简单)智能手机的默认行为可以是使用非ml算法来解决问题。iab mt的默认行为可以是使用“轻ml”算法。用于定位用例的轻ml算法的示例包括基于波束信息和rsrp值来估计位置的简单算法。该算法将需要更少的测量(以及待训练的测量类型),并且执行起来将更简单,而不是另外使用(除了rsrp和波束信息)到达角、离开角、传感器测量等来计算位置的更复杂的算法。
[0109]
借助于接下来的附图,更详细地解释本发明的一些示例实施例。
[0110]
在图4的示例中,ue被初始化,并且已经向网络指示其ml性能和默认行为。ue具有x个已训练ml模型(ml模型1、2、
……
、x)和可用的非ml算法(ue中的本地算法)。在初始化时,假定ue能够执行和/或训练ml模型。
[0111]
如图4所示,网络(gnb)向ue发送消息“激活ml模型”,通过该消息,网络激活ml模型(例如,ml模型m)以解决某个问题pm。网络选择的模型取决于ue的先前指示的ml性能。如果ue向网络通知了其ml能力(通过选项a或选项b),则ml模型的选择也取决于ml能力。网络还可以激活多个ml模型,每个ml模型与单个激活消息(激活ml模型)的不同问题相关。为了在ue处激活ml模型
[0112]
·
mdt过程可以与网络给ue的配置中的ml“激活”字段一起使用。如果使用mdt,则从核心网发起并且针对特定ue的基于信令的mdt、以及针对特定区域中的一组ue的基于管理的mdt都是适用的;或作为替代或作为补充
[0113]
·
可以使用rrc信令。
[0114]
一个ml模型可以有不同激活类型。激活可以是:
[0115]
·
基于时间(在由网络配置的特定时间来激活ml模型)。这种情况的一个特殊情况是在接收到激活消息时激活ml模型。替代地,消息中的时间指示(定时器)可以告诉ue在激活消息的接收之后以一定时间延迟激活用于执行和/或训练的已训练ml模型。
[0116]
·
基于触发(基于由网络配置的ue处的某个事件来激活ml模型)。如果ue观察到特定事件/测量,则该激活模式可以被触发。例如,如果ue测量到其吞吐量下降到阈值以下,或者如果切换失败的次数(在某个位置)超过某个阈值,则ue可以激活ml模型。备选地,该触发可以基于ue的内部状态,即,如果ue想要优化内部参数)。
[0117]
在图4的示例中,ue接受激活。
[0118]
在某个时间点,ue检测到影响其执行和/或训练ml模型的能力的状态变化。在这种
情况下,ue可以向网络声明它不能进行完整的ml处理(例如,使用选项a或选项b),并且ue自主地返回到默认行为。
[0119]
在图5的示例中,激活ml模型和检测ue状态变化与图4的示例中相同。但是,与图4不同,如果ue检测到其状态变化(无法执行和/或训练ml模型),则ue向网络请求(使用解激活ml模型请求消息)切换到不同操作。可选地,ue可以另外向网络发送ml状态指示消息,以向网络通知针对问题pm的其默认行为的更新。当ue检测到它不能对当前状态进行完全ml处理时,可能会出现这种情况。网络在解激活ml模型响应消息中确认该请求。利用该消息,ue可以针对给定问题pm切换到其默认行为。ue可以针对每个问题具有不同默认行为。
[0120]
图6示出了一个示例,其中网络检测到由ue使用的当前ml模型是次优的。如果网络观察到当前ml模型没有很好地执行,例如如果网络条件已经改变,则可能出现这种情况。在这种情况下,如图6所示,在检测到针对给定问题pm的ml模型m的次优操作之后,网络向ue发送解激活ml模型消息。网络可以发信号通知ue解激活与不同问题相关的多个ml模型。接收到解激活ml模型消息的ue针对所有指示的问题回复到默认行为,并且使用对网络的“接受”响应来确认解激活。解激活消息可以通过以下方式进行:
[0121]
·
已修改mdt配置。可以由网络在给ue的配置中使用ml“解激活”字段。从核心网发起并且针对特定ue的基于信令的mdt、以及针对特定区域中的一组ue的基于管理的mdt都是适用的;或作为替代或作为补充
[0122]
·
rrc信令。
[0123]
在ue中解激活ml模型的另一触发可以是来自运营商的输入。例如,运营商可以已经决定ue不再执行和/或训练ml模型。
[0124]
在图7的示例中,如果ue无法执行和/或训练ml模型,则ue拒绝网络激活ml模型。例如,如果ue状态已经改变,但是网络试图在ue发送状态变化之前激活ml模型(并且可能更新其默认行为),则可能出现这种情况。
[0125]
图8示出了根据本发明的实施例的装置。该装置可以是终端(诸如ue或mtc设备)或其元件。图9示出了根据本发明的实施例的方法。根据图8的装置可以执行图9的方法,但不限于该方法。图9的方法可以由图8的装置执行,但不限于由该装置执行。
[0126]
该装置包括用于检查的部件10、用于监测的部件20和用于通知的部件30。用于检查的部件10、用于监测的部件20和用于通知的部件30可以分别是检查部件、监测部件和通知部件。用于检查的部件10、用于监测的部件20和用于通知的部件30可以分别是检查器、监测器和通知器。用于检查的部件10、用于监测的部件20和用于通知的部件30可以分别是检查处理器、监测处理器和通知处理器。
[0127]
用于检查的部件10检查终端是否向网络指示其执行和/或训练机器学习模型的性能(s10)。如果终端配备有足够的资源,诸如电池电量、存储器或处理能力,则终端能够执行和/或训练机器学习模型。
[0128]
用于监测的部件20监测终端是否处于无能力状态(s20)。在无能力状态下,终端不能执行和/或训练机器学习模型,或者不能以预定义性能执行和/或训练机器学习模型。无能力状态是动态属性。
[0129]
s10和s20可以以任意顺序执行。它们可以完全或部分并行执行。在一些示例实施例中,如果终端不指示其能够执行和/或训练机器学习模型,则不执行s20,因为在这种情况
下动态能力可以不相关。
[0130]
如果终端指示该性能(s10=是)并且终端处于无能力状态(s20=否),则用于通知的部件30向网络通知终端处于无能力状态(s30)。
[0131]
在图8和图9中,可以假定以下为默认情况,指示其执行和/或训练ml模型的性能的ue也能够执行和/或训练ml模型,除非ue指示其不能。相反,如图10和图11所示,可以假定以下为默认情况,指示其执行和/或训练ml模型的性能的ue不能执行和/或训练ml模型,除非ue指示其能力。
[0132]
图10示出了根据本发明的实施例的装置。该装置可以是终端(诸如ue或mtc设备)或其元件。图11示出了根据本发明的实施例的方法。根据图10的装置可以执行图11的方法,但不限于该方法。图11的方法可以由图10的装置执行,但不限于由该装置执行。
[0133]
该装置包括用于检查的部件60、用于监测的部件70和用于通知的部件80。用于检查的部件60、用于监测的部件70和用于通知的部件80可以分别是检查部件、监测部件和通知部件。用于检查的部件60、用于监测的部件70和用于通知的部件80可以分别是检查器、监测器和通知器。用于检查的部件60、用于监测的部件70和用于通知的部件80可以分别是检查处理器、监测处理器和通知处理器。
[0134]
用于检查的部件60检查终端是否向网络指示其执行和/或训练机器学习模型的性能(s60)。如果终端配备有足够的资源,诸如电池电量、存储器或处理能力,则终端能够执行和/或训练机器学习模型。
[0135]
用于监测的部件70监测终端是否处于有能力状态(s70)。在有能力状态下,终端能够至少以预定义性能执行和/或训练机器学习模型。有能力状态是动态属性。
[0136]
s60和s70可以以任意顺序执行。它们可以完全或部分并行执行。在一些示例实施例中,如果终端不指示其能够执行和/或训练机器学习模型,则不执行s70,因为在这种情况下动态能力可以不相关。
[0137]
如果终端指示该性能(s60=是)并且终端处于有能力状态(s70=否),则用于通知的部件80向网络通知终端处于有能力状态(s80)。
[0138]
图12示出了根据本发明的实施例的装置。该装置可以是基站(诸如gnb或enb)或其元件。图13示出了根据本发明的实施例的方法。根据图12的装置可以执行图13的方法,但不限于该方法。图13的方法可以由图12的装置执行,但不限于由该装置执行。
[0139]
该装置包括用于检查的部件110、用于监测的部件120和用于禁止的部件130。用于检查的部件110、用于监测的部件120和用于禁止的部件130可以分别是检查部件、监测部件和禁止部件。用于检查的部件110、用于监测的部件120和用于禁止的部件130可以分别是检查器、监测器和禁止器。用于检查的部件110、用于监测的部件120和用于禁止的部件130可以分别是检查处理器、监测处理器和禁止处理器。
[0140]
用于检查的部件110检查终端是否指示其执行和/或训练机器学习模型的性能(s110)。如果终端配备有足够的资源,诸如电池电量、存储器或处理能力,则终端能够执行和/或训练机器学习模型。
[0141]
用于监测的部件120监测是否接收到作为终端处于无能力状态的依据的信息(s120)。在无能力状态下,终端不能执行和/或训练机器学习模型,或者不能以预定义性能执行和/或训练机器学习模型。无能力状态是动态属性。
[0142]
s110和s120可以以任意顺序执行。它们可以完全或部分并行执行。在一些示例实施例中,如果终端不指示其能够执行和/或训练机器学习模型,则不执行s120,因为在这种情况下动态能力可以不相关。
[0143]
如果终端指示该性能(s110=是)并且终端处于无能力状态(s120=否),则用于禁止的部件130禁止指令终端执行和/或训练机器学习模型(s130),即,如果这些条件满足,则ml模型在ue中不激活。
[0144]
如图12和图13所示,可以假定以下为默认情况,指示其执行和/或训练ml模型的性能的ue也能够执行和/或训练ml模型,除非ue指示其不能。相反,在图14和图15中,可以假定以下为默认情况,指示其执行和/或训练ml模型的性能的ue不能执行和/或训练ml模型,除非ue指示其能力。
[0145]
图14示出了根据本发明的实施例的装置。该装置可以是基站(诸如gnb或enb)或其元件。图15示出了根据本发明的实施例的方法。根据图14的装置可以执行图15的方法,但不限于该方法。图15的方法可以由图14的装置执行,但不限于由该装置执行。
[0146]
该装置包括用于检查的部件160、用于监测的部件170和用于禁止的部件180。用于检查的部件160、用于监测的部件170和用于禁止的部件180可以分别是检查部件、监测部件和禁止部件。用于检查的部件160、用于监测的部件170和用于禁止的部件180可以分别是检查器、监测器和禁止器。用于检查的部件160、用于监测的部件170和用于禁止的部件180可以分别是检查处理器、监测处理器和禁止处理器。
[0147]
用于检查的部件160检查终端是否指示其执行和/或训练机器学习模型的性能(s160)。如果终端配备有足够的资源,诸如电池电量、存储器或处理能力,则终端能够执行和/或训练机器学习模型。
[0148]
用于监测的部件170监测是否接收到作为终端处于有能力状态的依据的信息(s170)。在有能力状态下,终端能够以预定义性能执行和/或训练机器学习模型。有能力状态是动态属性。
[0149]
s160和s170可以以任意顺序执行。它们可以完全或部分并行执行。在一些示例实施例中,如果终端不指示其能够执行和/或训练机器学习模型,则不执行s170,因为在这种情况下动态能力可以不相关。
[0150]
如果终端指示该性能(s160=是)并且终端处于有能力状态(s170=是),则用于禁止的部件180指令终端执行和/或训练机器学习模型(s180),即,如果这些条件满足,则ml模型在ue中被激活。
[0151]
图16示出了根据本发明的实施例的装置。该装置可以是基站(诸如gnb或enb)或其元件。图17示出了根据本发明的实施例的方法。根据图16的装置可以执行图17的方法,但不限于该方法。图17的方法可以由图16的装置执行,但不限于由该装置执行。
[0152]
该装置包括用于监测的部件210、用于监督的部件220和用于指示的部件230。用于监测的部件210、用于监督的部件220和用于指示的部件230可以分别是监测部件、监督部件和指示部件。用于监测的部件210、用于监督的部件220和用于指示的部件230可以分别是监测器、监督器和指示器。用于监测的部件210、用于监督的部件220和用于指示的部件230可以分别是监测处理器、监督处理器和指示处理器。
[0153]
用于监测的部件210监测是否接收到关于终端执行和/或训练机器学习模型的信
息(s210)。换言之,该信息指示终端执行ml模型。例如,这样的信息可以是基站(例如,gnb)对终端(例如,ue)中的ml模型的激活。
[0154]
用于监督的部件220监督预定条件是否成立(s220)。例如,这样的预定义条件可以是终端的操作比预期的差;或网络的操作员的输入。
[0155]
s210和s220可以以任意顺序执行。它们可以完全或部分并行执行。在一些示例实施例中,如果没有接收到关于终端执行和/或训练机器学习模型的信息,则不执行s220,因为在这种情况下预定义条件可以是不相关的。
[0156]
如果接收到关于终端执行和/或训练机器学习模型的信息(s210=是)并且预定义条件成立(s220=是),则用于指令的部件230指令终端停止执行和/或训练机器学习模型(s230)。
[0157]
图18示出了根据本发明的实施例的装置。该装置可以是终端(诸如ue或mtc设备)或其元件。图19示出了根据本发明的实施例的方法。根据图18的装置可以执行图19的方法,但不限于该方法。图19的方法可以由图18的装置执行,但不限于由该装置执行。
[0158]
该装置包括用于检查的部件310、用于监测的部件320和用于禁止的部件330。用于检查的部件310、用于监测的部件320和用于禁止的部件330可以分别是检查部件、监测部件和禁止部件。用于检查的部件310、用于监测的部件320和用于禁止的部件330可以分别是检查器、监测器和禁止器。用于检查的部件310、用于监测的部件320和用于禁止的部件330可以分别是检查处理器、监测处理器和禁止处理器。
[0159]
用于检查的部件310检查终端是否执行和/或训练机器学习模型(s310)。换言之,该信息指示终端执行ml模型。
[0160]
用于监测的部件320监测终端是否接收到停止执行和/或训练机器学习模型的指令(s320)。
[0161]
s310和s320可以以任意顺序执行。它们可以完全或部分并行执行。在一些示例实施例中,如果没有接收到关于终端执行和/或训练机器学习模型的信息,则不执行s320,因为在这种情况下预定义条件可以不相关。
[0162]
如果终端执行和/或训练机器学习模型(s310=是)并且该指令被接收到(s320=是),则用于禁止的部件330禁止终端执行和/或训练机器学模型(s330)。
[0163]
图20示出了根据本发明的实施例的装置。该装置包括至少一个处理器810、包括计算机程序代码的至少一个存储器820,至少一个处理器810与至少一个存储器820和计算机程序代码一起被布置为使该装置至少执行根据图9、图11、图13、图15、图17和图19以及相关描述的方法中的至少一种。
[0164]
描述了本发明的一些示例实施例,根据这些实施例,有能力(无能力)指示可以指示ue执行和/或训练ml模型的能力。在一些示例实施例中,不同指示可以与在不训练ml模型的情况下有能力(无能力)执行ml模型以及有能力(无能力)训练ml模型相关。在一些示例实施例中,可以仅采用这些指示中的一个指示。
[0165]
描述了本发明的一些示例实施例,其中ue指示其不能执行和/或训练ml模型。也就是说,在一些示例实施例中,假定ue能够执行和/或训练ml模型,除非其指示其不能。在本发明的一些示例实施例中,ue可以指示其执行和/或训练ml模型的能力。也就是说,在一些示例实施例中,假定ue不能够执行和/或训练ml模型,除非其指示其能力。在本发明的一些示
例实施例中,ue可以指示能够和不能执行和/或训练ml模型。
[0166]
一条信息可以在一个或多个消息中从一个实体被发送到另一实体。这些消息中的每个消息可以包括另外的(不同的)信息。
[0167]
网络元件、网络功能、协议和方法的名称基于当前标准。在其他版本或其他技术中,这些网络元件和/或网络功能和/或协议和/或方法的名称可以不同,只要它们提供对应功能。
[0168]
终端可以是例如移动电话、智能手机、mtc设备、膝上型计算机等。用户可以是人类用户或机器(例如,机器类型通信(mtc))。
[0169]
如果没有另外说明或从上下文中明确说明,两个实体不同的声明表示它们执行不同功能。这并不一定表示它们基于不同硬件。也就是说,本说明书中描述的每个实体可以基于不同硬件,或者一些或所有实体可以基于相同硬件。这并不一定表示它们基于不同软件。也就是说,本说明书中描述的每个实体可以基于不同软件,或者一些或所有实体可以基于相同软件。本描述中描述的每个实体可以部署在云中。
[0170]
根据以上描述,因此应当清楚的是,本发明的示例实施例例如提供了终端(诸如ue或mtc设备)或其组件、实现其的装置、用于控制和/或操作其的方法、以及控制和/或操作其的(多个)计算机程序、以及承载(多个)这样的计算机程序并且形成(多个)计算机程序产品的介质。根据以上描述,因此应当清楚,本发明的示例实施例例如提供了接入网(诸如ran)或其组件(例如,enb或gnb)、实现其的装置、用于控制和/或操作其的方法,以及控制和/或操作其的(多个)计算机程序、以及承载(多个)这样的计算机程序并且形成(多个)计算机程序产品的介质。
[0171]
作为非限制性示例,上述块、装置、系统、技术或方法中的任何一个的实现包括作为硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其他计算设备或其某些组合的实现。本说明书中描述的每个实体可以体现在云中。
[0172]
应当理解,上面描述的是目前认为是本发明的优选实施例的内容。然而,应当注意,优选实施例的描述仅通过示例的方式给出,并且可以在不脱离所附权利要求所限定的本发明的范围的情况下进行各种修改。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1