编码器压缩率的调整方法、数据的反馈方法及装置

文档序号:30611853发布日期:2022-07-01 23:53阅读:147来源:国知局
编码器压缩率的调整方法、数据的反馈方法及装置

1.本发明涉及数据处理技术领域,尤其涉及一种编码器压缩率的调整方法、数据的反馈方法及装置。


背景技术:

2.传统自编码器中,编码器部分一般只能通过固定压缩率实现数据压缩,由于压缩率不可调整,数据压缩过程无法适应环境动态变化,压缩过程不够灵活可靠。


技术实现要素:

3.本发明提供一种编码器压缩率的调整方法、数据的反馈方法及装置,用以解决现有技术中由于压缩率不可调整,数据压缩过程无法适应环境动态变化,压缩过程不够灵活可靠的缺陷。
4.第一方面,本发明提供一种编码器压缩率的调整方法,该方法包括:
5.将目标数据输入预先构建的第一神经网络模型,得到所述目标数据的最佳压缩率;其中,所述第一神经网络模型是基于标记有最佳压缩率标签的目标数据样本对神经网络进行训练得到的;
6.将编码器的压缩率调整至所述最佳压缩率。
7.根据本发明提供的编码器压缩率的调整方法,所述将目标数据输入预先构建的第一神经网络模型,得到所述目标数据的最佳压缩率,包括:
8.对所述目标数据的稀疏度进行分析,得到稀疏度分析结果;
9.基于所述稀疏度分析结果,确定所述目标数据的最佳压缩率。
10.根据本发明提供的编码器压缩率的调整方法,所述基于所述稀疏度分析结果,确定所述目标数据的最佳压缩率,包括:
11.基于所述稀疏度分析结果,将预设的多个理论压缩率中反馈精度高于预设精度阈值且反馈比特数最小的理论压缩率作为最佳压缩率。
12.根据本发明提供的编码器压缩率的调整方法,所述第一神经网络模型的训练过程,包括:
13.获取多个稀疏度不同的目标数据样本,并分别确定各个所述目标数据样本对应的最佳压缩率标签;
14.通过标记有最佳压缩率标签的目标数据样本对预先构建的神经网络进行训练,得到第一神经网络模型。
15.根据本发明提供的编码器压缩率的调整方法,所述通过标记有最佳压缩率标签的目标数据样本对预先构建的神经网络进行训练,包括:
16.向所述神经网络的损失函数中引入加权项,得到加权后的损失函数;
17.基于所述加权后的损失函数,通过标记有最佳压缩率标签的目标数据样本对所述神经网络进行训练。
18.根据本发明提供的编码器压缩率的调整方法,所述将编码器的压缩率调整至所述最佳压缩率,包括:
19.对编码器对应的第二神经网络模型中全连接层的节点数进行调节,以将所述编码器的压缩率调整至所述最佳压缩率。
20.第二方面,本发明还提供一种数据的反馈方法,该方法包括:
21.根据上述任一种所述编码器压缩率的调整方法将编码器的压缩率调整至所述最佳压缩率;
22.按照所述最佳压缩率对所述目标数据进行压缩;
23.将压缩后的所述目标数据和所述最佳压缩率对应的预设标识信息反馈至基站;
24.其中,所述基站用于根据所述预设标识信息确定所述最佳压缩率,并通过所述最佳压缩率对压缩后的所述目标数据进行解压缩。
25.根据本发明提供的数据的反馈方法,所述目标数据为下行信道状态信息。
26.第三方面,本发明还提供一种编码器压缩率的调整装置,该装置包括:
27.第一处理模块,用于将目标数据输入预先构建的第一神经网络模型,得到所述目标数据的最佳压缩率;其中,所述第一神经网络模型是基于标记有最佳压缩率标签的目标数据样本对神经网络进行训练得到的;
28.调整模块,用于将编码器的压缩率调整至所述最佳压缩率。
29.第四方面,本发明还提供一种数据的反馈装置,该装置包括:
30.第二处理模块,用于根据上述任一种所述编码器压缩率的调整方法将编码器的压缩率调整至所述最佳压缩率;
31.压缩模块,用于按照所述最佳压缩率对所述目标数据进行压缩;
32.反馈模块,用于将压缩后的所述目标数据和所述最佳压缩率对应的预设标识信息反馈至基站;
33.其中,所述基站用于根据所述预设标识信息确定所述最佳压缩率,并通过所述最佳压缩率对压缩后的所述目标数据进行解压缩。
34.本发明提供的编码器压缩率的调整方法、数据的反馈方法及装置,通过将目标数据输入第一神经网络模型,可以得到该目标数据的最佳压缩率,进而将编码器的压缩率调整至最佳压缩率,从而实现压缩率的自适应调整,使得数据压缩过程更加灵活可靠。
附图说明
35.为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
36.图1是本发明提供的编码器压缩率的调整方法的流程示意图;
37.图2是编码器压缩率的调整、数据压缩、反馈以及解压缩的原理示意图;
38.图3是各个神经网络模型的结构示意图;
39.图4是本发明提供的数据的反馈方法的流程示意图;
40.图5是本发明提供的编码器压缩率的调整装置的结构示意图;
41.图6是本发明提供的数据的反馈装置的结构示意图;
42.图7是本发明提供的电子设备的结构示意图。
具体实施方式
43.为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
44.下面结合图1至图7描述本发明实施例提供的编码器压缩率的调整方法、数据的反馈方法、编码器压缩率的调整装置、数据的反馈装置以及基于上述编码器压缩率的调整方法搭建的电子设备。
45.图1示出了本发明实施例提供的编码器压缩率的调整方法,该方法包括:
46.步骤110:将目标数据输入预先构建的第一神经网络模型,得到目标数据的最佳压缩率;其中,第一神经网络模型是基于标记有最佳压缩率标签的目标数据样本对神经网络进行训练得到的;
47.步骤120:将编码器的压缩率调整至最佳压缩率。
48.可以理解的是,本实施例中目标数据指的是待压缩的数据,当上述编码器压缩率的调整方法应用于频分双工系统中时,上述目标数据可以是下行信道状态信息,即信道矩阵。
49.在示例性实施例中,将目标数据输入预先构建的第一神经网络模型,得到目标数据的最佳压缩率的过程,具体可以包括:
50.对目标数据的稀疏度进行分析,得到稀疏度分析结果;
51.基于稀疏度分析结果,确定目标数据的最佳压缩率。
52.进一步地,基于稀疏度分析结果,确定目标数据的最佳压缩率的过程,具体可以包括:
53.基于稀疏度分析结果,将预设的多个理论压缩率中反馈精度高于预设精度阈值且反馈比特数最小的理论压缩率作为最佳压缩率。
54.在本实施例中,预设的多个理论压缩率,即压缩率的可选数量可以是k个,上述第一神经网络模型的作用主要是从上述k个理论压缩率中选择一个可以兼顾反馈开销和反馈精度的最优压缩率,作为最佳压缩率,也就是说,本实施例中最佳压缩率可以定义为在确保反馈精度高于预设精度阈值的前提下,反馈比特数尽可能少的压缩率。
55.可以理解的是,当反馈精度对应的精度阈值确定后,目标数据的稀疏度越高,需要反馈的比特数越少,反馈开销越低;反之,目标数据的稀疏度越低,需要反馈的比特数越多,反馈开销越高。
56.图2示出了编码器压缩率的调整方法的实现原理,图2中h表示输入的目标数据,比如可以是信道矩阵,经过第一神经网络模型后,可以得到最佳压缩率,该最佳压缩率输入自适应模块,进而可以对编码器的压缩率进行调整,具体地,可以调整第二神经网络模型中全连接层的节点数,以实现压缩率的调整,从而通过编码器对应的第二神经网络模型可以按照最佳压缩率对目标数据进行压缩,s表示目标数据经编码器压缩后得到的码字,将码字s
和最佳压缩率对应的预设标识信息输入解码器,通过解码器对应的第三神经网络模型可以按照最佳压缩率对码字s进行解压缩,得到解压缩后的数据
57.此外,图2中虚线框输入固定压缩率至自适应模块的方式为传统的压缩方式,主要用于与本实施例提供的改进后的自适应压缩率的方式进行对比。
58.在示例性实施例中,上述第一神经网络模型的训练过程,具体可以包括:
59.获取多个稀疏度不同的目标数据样本,并分别确定各个目标数据样本对应的最佳压缩率标签;
60.通过标记有最佳压缩率标签的目标数据样本对预先构建的神经网络进行训练,得到第一神经网络模型。
61.进一步地,通过标记有最佳压缩率标签的目标数据样本对预先构建的神经网络进行训练的过程,具体可以包括:
62.向神经网络的损失函数中引入加权项,得到加权后的损失函数;
63.基于加权后的损失函数,通过标记有最佳压缩率标签的目标数据样本对神经网络进行训练。
64.参见附图3,本实施例中第一神经网络模型也可以称为稀疏性分析模型(sparsity analysis model,sam),该模型主要由4层全连接层组成,最后一层的激励函数是softmax,可以输出k个[0,1]区间的数,其中,每个数代表相应的压缩率是最佳压缩率的概率,其中概率最大的压缩率将被采用,即作为最佳压缩率。
[0065]
对于此分类网络,输出层的神经元个数是m,激励函数是softmax函数,可以表示为:
[0066][0067]
其中,z表示最后一层的输出向量,p表示输出数据的数量,与压缩率的可选数量相同,即len(z)等于k。
[0068]
然而,上述网络难以避免地会出错,为提高将反馈精度控制在精度阈值之上的概率,本实施例对该网络训练时的损失函数进行加权,即向损失函数中引入加权项,本实施例中损失函数采用交差熵函数,通过对交差熵函数进行加权,可以抑制将输入的目标数据误分类为偏小压缩率的错误判断,上述引入加权项后的交差熵函数的表达式为:
[0069][0070]
其中,y
ik
表示第i个目标数据的压缩率标签在独热编码下的向量的第k个元素,表示此神经网络对该独热编码向量元素的估计,γk表示对将目标数据误分类为偏小压缩率的错误判断惩罚的权重,对于更小的压缩率,可以采用更大的惩罚权重。
[0071]
不难发现,在训练第一神经网络模型时,对损失函数进行适当的加权,在不降低该网络分类准确度的前提下,可以抑制网络将目标数据错误地与一个比最佳值更小的压缩率相匹配地行为,从而提高将反馈精度控制在高于预设精度阈值的概率。
[0072]
在示例性实施例中,将编码器的压缩率调整至最佳压缩率的过程,具体可以包括:
[0073]
对编码器对应的第二神经网络模型中全连接层的节点数进行调节,以将编码器的压缩率调整至最佳压缩率。
[0074]
由此可见,本发明实施例提供的编码器压缩率的调整方法,通过第一神经网络模型对目标数据的稀疏性进行分析,进而可以输出能够兼顾反馈精度在精度阈值之上和反馈开销的最佳压缩率,将编码器的压缩率调整至最佳压缩率,从而实现编码器压缩率的自适应动态调整,使得数据压缩过程更加灵活可靠。
[0075]
图4示出了本发明实施例提供的数据的反馈方法,该方法可以应用于用户端,包括:
[0076]
步骤410:根据上述编码器压缩率的调整方法将编码器的压缩率调整至最佳压缩率;
[0077]
步骤420:按照最佳压缩率对目标数据进行压缩;
[0078]
步骤430:将压缩后的目标数据和最佳压缩率对应的预设标识信息反馈至基站;
[0079]
其中,基站用于根据预设标识信息确定最佳压缩率,并通过最佳压缩率对压缩后的目标数据进行解压缩。
[0080]
在示例性实施例中,上述目标数据可以是下行信道状态信息。
[0081]
由于频分双工(frequency-division duplex,fdd)系统中,上下行信道之间的信息不具有直接的互易性,基站无法直接通过上行信道获取下行信道,需要用户端向基站端对信道进行反馈,因此,下行信道状态信息(channel status information,csi)的反馈是频分双工大规模多输入多输出(multi-input multi-output,mimo)系统的关键。
[0082]
得益于人工智能技术的发展,面向6g的无线通信技术开始采用反馈显示csi的方案。即通过自编码器(autoencoder)的方式,在终端使用一个编码器(encoder)将显示csi进行压缩得到一个码字,用户端将码字反馈到基站,基站利用一个解码器(decoder)将码字还原为显示的csi。基站利用用户端反馈的csi,可以实现更优的波束赋形算法,对抗信道效应。
[0083]
然而,传统的编码器只适用于固定压缩率反馈,由于通信环境是不断变化的,依赖于固定压缩率可能会导致多余的比特和资源浪费。
[0084]
考虑到在变化的环境下,当信道矩阵是稀疏的时,应使用较高的压缩率,反之亦然。为此,本实施例将编码器的压缩率根据下行信道状态信息的稀疏性进行调整,通过最佳压缩率对下行信道状态信息进行压缩并将最佳压缩率对应的预设标识信息以及压缩后的码字一并反馈给基站,基站通过最佳压缩率对码字进行解压缩从而还原信息,实现自适应多压缩率的下行状态信息反馈过程。
[0085]
在实际应用过程中,以目标数据为下行信道状态信息为例,由于用户端可以在反馈压缩后的目标数据的同时,还会反馈最佳压缩率对应的预设标识信息,比如该预设标识信息可以是压缩率对应的类别编码,可以预先为可选的多个压缩率分配相应的类别编码,并将压缩率与类别编码的映射关系预先配置于用户端和基站侧,这样基站根据接收到的类别编码,可以直接确定对应的压缩率。
[0086]
当压缩率的可选数量为k时,反馈压缩率的选择(即最佳压缩率对应的预设标识信息)需要log
2 k个比特,由于本实施例中k较小,通常k为10以下,反馈压缩率的选择所需的比特数往往可以忽略,因此,在上述数据反馈过程中,反馈最佳压缩率对应的预设标识信息
并不会消耗过多的比特。
[0087]
参见附图3,用户设备(user equipment)一侧(即用户端)编码器(encoder)对应的第二神经网络模型中卷积层(即图3中的encoder cnn,编码器卷积神经网络)由一个inception块组成,即图3中最左侧的卷积块convbn(convolutional batch norm,卷积批次正则化),卷积核大小为3
×
3,该inception块拥有3个分支,每个分支由不同大小的卷积核进行处理;对于较大的卷积核,采用非对称分解的方法,将其分解为两个较小的卷积核,以减少参数数量;
[0088]
图3示出的三个分支中,第一个分支由三个卷积组成,卷积核大小分别是1
×
5、5
×
1、1
×
1,第二个分支也由三个卷积组成,卷积核大小分别是1
×
7、7
×
1、1
×
1,第三个分支由两个卷积组成,卷积核大小分别是3
×
3、1
×
1;
[0089]
最后将inception块的多个分支的输出在通道维度合并,本实施例中以目标数据是下行信道状态信息为例,由于信道矩阵的通道数为2,因此需要用一个1
×
1大小的卷积将合并后数据的通道数压缩至2,随后送入全连接层,即图3中的encoder fc(编码器全连接层),该层中可以设置多个节点,分别对应不同的可选压缩率,图3中示出了压缩率cr=4以及cr=32的情形,编码器中压缩率的调整过程在图3中可以看作开关的原理,通过最佳压缩率与节点之间的箭头确定编码器压缩率的选择,经编码器压缩后得到码字s。
[0090]
不难看出,本实施例中编码器部分,各个压缩率共用一个卷积神经网络,以节省存储网络参数的负荷,通过调整第二神经网络模型中全连接层的节点数,可以实现编码器压缩率的调节,因此该编码器可以称为自适应多压缩率编码器。
[0091]
在基站一侧,可以通过解码器实现数据的解压缩,解码器部分,考虑到基站端有较大的存储空间,不同的压缩率可以使用不同的全连接层和卷积神经网络。
[0092]
具体地,本实施例中基站(base station,bs)一端的解码器(decoder)部分可以设置多个第三神经网络模型以实现不同压缩率下的解压缩过程,参见附图3,以其中一个第三神经网络模型为例,该网络模型的基本组成单元为rdblock,通过gff(global feature fusion,全局特征融合)操作以及grl(global residual learning,全局残差学习)之后输出结果。
[0093]
每个rdblock由3个密连接层与注意力机制模块组成,图3中三个密连接层分别是三个大小为5
×
5的卷积,注意力机制模块具体为se(squeeze-and-excitation,压缩和激发)模块,该se模块主要包括平均池化层averagepool以及全连接层fc。其中,注意力机制模块利用所处理数据各行之间有较大差异的特性,具体到信道矩阵这一应用对象,该特性继承自信道矩阵在时延域上的稀疏性,通过对各行施加权重,可以让神经网络将更多的注意力投入到信息更为丰富的部分行上,这些行对应着原本信道矩阵的非0行。
[0094]
同时,在各rdblock之间也采用密连接的方式,以提升神经网络的性能,最后3个密连接层与注意力机制模块通过lrl(local residual learning,局部残差学习)之后输出数据。本实施例中经过基站侧的解码器解压缩后可以得到解压缩后的数据
[0095]
在对上述神经网络进行训练时,需要将自编码器中第二神经网络模型与第一神经网络模型分开训练,以目标数据是信道矩阵为例,训练过程具体可以包括:
[0096]
首先,获取多个稀疏度不同的信道矩阵样本,用这些样本训练第二神经网络模型,制止各个压缩率下的编码器都训练充分。
[0097]
其次,根据反馈精度和反馈开销兼顾的方式对信道矩阵样本进行测试,确定各个信道矩阵样本的最佳压缩率,并按对应的最佳压缩率打上标签,得到标记后最佳压缩率标签的信道矩阵样本。
[0098]
最后,将带有标签的信道矩阵样本投入神经网络进行训练,得到训练好的第一神经网络模型。
[0099]
在实际应用过程中,仍以目标数据是下行信道状态信息为例,上述数据的反馈方法具体可以包括:
[0100]
步骤1:频分双工系统采用自适应压缩率的方式工作;
[0101]
步骤2:用户端将空间频率域的下行信道状态信息变换到角度时延域,并根据相应的压缩率对下行信道状态信息进行压缩;
[0102]
步骤3:用户端将压缩后的码字和最佳压缩率对应的类别编码反馈到基站;
[0103]
步骤4:基站根据接收到的码字和类别编码对应的压缩率信息对下行信道状态信息进行解压缩,恢复原始的下行信道状态信息;
[0104]
步骤5:基站利用恢复的下行信道状态信息进行波束赋形,并在一段时间后通知用户端进行下一次的信道信息反馈,返回步骤1。
[0105]
由此可见,本发明实施例提供的数据的反馈方法,通过第一神经网络模型根据环境的变化自动调整编码器的压缩率,从而使待反馈的数据可以按照最佳压缩率进行压缩并反馈给基站,该方法具有较好的自适应性,利用灵活可靠的压缩环节,在保证一定的反馈精度的同时,可以尽可能地减少反馈开销。
[0106]
下面对本发明提供的编码器压缩率的调整装置进行描述,下文描述的编码器压缩率的调整装置与上文描述的编码器压缩率的调整方法可相互对应参照。
[0107]
图5示出了本发明实施例提供的编码器压缩率的调整装置,该装置包括:
[0108]
第一处理模块510,用于将目标数据输入预先构建的第一神经网络模型,得到目标数据的最佳压缩率;其中,第一神经网络模型是基于标记有最佳压缩率标签的目标数据样本对神经网络进行训练得到的;
[0109]
调整模块520,用于将编码器的压缩率调整至最佳压缩率。
[0110]
在示例性实施例中,上述第一处理模块510,具体可以用于:
[0111]
对目标数据的稀疏度进行分析,得到稀疏度分析结果;
[0112]
基于稀疏度分析结果,确定目标数据的最佳压缩率。
[0113]
进一步地,上述第一处理模块510具体可以通过如下方式实现基于稀疏度分析结果,确定目标数据的最佳压缩率,包括:
[0114]
基于稀疏度分析结果,将预设的多个理论压缩率中反馈精度高于预设精度阈值且反馈比特数最小的理论压缩率作为最佳压缩率。
[0115]
在示例性实施例中,上述编码器压缩率的调整装置,还可以包括:
[0116]
模型训练模块,用于获取多个稀疏度不同的目标数据样本,并分别确定各个目标数据样本对应的最佳压缩率标签;通过标记有最佳压缩率标签的目标数据样本对预先构建的神经网络进行训练,得到第一神经网络模型。
[0117]
进一步地,上述模型训练模块具体可以通过如下方式实现通过标记有最佳压缩率标签的目标数据样本对预先构建的神经网络进行训练,包括:
[0118]
向神经网络的损失函数中引入加权项,得到加权后的损失函数;
[0119]
基于加权后的损失函数,通过标记有最佳压缩率标签的目标数据样本对神经网络进行训练。
[0120]
在示例性实施例中,上述调整模块520具体可以用于:对编码器对应的第二神经网络模型中全连接层的节点数进行调节,以将编码器的压缩率调整至最佳压缩率。
[0121]
图6示出了本发明实施例提供的数据的反馈装置,该装置包括:
[0122]
第二处理模块610,用于上述编码器压缩率的调整方法将编码器的压缩率调整至最佳压缩率;
[0123]
压缩模块620,用于按照最佳压缩率对目标数据进行压缩;
[0124]
反馈模块630,用于将压缩后的目标数据和最佳压缩率对应的预设标识信息反馈至基站;
[0125]
其中,基站用于根据预设标识信息确定最佳压缩率,并通过最佳压缩率对压缩后的目标数据进行解压缩。
[0126]
在示例性实施例中,上述目标数据可以是下行信道状态信息。
[0127]
由此可见,本发明实施例提供的数据的反馈装置,通过调整编码器的压缩率至最佳压缩率,可以降低数据的压缩和反馈过程中多余的比特和资源浪费,更能满足实际应用需求。
[0128]
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(communications interface)720、存储器(memory)830和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行编码器压缩率的调整方法,该方法包括:将目标数据输入预先构建的第一神经网络模型,得到目标数据的最佳压缩率;其中,第一神经网络模型是基于标记有最佳压缩率标签的目标数据样本对神经网络进行训练得到的;将编码器的压缩率调整至最佳压缩率。
[0129]
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0130]
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各实施例所提供的编码器压缩率的调整方法,该方法包括:将目标数据输入预先构建的第一神经网络模型,得到目标数据的最佳压缩率;其中,第一神经网络模型是基于标记有最佳压缩率标签的目标数据样本对神经网络进行训练得到的;将编码器的压缩率调整至最佳压缩率。
[0131]
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程
序,该计算机程序被处理器执行时以实现上述各实施例提供的编码器压缩率的调整方法,该方法包括:将目标数据输入预先构建的第一神经网络模型,得到目标数据的最佳压缩率;其中,第一神经网络模型是基于标记有最佳压缩率标签的目标数据样本对神经网络进行训练得到的;将编码器的压缩率调整至最佳压缩率。
[0132]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0133]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0134]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1