基于SDN网络的网络加速方法、装置与计算机可读存储介质与流程

文档序号:15777885发布日期:2018-10-30 15:46阅读:133来源:国知局
基于SDN网络的网络加速方法、装置与计算机可读存储介质与流程

本发明涉及sdn网络技术领域,具体涉及一种基于sdn的网络加速方法、装置与计算机可读存储介质。



背景技术:

sdn网络,即软件定义网络(softwaredefinednetwork,sdn),是emulex网络一种新型网络创新架构,是网络虚拟化的一种实现方式,其核心技术openflow通过将网络设备控制面与数据面分离开来,从而实现了网络流量的灵活控制,使网络作为管道变得更加智能。

但是,随着ict产业链架构融合的逐步深入、网络云化重构转型的加快以及更多新制式和技术的演进,在网络运营方面将面临越来越大的压力和挑战,尤其是在如何有效降低运营成本、提升sdn网络高速运行方面,传统的sdn网络以人工方式进行网络调节已不能满足未来对高效运营的需求。因此,如何实现sdn网络的自我优化加速成为本领域技术人员亟待解决的技术问题。



技术实现要素:

本发明的目的是提供一种基于sdn的网络加速方法、装置与计算机可读存储介质,结合人工智能,实现sdn网络的自我优化加速,提升sdn网络的运行速度,降低sdn网络的运营成本。

本发明实施例提供了一种基于sdn的网络加速方法,包括:

将在sdn网络中采集历史数据流输入到ai加速器中对深度学习模型进行模型训练,生成第一推理模型;

将所述第一推理模型部署到sdn云网控制器中;

所述sdn云网控制器根据所述第一推理模型,对实时采集的数据流进行逻辑推理,得到控制推理结果;

所述sdn云网控制器在sdn网络中执行所述控制推理结果。

优选地,所述基于sdn的网络加速方法还包括:

所述sdn云网控制器将设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则发送到所述ai加速器;

所述ai加速器根据所述设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则,重新对所述第一推理模型进行模型训练,获得迭代优化后的第一推理模型;

将迭代优化后的第一推理模型更新到所述sdn云网控制器中。

优选地,所述将在sdn网络中采集历史数据流输入到ai加速器中对深度学习模型进行模型训练,具体包括:

将所述历史数据流进行数据清洗和预处理,生成标准化的数据样本并所述存储在加速存储模块中;

所述ai加速器根据所述sdn云网控制器的预设配置参数从所述加速存储模块中获取数据样本进行特征挖掘,获得第一特征信息;

采用所述第一特征信息对所述深度学习模型进行模型训练,生成所述第一推理模型。

优选地,所述预处理包括以下一个或多个处理过程:缺失值处理、特征离散化处理、特征组合处理、特征选择处理。

优选地,所述基于sdn的网络加速方法还包括:

所述ai加速器根据网元的预设转发参数从所述加速存储模块中获取数据样本进行特征挖掘,获得第二特征信息;

采用所述第二特征信息对所述深度学习模型进行模型训练,生成所述第二训练模块。

将所述第二推理模型部署到与所述sdn云网控制器连接的多个网元中;

所述多个网元根据所述第二推理模型,对实时接收到的数据流进行逻辑推理,得到转发推理结果;

所述多个网元在sdn网络中执行所述转发推理结果。

优选地,所述深度学习模型包括以下一种或多种深度学习算法:sparkml算法、mllib算法、deeplearning4j算法、tensorflow算法、caffe算法、cntk算法、theano算法以及torch算法。

优选地,所述历史数据流包括网络的带宽参数、链路损耗参数以及链路延时参数。

本发明实施例还提供了一种基于sdn的网络加速装置,包括:数据输入模块、ai加速器、模型部署模块以及sdn云网控制器;

所述数据输入模块,用于将在sdn网络中采集历史数据流输入到所述ai加速器中对深度学习模型进行模型训练,生成第一推理模型;

所述模型部署模块,用于将所述第一推理模型部署到sdn云网控制器中;

所述sdn云网控制器,用于根据所述第一推理模型,对实时采集的数据流进行逻辑推理,得到控制推理结果;

所述sdn云网控制器,用于在sdn网络中执行所述控制推理结果。

本发明实施例还提供了一种基于sdn的网络加速装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上述的基于sdn的网络加速方法。

本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如上述的基于sdn的网络加速方法。

相对于现有技术,本发明实施例提供的一种基于sdn的网络加速方法的有益效果在于:所述基于sdn的网络加速方法,包括:将在sdn网络中采集历史数据流输入到ai加速器中对深度学习模型进行模型训练,生成第一推理模型;将所述第一推理模型部署到sdn云网控制器中;所述sdn云网控制器根据所述第一推理模型,对实时采集的数据流进行逻辑推理,得到控制推理结果;所述sdn云网控制器在sdn网络中执行所述控制推理结果。上述方法结合人工智能,实现sdn网络的自我优化加速,提升sdn网络的运行速度,降低sdn网络的运营成本。本发明实施例还提供了一种基于sdn的网络加速装置与计算机可读存储介质。

附图说明

图1是本发明实施例提供的一种基于sdn的网络加速方法的流程图;

图2是本发明实施例提供的一种基于sdn的网络加速装置的示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参阅图1,其是本发明实施例提供的一种基于sdn的网络加速方法的流程图,包括:

s100:将在sdn网络中采集历史数据流输入到ai加速器中对深度学习模型进行模型训练,生成第一推理模型;

s200:将所述第一推理模型部署到sdn云网控制器中;

s300:所述sdn云网控制器根据所述第一推理模型,对实时采集的数据流进行逻辑推理,得到控制推理结果;

s400:所述sdn云网控制器在sdn网络中执行所述控制推理结果。

在本实施例中,通过在所述sdn云网控制器中引入ai加速器,使得sdn网络的基础设施层快速具备不同级别的ai训练和推理能力,可以实现跨领域分析,满足全局性的满足全局性的策略或算法模型的集中化训练及推理需求,实现sdn网络的自我优化加速,提升sdn网络的运行速度,降低sdn网络的运营成本。所述ai加速器可以是独立于所述sdn云网控制器部署的gpu/fpgsa集群,或部署在所述sdn云网控制器中与cpu按照设定配比集成的cpu/gpu/fpgsa,或部署在所述sdn云网控制器中支持ai的asic硬件。

其中,所述控制推理结果包括所述sdn云网控制器的更新配置参数以及数据流转发规则,所述sdn云网控制器根据所述控制推理结果,实时将自身的当前配置参数调整为所述更新配置参数;使得所述sdn云网控制器根据所述更新配置参数以及所述数据流转发规则下发实时采集的数据流到网元。

在一种可选的实施例中,所述基于sdn的网络加速方法还包括:

所述sdn云网控制器将设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则发送到所述ai加速器;

所述ai加速器根据所述设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则,重新对所述第一推理模型进行模型训练,获得迭代优化后的所述第一推理模型;

将迭代优化后的所述第一推理模型更新到所述sdn云网控制器中。

在本实施例中,通过将设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则,重新对所述第一推理模型进行模型训练,实现所述第一推理模型的迭代优化,从而实现所述sdn云网控制器的自动优化控制。

在一种可选的实施例中,所述将在sdn网络中采集历史数据流输入到ai加速器中对深度学习模型进行模型训练,具体包括:

将所述历史数据流进行数据清洗和预处理,生成标准化的数据样本并所述存储在加速存储模块中;

所述ai加速器根据所述sdn云网控制器的预设配置参数从所述加速存储模块中获取数据样本进行特征挖掘,获得第一特征信息;

采用所述第一特征信息对所述深度学习模型进行模型训练,生成所述第一推理模型。

在一种可选的实施例中,所述预处理包括以下一个或多个处理过程:缺失值处理、特征离散化处理、特征组合处理、特征选择处理。

在一种可选的实施例中,所述基于sdn的网络加速方法还包括:

所述ai加速器根据网元的预设转发参数从所述加速存储模块中获取数据样本进行特征挖掘,获得第二特征信息;

采用所述第二特征信息对所述深度学习模型进行模型训练,生成所述第二训练模块。

将所述第二推理模型部署到与所述sdn云网控制器连接的多个网元中;

所述多个网元根据所述第二推理模型,对实时接收到的数据流进行逻辑推理,得到转发推理结果;

所述多个网元在sdn网络中执行所述转发推理结果。

在本实施例中,还可以对网络基础设施层的网元部署相应的第二推理模型,例如在无线基站设备、路由器、交换机等网络设备中内嵌所述ai加速器,进一步实现sdn网络的自动优化加速,实现sdn网络的人工智能控制。

在一种可选的实施例中,所述深度学习模型包括以下一种或多种深度学习算法:sparkml算法、mllib算法、deeplearning4j算法、tensorflow算法、caffe算法、cntk算法、theano算法以及torch算法。

在一种可选的实施例中,所述历史数据流包括网络的带宽参数、链路损耗参数以及链路延时参数。

具体地,所述深度学习模型,可以理解为神经网络模型,所述深度学习模型的每个神经元为一个逻辑回归器,以x1,x2,...,xn为输入,输出为:

其中,f被称作激活函数;w为神经网络的参数;θ为比较阈值;通过将每一层的每个神经元的输出yi作为到下一层的每个神经元的输入。所述深度学习模型采用s型传递函数通过反传误差函数不断调整神经网络的参数w和阈值θ,使误差函数e达到极小,此时深度学习过程结束,确定网络中每个神经元的神经网络的参数w和阈值θ,并得到训练后的深度学习模型;其中,ti为期望输出,yi为神经元的输出。通过将第一特征信息作为所述深度学习模型的第一层神经元的输入,经过多层神经元的正向传递迭代计算后获得网络中每个神经元的神经网络的参数w1和阈值θ1,将所述深度学习模型的每个神经元的神经网络的参数w和阈值θ分别调整为w1和θ1,得到所述第一推理模型;同样地,通过将第二特征信息作为所述深度学习模型的第一层神经元的输入,经过多层神经元的正向传递迭代计算后获得网络中每个神经元的神经网络的参数w2和阈值θ2,将所述深度学习模型的每个神经元的神经网络的参数w和阈值θ分别调整为w2和θ2,得到所述第二推理模型。

请参阅图2,其是本发明实施例还提供了一种基于sdn的网络加速装置的示意图,所述基于sdn的网络加速装置包括:数据输入模块1、ai加速器2、模型部署模块3以及sdn云网控制器4;

所述数据输入模块1,用于将在sdn网络中采集历史数据流输入到所述ai加速器2中对深度学习模型进行模型训练,生成第一推理模型;

所述模型部署模块3,用于将所述第一推理模型部署到sdn云网控制器4中;

所述sdn云网控制器4,用于根据所述第一推理模型,对实时采集的数据流进行逻辑推理,得到控制推理结果;

所述sdn云网控制器4,用于在sdn网络中执行所述控制推理结果。

在本实施例中,通过在所述sdn云网控制器中引入ai加速器,使得sdn网络的基础设施层快速具备不同级别的ai训练和推理能力,可以实现跨领域分析,满足全局性的满足全局性的策略或算法模型的集中化训练及推理需求。所述ai加速器可以是独立于所述sdn云网控制器部署的gpu/fpgsa集群,或部署在所述sdn云网控制器中与cpu按照设定配比集成的cpu/gpu/fpgsa,或部署在所述sdn云网控制器中支持ai的asic硬件。

其中,所述控制推理结果包括所述sdn云网控制器的更新配置参数以及数据流转发规则,所述sdn云网控制器根据所述控制推理结果,实时将自身的当前配置参数调整为所述更新配置参数;使得所述sdn云网控制器根据所述更新配置参数以及所述数据流转发规则下发实时采集的数据流到网元。

在一种可选的实施例中,所述sdn云网控制器,还用于将设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则发送到所述ai加速器;

所述ai加速器,用于根据所述设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则,重新对所述第一推理模型进行模型训练,获得迭代优化后的所述第一推理模型;

所述模型部署模块,还用于将迭代优化后的所述第一推理模型更新到所述sdn云网控制器中。

在本实施例中,通过将设定时间段内采集的数据流、所述sdn云网控制器的配置参数以及数据流转发规则,重新对所述第一推理模型进行模型训练,实现所述第一推理模型的迭代优化,从而实现所述sdn云网控制器的自动优化控制。

在一种可选的实施例中,所述数据输入模块包括:数据预处理单元;

所述数据预处理单元,用于将所述历史数据流进行数据清洗和预处理,生成标准化的数据样本并所述存储在加速存储模块中;

所述ai加速器,用于根据所述sdn云网控制器的预设配置参数从所述加速存储模块中获取数据样本进行特征挖掘,获得第一特征信息;

所述ai加速器,用于采用所述第一特征信息对所述深度学习模型进行模型训练,生成所述第一推理模型。

在一种可选的实施例中,所述预处理包括以下一个或多个处理过程:缺失值处理、特征离散化处理、特征组合处理、特征选择处理。

在一种可选的实施例中,所述基于sdn的网络加速装置还包括网元;

所述ai加速器,用于根据网元的预设转发参数从所述加速存储模块中获取数据样本进行特征挖掘,获得第二特征信息;

所述模型生成单元,用于采用所述第二特征信息对所述深度学习模型进行模型训练,生成所述第二训练模块。

所述模型部署模块,用于将所述第二推理模型部署到与所述sdn云网控制器连接的多个所述网元中;

所述多个网元,用于根据所述第二推理模型,对实时接收到的数据流进行逻辑推理,得到转发推理结果;

所述多个网元在sdn网络中执行所述转发推理结果。

在本实施例中,还可以对网络基础设施层的网元部署相应的第二推理模型,例如在无线基站设备、路由器、交换机等网络设备中内嵌所述ai加速器,进一步实现sdn网络的自动优化加速,实现sdn网络的人工智能控制。

在一种可选的实施例中,所述深度学习模型包括以下一种或多种深度学习算法:sparkml算法、mllib算法、deeplearning4j算法、tensorflow算法、caffe算法、cntk算法、theano算法以及torch算法。

在一种可选的实施例中,所述历史数据流包括网络的带宽参数、链路损耗参数以及链路延时参数。

具体地,所述深度学习模型,可以理解为神经网络模型,所述深度学习模型的每个神经元为一个逻辑回归器,以x1,x2,...,xn为输入,输出为:

其中,f被称作激活函数;w为神经网络的参数;θ为比较阈值;通过将每一层的每个神经元的输出yi作为到下一层的每个神经元的输入。所述深度学习模型采用s型传递函数通过反传误差函数不断调整神经网络的参数w和阈值θ,使误差函数e达到极小,此时深度学习过程结束,确定网络中每个神经元的神经网络的参数w和阈值θ,并得到所述深度学习模型;其中,ti为期望输出,yi为神经元的输出。通过将第一特征信息作为所述深度学习模型的第一层神经元的输入,经过多层神经元的正向传递迭代计算后获得网络中每个神经元的神经网络的参数w1和阈值θ1,将所述深度学习模型的每个神经元的神经网络的参数w和阈值θ分别调整为w1和θ1,得到所述第一推理模型;同样地,通过将第二特征信息作为所述深度学习模型的第一层神经元的输入,经过多层神经元的正向传递迭代计算后获得网络中每个神经元的神经网络的参数w2和阈值θ2,将所述深度学习模型的每个神经元的神经网络的参数w和阈值θ分别调整为w2和θ2,得到所述第二推理模型。

本发明实施例还提供了一种基于sdn的网络加速装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上述的基于sdn的网络加速方法。

示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述基于sdn的网络加速装置中的执行过程。例如,所述计算机程序可以被分割成数据输入模块、ai加速器、模型部署模块以及sdn云网控制器,各模块具体功能如下:所述数据输入模块,用于将在sdn网络中采集历史数据流输入到所述ai加速器中对深度学习模型进行模型训练,生成第一推理模型;所述模型部署模块,用于将所述第一推理模型部署到sdn云网控制器中;所述sdn云网控制器,用于根据所述第一推理模型,对实时采集的数据流进行逻辑推理,得到控制推理结果。

所述基于sdn的网络加速装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述基于sdn的网络加速装置可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是基于sdn的网络加速装置的示例,并不构成对基于sdn的网络加速装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述基于sdn的网络加速装置还可以包括输入输出设备、网络接入设备、总线等。

所称处理器可以是中央处理单元(centralprocessingunit,cpu),还可以是其他通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现成可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述基于sdn的网络加速装置的控制中心,利用各种接口和线路连接整个基于sdn的网络加速装置的各个部分。

所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述基于sdn的网络加速装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(smartmediacard,smc),安全数字(securedigital,sd)卡,闪存卡(flashcard)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。

其中,所述基于sdn的网络加速装置集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。

本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如上述的基于sdn的网络加速方法。

相对于现有技术,本发明实施例提供的一种基于sdn的网络加速方法的有益效果在于:所述基于sdn的网络加速方法,包括:将在sdn网络中采集历史数据流输入到ai加速器中对深度学习模型进行模型训练,生成第一推理模型;将所述第一推理模型部署到sdn云网控制器中;所述sdn云网控制器根据所述第一推理模型,对实时采集的数据流进行逻辑推理,得到控制推理结果;所述sdn云网控制器在sdn网络中执行所述控制推理结果。上述方法结合人工智能,实现sdn网络的自我优化加速,提升sdn网络的运行速度,降低sdn网络的运营成本。本发明实施例还提供了一种基于sdn的网络加速装置与计算机可读存储介质。

需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。

以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1