基于时间卷积神经网络的架空线预警系统障碍物识别方法与流程

文档序号:20841382发布日期:2020-05-22 17:32阅读:223来源:国知局
基于时间卷积神经网络的架空线预警系统障碍物识别方法与流程

本发明涉及基于时间卷积神经网络的架空线预警系统障碍物识别方法。



背景技术:

近年来我国经济持续快速发展,输电电压等级不断提高,电网的分布也越来越广,电力安全问题也表现的尤为突出。架空线路架设在地面之上,架设及维修比较方便,成本较低,但容易受到气象和环境(如大风、雷击、污秽、冰雪等)的影响而引起故障。对于长期暴露于空气中的部分架空线路,在植被茂盛区域穿行,时常因树木、鸟粪、鸟巢等导致单相接地、相间短路等现象时有发生,引起停电故障。

我国现在大力提倡提高电网自动化,减少工人工作量。我国现有的调度自动化系统,具有高精度的通讯技术、高速准确的对策显示技术,使信息的收集和传输在精度、速度和可靠性方面都有很大提高,同时调度中心能正确、迅速且经济地在故障发生后采取决策。这种实时的监测数据上报和远传功能、快速的故障处理能力,为线路自动预警提供了用武之地。

当探测器发现线路安全距离内出现障碍物,则需要判断障碍物具体类型,以便调度通讯中心进一步制定安全方案,通知巡线工人有效处理障碍物。但目前预警系统多采用激光测距,单纯测量线路安全距离,无法自动辨识障碍物类型,且仅根据距离无法有效判断障碍物是否切实危及线路安全,如飞鸟飞过和鸟类筑巢会产生相似距离,但对线路危害程度相差甚远。且当春季等动植物快速生长季节,预警系统报警频率上升,误报警率提升。故若能自动判别障碍物类型,提高判别是否存在障碍物能力,可以极大减小调度人员、巡线工人工作量,提高电网安全稳定性,具有极强的现实意义。



技术实现要素:

本发明的目的在于提供基于时间卷积神经网络的架空线预警系统障碍物识别方法,能够有效解决现有方式无法识别架空线上障碍物的种类,造成多种误报的问题。

为了解决上述技术问题,本发明是通过以下技术方案实现的:基于时间卷积神经网络的架空线预警系统障碍物识别方法,包括以下步骤:

步骤1:构建的时间卷积模块,并采用imagenet图像数据集对卷积网络模块进行预训练;

步骤2:构建双层长短期记忆神经网络模块,并将步骤1中的时间卷积神经网络模块的输出结果,输入到长短期记忆神经网络模块;

步骤3:利用adam优化算法,求解步骤2中的长短期记忆神经网络模块权值与阀值,使模型达到收敛;

步骤4:利用网格搜索法进行步骤3中神经网络超参数优化;

步骤5:将障碍物照片输入步骤4中训练完成的神经网络,进行障碍物识别。

优选的,所述步骤1中,时间卷积模块架构及预训练过程如下:

首先将一张输入图片按像素转化为矩阵,矩阵的元素为对应的像素值;将矩阵输入时间卷积模块,卷积层为对输入矩阵做卷积操作;输入矩阵输入卷积层,输出为:

式1中,yij表示输出矩阵的第i行、第j列的元素,其中i∈(1,i)、j∈(1,j);i,j表示输出矩阵的行数、列数;表示激活函数,为已设定的超参数;b表示偏移值;wn,m表示卷积核第n行、第m列的权值元素,其中n∈(1,n)、m∈(1,m);n,m表示卷积核的行数、列数,为已设定的超参数;xn+l,m+k表示输入矩阵第n+l行、第m+k列元素;

当输入矩阵经过卷积层处理后,使用权值规范化的方法,权值规范化把权重向量分解为标量参数g和向量参数

式2中,g表示向量的模值;表示的同向向量;表示的欧几里得范数;故是与向量同方向的单位向量;

当输入数据经过权值规范化处理后,采用激活层,选择relu函数为激活函数,激活函数relu计算公式如下:

relu(x)=max(0,x)(3)

采用最大池化层进行下采样,降低卷积得到的特征图的数据量,池化层计算公式如下:

式4中,p,q分别为池化窗行、列数,t为池化窗移动步长是已设定的超参数,为若干个被池化窗选中的输入矩阵元素,yij为输出矩阵第i行、第j列元素;

最后,将输入数据依次流经残差模块,进行对应处理完成时间卷积模块预训练。

优选的,所述步骤2中,构建双层长短期记忆神经网络模块,其过程如下:

首先将步骤1中输出结果输入第一层长短期记忆神经网络,长短期记忆神经网络具有独特的记忆模式,记忆单元的读取和修改通过对输入门、遗忘门和输出门的控制来实现,它们一般采用sigmoid或tanh函数进行描述;

记忆单元的工作流程如下:每一个时刻,记忆单元通过3个门接收当前状态xt和上一时刻网络的隐藏状态ht-1这2类外部信息的输入;此外,每一个门还接收一个内部信息输入,即记忆单元的状态ct-1;接收输入信息后,每一个门将对不同来源的输入进行运算,并且由其逻辑函数决定其是否激活;输入门的输入经过非线性函数的变换后,与遗忘门处理过的记忆单元状态进行叠加,形成新的记忆单元状态ct;最终,记忆单元状态ct通过非线性函数的运算和输出门的动态控制形成记忆单元的输出ht;各变量之间的计算公式如下:

it=σ(wxixt+whiht-1+wcict-1+bi)(5)

ft=σ(wxfxt+whfht-1+wcfct-1+bf)(6)

ct=ftct-1+tanh(wxcxt+whcht-1+bc)(7)

ot=σ(wxoxt+whoht-1+wcoct+bo)(8)

ht=ottanh(ct)(9)

式中:wxc、wxi、wxf、wxo为连接输入信号xt的权重矩阵;whc、whi、whf、who为连接隐含层输出信号ht的权重矩阵;wci、wcf、wco为连接神经元激活函数输出矢量ct和门函数的对角矩阵;bi、bf、bc、bo为阀值向量;σ为激活函数,为tanh函数;

当输入数据流经第一层长短期记忆神经网络,采用dropout层对模型进行处理,采用dropout层的计算公式如下:

公式10中,bernoulli函数为伯努利二项分布函数,随机生成一个概率为p的0、1向量rij,xij为输入矩阵的第i行、第j列元素,wij为权值矩阵的第第i行、第j列元素,bij为阀值矩阵的第i行、第j列元素,yij为输出矩阵第i行、第j列元素;

第二层长短期记忆神经网络与第一层原理相同,仅超参数不同。

优选的,所述步骤3中,使用adam优化算法,求解步骤2中的长短期记忆神经网络模块权值和阀值,adam优化算法通过以下三个步骤求解模型:

1)网络初始化:

用ωie表示输入层节点i到记忆单元节点e的权值,vie表示记忆单元节点i到dropout层或dropout层到输出层e的权值;用ai表示第一、第二长短期记忆神经网络层第i个神经元的阈值,用bk表示dropout层神经元的阈值;给各权值分别赋一个区间[-1,1]内的随机数,设误差函数为e,计算精度值ε和最大学习次数m;

2)中间所有层输出函数计算:

设输入变量s=(s1,s2,...,sa),中间所有层,即dropout层、第一长短期记忆神经网络层和第二长短期记忆神经网络层,其变量依次为η=(h1,h2,...,ht),输出变量ι=i,期望输出变量o=o,则节点输出为

式11中:t所有中间层的节点数;fi为激活函数;

3)输出计算:

根据中间层输出η、连接权值vie和阈值b,计算神经网络预测输出i;计算公式为:

分类误差mse的计算,计算公式为:

式12中:m为输出层节点数;n为训练样本数:为神经网络实际输出值;为神经网络期望输出值;

4)权值更新和阈值更新:

计算出误差后根据误差反向传播,不断调整权值和阈值,使误差不断地减少,直到mes<ε时,训练结束。

优选的,所述步骤4中,采用网格搜索法优化步骤3的模型的超参数,其过程如下:

1)网格搜索

将n个超参数所有可能的取值进行排列组合,列出所有可能的组合结果生成“网格”,然后将所有组合依次用于步骤3中求解长短期记忆神经网络模块权值和阀值;

2)k折交叉验证

为保证对一组超参数评分的有效性,交叉验证利用n组输入数据对一组超参数进行n次评价,并取n次评价的平均值作为对该组的最终评价,首先将总数据集分为k份,第一次评价采用第k份作为验真数据,其余为训练数据,第二次评价采用第k-1份作为验真数据,其余为训练数据,依次进行,共对一组超参数进行k次评价,最终评价公式如下:

式14其中ai为第i次评价得分,计算公式如下:

式15其中,tp为预测图片为当前类,实际图片为当前类的次数;fp为预测图片为当前类,实际图片不为当前类的次数;tn为预测图片不为当前类,实际图片不为当前类的次数;fn为预测图片不为当前类,实际图片为当前类的次数;tp、tn皆为预测正确,fp、fn皆为预测错误。

优选的,所述步骤5中,基于步骤4中已经优化完成的模型,进行障碍物辨识,其过程如下:

首先对障碍物定义,障碍物共分4类—人类活动、植物生长、动物活动、误警报;为使计算机进行计算,对4类障碍物进行编码,即使用(1,0,0,0),(0,1,0,0),(0,0,1,0),(0,0,0,1)分别代指4类障碍物,然后将预警系统拍摄的障碍物图片输入步骤4中已经优化完成的模型,计算出对应标签,辨识出障碍物类型。

与现有技术相比,本发明的优点是:通过上述方法,可以自动识别障碍物的种类,减少误报几率,判断是否为障碍物,极大的减少调度人员、巡线人员工作量,提高电网安全稳定性。

附图说明

图1是时间卷积模块架构图;

图2是权值规范化结构图;

图3是池化操作原理图;

图4是记忆单元结构图;

图5是长短期记忆神经网络模块结构图。

具体实施方式

下面详细描述本发明的实施例,所述实施例的示例在附图中示出。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。

一种基于改进时间卷积神经网络的架空线预警系统障碍物识别方法,包括以下步骤:

步骤1:构建的时间卷积模块,并采用imagenet图像数据集对卷积网络模块进行预训练;

步骤2:构建双层长短期记忆神经网络模块,并将步骤1中的时间卷积神经网络模块的输出结果,输入到长短期记忆神经网络模块;

步骤3:利用adam优化算法,求解步骤2中的长短期记忆神经网络模块权值与阀值,使模型达到收敛;

步骤4:利用网格搜索法进行步骤3中神经网络超参数优化;

步骤5:将障碍物照片输入步骤4中训练完成的神经网络,进行障碍物识别。

所述步骤1中,时间卷积模块架构及预训练过程如下:

首先将一张输入图片按像素转化为矩阵,矩阵的元素为对应的像素值。将矩阵输入时间卷积模块。时间卷积模块架构如图1所示,其中卷积层为对输入矩阵做卷积操作。输入矩阵输入卷积层,输出为:

式1中,yij表示输出矩阵的第i行、第j列的元素,其中i∈(1,i)、j∈(1,j);i,j表示输出矩阵的行数、列数;表示激活函数,为已设定的超参数;b表示偏移值;wn,m表示卷积核第n行、第m列的权值元素,其中n∈(1,n)、m∈(1,m);n,m表示卷积核的行数、列数,为已设定的超参数;xn+l,m+k表示输入矩阵第n+l行、第m+k列元素。

通过卷积层,模型可以提取出丰富的图形特征,同时将不重要的图形特征过滤,保证图形分类的有效性。当输入矩阵经过卷积层处理后,使用权值规范化的方法,加快模型收敛,提高模型泛化能力。权值规范化把权重向量分解为标量参数g和向量参数

式2中,g表示向量的模值;表示的同向向量;表示的欧几里得范数;故是与向量同方向的单位向量。权值规范化结构如图2所示,神经网络每个权重值要经过参数重写后再参与到下一个神经元的计算当中。

当输入数据经过权值规范化处理后,为提高模型非线性拟合能力,采用激活层,选择relu函数为激活函数。因为该函数不仅软饱和性显著,能降低sigmoid函数会产生梯度消失现象的发生概率,并且relu收敛速度比sigmoid更快。激活函数relu计算公式如下:

relu(x)=max(0,x)(3)

当输入数据经过relu层处理后,为防止模型过拟合,采用最大池化层进行下采样,降低卷积得到的特征图的数据量。池化的操作如图3所示。池化层计算公式如下:

式4中,p,q分别为池化窗行、列数,t为池化窗移动步长是已设定的超参数,为若干个被池化窗选中的输入矩阵元素,yij为输出矩阵第i行、第j列元素。

最后,将输入数据依次流经残差模块,进行对应处理,并在有监督学习下训练模型内部权值,完成时间卷积模块预训练。时间卷积模块超参数设置如表1。

所述步骤2中,构建双层长短期记忆神经网络模块,其过程如下:

首先将步骤1中输出结果输入第一层长短期记忆神经网络,长短期记忆神经网络具有独特的记忆模式,其记忆单元结构如图4所示。记忆单元的读取和修改通过对输入门、遗忘门和输出门的控制来实现,它们一般采用sigmoid或tanh函数进行描述。具体地,记忆单元的工作流程如下:每一个时刻,记忆单元通过3个门接收当前状态xt和上一时刻网络的隐藏状态ht-1这2类外部信息的输入。此外,每一个门还接收一个内部信息输入,即记忆单元的状态ct-1。接收输入信息后,每一个门将对不同来源的输入进行运算,并且由其逻辑函数决定其是否激活。输入门的输入经过非线性函数的变换后,与遗忘门处理过的记忆单元状态进行叠加,形成新的记忆单元状态ct。最终,记忆单元状态ct通过非线性函数的运算和输出门的动态控制形成记忆单元的输出ht。

各变量之间的计算公式如下:

it=σ(wxixt+whiht-1+wcict-1+bi)(5)

ft=σ(wxfxt+whfht-1+wcfct-1+bf)(6)

ct=ftct-1+tanh(wxcxt+whcht-1+bc)(7)

ot=σ(wxoxt+whoht-1+wcoct+bo)(8)

ht=ottanh(ct)(9)

式中:wxc、wxi、wxf、wxo为连接输入信号xt的权重矩阵;whc、whi、whf、who为连接隐含层输出信号ht的权重矩阵;wci、wcf、wco为连接神经元激活函数输出矢量ct和门函数的对角矩阵;bi、bf、bc、bo为阀值向量;σ为激活函数,为tanh函数。

当输入数据流经第一层长短期记忆神经网络,为防止模型过拟合,减小模型训练时间,采用dropout层对模型进行处理。采用dropout层的计算公式如下:

公式10中,bernoulli函数为伯努利二项分布函数,随机生成一个概率为p的0、1向量rij,xij为输入矩阵的第i行、第j列元素,wij为权值矩阵的第第i行、第j列元素,bij为阀值矩阵的第i行、第j列元素,yij为输出矩阵第i行、第j列元素。

第二层长短期记忆神经网络与第一层原理相同,仅超参数不同,双层长短期记忆神经网络模块结构如图5所示。

所述步骤3中,使用adam优化算法,求解步骤2中的长短期记忆神经网络模块权值和阀值,其过程如下:

adam优化算法

针对步骤2中长短期记忆神经网络模块权值和阀值求解,本方案采用adam优化算法求解。adam算法和传统的随机梯度下降不同。随机梯度下降保持单一的学习率(即alpha)更新所有的权重,学习率在训练过程中并不会改变。而adam算法通过计算梯度的一阶矩估计和二阶矩估计而为不同的参数设计独立的自适应性学习率。

adam算法通过以下三个步骤求解模型。

1)网络初始化。

用ωie表示输入层节点i到记忆单元节点e的权值,vie表示记忆单元节点i到dropout层或dropout层到输出层e的权值;用ai表示第一、第二长短期记忆神经网络层第i个神经元的阈值,用bk表示dropout层神经元的阈值。给各权值分别赋一个区间[-1,1]内的随机数,设误差函数为e,计算精度值ε和最大学习次数m。

2)中间所有层输出函数计算。

设输入变量s=(s1,s2,...,sa),中间所有层,即dropout层、第一长短期记忆神经网络层和第二长短期记忆神经网络层,其变量依次为η=(h1,h2,...,ht),输出变量ι=i,期望输出变量o=o,则节点输出为

式11中:t所有中间层的节点数;fi为激活函数。

3)输出计算。

根据中间层输出η、连接权值vie和阈值b,计算神经网络预测输出i。计算公式如下所示。

分类误差mse的计算,计算公式为:

式12中:m为输出层节点数;n为训练样本数:为神经网络实际输出值;为神经网络期望输出值。

4)权值更新和阈值更新。

计算出误差后根据误差反向传播,不断调整权值和阈值,使误差不断地减少,直到mes<ε时,训练结束。

所述步骤4中,采用网格搜索法优化步骤3的模型的超参数,其过程如下:

网格搜索法:

本方案中模型初始超参数为按照经验设置,为进一步提高模型有效性,需要进行参数优化。网格搜索法主要由网格搜索和交叉验证组成,该算法的求解思路:首先在已设定的参数范围内,使用穷举法将所选参数全部运行一次,然后通过既定的评分方式,使用交叉验证确定最优一组超参数。

1)网格搜索

将n个超参数所有可能的取值进行排列组合,列出所有可能的组合结果生成“网格”,然后将所有组合依次用于步骤3中求解长短期记忆神经网络模块权值和阀值。

2)k折交叉验证

为保证对一组超参数评分的有效性,交叉验证利用n组输入数据对一组超参数进行n次评价,并取n次评价的平均值作为对该组的最终评价。首先将总数据集分为k份,第一次评价采用第k份作为验真数据,其余为训练数据,第二次评价采用第k-1份作为验真数据,其余为训练数据,依次进行,共对一组超参数进行k次评价。最终评价公式如下:

式14其中ai为第i次评价得分,计算公式如下:

式15其中,tp为预测图片为当前类,实际图片为当前类的次数;fp为预测图片为当前类,实际图片不为当前类的次数;tn为预测图片不为当前类,实际图片不为当前类的次数;fn为预测图片不为当前类,实际图片为当前类的次数。易知,tp、tn皆为预测正确,fp、fn皆为预测错误。经网格搜索法,超参数优化结果如表2:

所述步骤5中,基于步骤4中已经优化完成的模型,进行障碍物辨识,其过程如下:

首先对障碍物定义,障碍物共分4类—人类活动、植物生长、动物活动、误警报。为使计算机进行计算,对4类障碍物进行编码,即使用(1,0,0,0),(0,1,0,0),(0,0,1,0),(0,0,0,1)分别代指4类障碍物。

然后将预警系统拍摄的障碍物图片输入步骤4中已经优化完成的模型,计算出对应标签,辨识出障碍物类型。

以上所述仅为本发明的具体实施例,但本发明的技术特征并不局限于此,任何本领域的技术人员在本发明的领域内,所作的变化或修饰皆涵盖在本发明的专利范围之中。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1