一种开关电源滤波电容多模态故障检测方法与流程

文档序号:22678572发布日期:2020-10-28 12:36阅读:143来源:国知局
一种开关电源滤波电容多模态故障检测方法与流程

本发明开关电源故障诊断领域,具体涉及一种开关电源滤波电容多模态故障检测方法。



背景技术:

开关电源作为电气设备的心脏,因其具功率密度大、额外损耗小和响应速度快等优点被广泛应用于各类电气设备。若开关电源发生故障得不到及时的故障定位和维修排除故障,轻则则设备故障不能运行,重则引发重大安全事故造成人员财产损伤。为了使开关电源设备能够智能化管理,保障电力系统安全可靠运行,故障诊断是必要的有利保障手段,目前的故障诊断方法大多依靠人工专家经验,且维护周期长,不能做到实时性。

卷积神经网络(convolutionalneuralnetwork,cnn)是深度学习技术中应用最为广泛的一种深度神经网络模型。深层次的cnn网络模型具有更好的特征提取能力,但随之而来的是训练难度的增大。单一的神经网络并不能对多模态工况下的数据有良好的分类效果。



技术实现要素:

针对上述的技术问题,本技术方案提供了一种开关电源滤波电容多模态故障检测方法,能有效的解决上述问题。

本发明通过以下技术方案实现:

一种开关电源滤波电容多模态故障检测方法,结合残差学习的思想,构建了一种更深层次的cnn网络结构,通过搭建一种分级式cnn网络模型使得故障诊断兼顾开关电源运行的工作模态,能够更佳有效的提取故障的信息特征;具体包括以下步骤:

步骤s1:采集开关电源在多种工作模态下滤波电解电容失效百分比数据构成数据集,并将其划分为训练数据、验证数据和测试数据然后对数据进行归一化处理;

步骤s2:首先,对不同模态下的不同故障类型进行定义和标签;然后,第一层级构建一个模态识别cnn模型;再在第二层级针对各模态分别构建故障诊断cnn模型;通过训练集数据标签调整整个网络模型;

步骤s3:将验证集输入到s2中训练好的分级cnn网络模型中,得到预测结果并与标签作对比,并通过微调从而确定网络的最终参数,得到最佳性能的模型。

步骤s4:将测试集输入到s3得到最优模型进行预测并且与真实标签对比,用于衡量该最优模型的性能和分类能力。

进一步的,步骤s1中所述的数据采集是通过隔离滤波电路进行采集,并且选取电网电压最小周期20ms为一个采样周期,并利用min-max法归一化处理样本数据,其公式为:

式中,xmax表示样本数据中的最大值,xmin表示样本数据中的最小值,x为原始数据,x*为归一化处理之后的数据;将处理后的样本数据按照3:1:1的比例随机划分为训练集、验证集和测试集,为后续的模型训练和模型评价做准备。

进一步的,步骤s2所述的定义故障类型是通过退化实验模拟电容退化,等效替代实体电路的电容来模拟出不同的故障情况,并且通过负载仪使得开关电源工作模态改变,通过与开关电源输入端并联的隔离滤波电路进行采集开关电源对电网反馈信号作为数据集样本。

进一步的,采集的数据分为三种模态并定义标签:开关电源低负载工作模态(1,0)、正常负载工作模态(2,0)和超负载工作模态(3,0),每个模态下,电容正常的标签为(0,1)、电容失效50%的标签为(0,2)、电容失效75%的标签为(0,3);后将模态标签与电容失效百分比标签融合得到9种类别数据(1,1),(1,2),(1,3),(2,1),(2,2),(2,3),(3,1),(3,2),(3,3);每种类别取20000个样本构成数据集,并进行归一化处理。

进一步的,步骤s2所述cnn模型是结合残差学习的一种深层cnn模型,分级式连接是网络的根据数据标签进行级联实现。

进一步的,所述的cnn网络模型训练训练过程主要分为两步:a:前馈无监督的预训练,b:反向有监督的微调。

进一步的,所述的预训练是数据通过cnn网络无监督逐层来提取模态特征和故障特征;反向微调是根据样本的标签,利用反向传播算法对整个网络进行微调,更新整个网络参数θ,最终获得最佳网络模型。

进一步的,所述步骤s4测试集数据,评估模型正确率超过90%即可认为模型最佳;通过设置阈值的方法,十分钟内每分钟进行10次实际样本采集形成一组新测试样本数据,当该组数据预测结果为同一标签超过90%即可认为预测可靠,否则再重复进行采样。

(三)有益效果

本发明提出的一种开关电源滤波电容多模态故障检测方法,与现有技术相比较,其具有以下有益效果:

(1)本技术方案针对传统深度神经网络在多模态情况下表现不佳,提出一种分级cnn模型。两级网络分别担当模态识别和故障诊断的功能,先对数据进行模态识别,然后再对电容失效百分比进行预测,解决了故障识别率低的问题。

(2)本技术方案中通过提出的具有残差块结构的深度cnn网络模型,充分利用了cnn的特征提取能力,避免了人工设计特征提取器的片面性,摆脱了对专家经验的依赖,提升了故障诊断准确率,缩短了诊断周期。

附图说明

图1是本发明检测方法的整体流程图。

图2是电容正常在低负载工作模态的电压时域图。

图3是电容失效50%在低负载工作模态的电压时域图。

图4是电容失效75%在低负载工作模态的电压时域图。

图5是电容正常在正常负载工作模态的电压时域图。

图6是电容失效50%在正常负载工作模态的电压时域图。

图7是电容失效75%在正常负载工作模态的电压时域图。

图8是电容正常在超负载工作模态的电压时域图。

图9是电容失效50%在超负载工作模态的电压时域图。

图10是电容失效75%在超负载工作模态的电压时域图。

图11是具有24层隐含层的残差网络cnn。

图12是残差网络基本结构单元。

图13是alexnet与24层cnn结果对比图。

图14分级cnn网络模型结构。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。在不脱离本发明设计构思的前提下,本领域普通人员对本发明的技术方案做出的各种变型和改进,均应落入到本发明的保护范围。

实施例1:

一种开关电源滤波电容多模态故障检测方法,结合残差学习的思想,构建了一种更深层次的cnn网络结构,通过搭建一种分级式cnn网络模型使得故障诊断兼顾开关电源运行的工作模态,能够更佳有效的提取故障的信息特征;具体流程如图1所示,包括以下步骤:

步骤s1:采集开关电源在多种工作模态下滤波电容失效百分比数据构成数据集,并将其划分为训练数据、验证数据和测试数据然后对数据进行归一化处理;数据采集是通过隔离滤波电路进行采集,并且选取电网电压最小周期20ms为一个采样周期,一个周期采集298个点,图2是电容正常在低负载工作模态的电压时域图;图3是电容失效50%在低负载工作模态的电压时域图;图4是电容失效75%在低负载工作模态的电压时域图;图5是电容正常在正常负载工作模态的电压时域图;图6是电容失效50%在正常负载工作模态的电压时域图;图7是电容失效75%在正常负载工作模态的电压时域图;图8是电容正常在超负载工作模态的电压时域图;图9是电容失效50%在超负载工作模态的电压时域图;图10是电容失效75%在超负载工作模态的电压时域图。

并利用min-max法归一化处理样本数据,其公式为:

式中,xmax表示样本数据中的最大值,xmin表示样本数据中的最小值,x为原始数据,x*为归一化处理之后的数据;将处理后的样本数据按照3:1:1的比例随机划分为训练集、验证集和测试集,为后续的模型训练和模型评价做准备。

步骤s2:首先,对不同模态下的不同故障类型进行定义和标签;然后,建立第一级残差网络对每个样本进行模态识别学习。训练集数据被用作模态划分cnn模型的输入,判断依据是每个样本的模态标签,构建一个如图11所示具有24层隐含层的残差网络cnn。该cnn模型同样适用于电容失效百分比识别。具体实现步骤如下:

步骤a:表1为数据标签表。

表1数据标签表

每种类别取20000个样本构成数据集,并进行归一化处理。

步骤b:构建一个如图11所示具有24层隐含层的残差网络cnn中有10个堆叠的1d残差,有两个浅卷积层没有显示。cnn通过逐层卷积运算,能够有效的提取数据的特征,随着卷积层的逐层增加,低级特征也被映射成为高级特征,1d-cnn同样也能够提取出一维信号数据的特征。构建1d-cnn框架遵循以下简单的设计规则:1)网络深度由1d残差块的个数调整,不能为了追求深度而强行增加网络层数,在取得较高准确率的情况下即可停止对网络层数的增加。2)对于相同的输出特征信号长度,卷积层具有相同数量的卷积核,这样可以保证特征不会因卷积核的不均匀而丢失。3)如果将卷积层的输入特征信号长度减半,那么卷积核的数目需将增加一倍,同时宽卷积核的大小也减半,这样保证了卷积网络倒金字塔的稳定结构,更加容易训练。4)下行采样在“下行块”中直接通过跨距为2的卷积层执行。5)残差网络并没有使用传统cnn常用的全连接层作为分类前的最后一层,而是使用了全局平均池化后完全连接softmax。在细节优化方面,网络参数和超参数设置不固定,可根据实际训练效果进行调整。例如在增加迭代次数的情况下结果依旧不理想,可以通过增加网络层数或宽卷积核的大小,但是1d-cnn框架的总体设计原则需要遵循上述规则。图13是alexnet与24层cnn在模态识别结果上的对比,随着迭代次数增加,1d-cnn错误率下降速度明显快于alexnet,并且达到800次迭代次数时错误率也低于alexnet,最终alexnet分类正确率为94.75%,1d-cnn分类正确率为99.76%。

残差网络结构如图12所示,一维残差块有两条分支,一条是通过两个一维权重层来拟合残差函数,另一条是通过快捷连接来完成输入信号的标识映射。将两条分支的对应单元相加在一起,然后通过relu非线性激活函数形成整个一维残差块。经由前向神经网络和快捷连接的方式,把输入的x跨层传到后层,作为初始结果,输出结果为h(x)=f(x)+x,若f(x)=0,那么h(x)=x,形成恒等映射。resnet相当于将学习目标从学习由多个非线性层拟合的复函数转变成学习残差函数,即残差f(x)=h(x)-x,训练目标变成了将f(x)逼近到零,从而使随着网络加深,准确率也不降低。

这样的残差跨层式的布局,使用快捷连接执行了简单的恒等映射,避免了由多个堆叠的非线性变换产生的衰减,从而降低了计算复杂度且整个网络仍然能够通过反向传播算法进行训练。

分级式cnn网络结构采用级联的方式将多个cnn网络模块连接,形成一个多模态深度神经网络模型,其结构如图14所示,采用同样的残差网络结构能够减少训练难度。

步骤s3:将验证集输入到s2中训练好的分级cnn网络模型中,得到预测结果并与标签作对比,并通过微调从而确定网络的最终参数,得到最佳性能的模型。

在深度学习网络训练中,需要通过反向微调对网络参数进行优化以此来减小损失,这种更新参数的方法便是优化算法。adam法是根据损失函数针对每个参数的梯度的一阶矩估计和二阶矩估计来动态调整每个参数的学习率。具体过程为:初始学习率α,若总误差e减小,则根据公式α=α*add_learningrate增大学习率α;若e增大或不变,则根据公式α=α*decay_learingrate减小α。

上式中,add_learningrate一般取值在(1.01-1.0001)之间,decay_learningrate一般取值在(0.99-0.9999)之间。

adam算法每次迭代参数的步长都是一个确定的范围,从来不会由于梯度过大而导致步长变大,整体参数的值相对比较稳定,可有效加快模型训练速度,缓解易陷入局部最优的问题,具有良好的优化性能。

步骤s4:将测试集输入到s3得到最优模型进行预测并且与真实标签对比,用于衡量该最优模型的性能和分类能力。最终分类结果正确率如表2所示:

表2模型分类结果正确率

最终识别总体正确率为92.1%。通过设置阈值的方法,十分钟内每分钟进行10次实际样本采集形成一组新测试样本数据,当该组数据预测结果为同一标签超过90%即可认为预测可靠,否则再重复进行采样。当预测电容失效达到50%进入预警期,失效达到75%即可认为电容已经损坏,需要及时更换。

显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1