设备上持续学习用于分析输入数据的神经网络的方法及装置与流程

文档序号:21729870发布日期:2020-08-05 01:23阅读:172来源:国知局
设备上持续学习用于分析输入数据的神经网络的方法及装置与流程

本发明涉及一种用于无人驾驶汽车、虚拟驾驶等的学习方法和学习装置以及测试方法和测试装置,更具体地,涉及一种设备上(on-device)持续学习(continuallearning)用于分析输入数据的神经网络的所述学习方法和所述学习装置以及利用其的所述测试方法和所述测试装置。



背景技术:

通常,深度学习(deeplearning)被定义为通过多种非线性变换技术的组合来试图实现高水平的抽象的机器学习算法的集合,是在一个大框架中使计算机学习人的思考方式的机器学习的一个领域。

将某些数据表示为计算机可读形式,作为一例,将图像的像素信息表示为列向量的形式等,并正在开展将其应用于机器学习中的各种研究。通过这些努力的结果,如深度神经网络(deepneuralnetwork)、卷积神经网络(convolutionalneuralnetwork)、循环神经网络(recurrentneuralnetwork)等各种深度学习技术应用于计算机视觉、语音识别、自然语言处理以及语音/信号处理等领域中,并且开发了显示高性能的深度学习网络。

这种深度学习网络正在向更深层(deep)和更多特征(feature)的大规模模型发展,以提高识别性能。

尤其,由于需要大规模训练数据与高计算能力,在服务器上在线完成深度学习网络的学习。

但是,在因隐私问题而无法出于学习目的来将个人数据传输到服务器的个人移动装置(personalmobiledevice)环境,或在装置脱离通信网络的情况较多的军队、无人机或船舶环境下,无法在服务器中学习。

因此,在无法在服务器上进行学习的本地装置中需要在进行深度学习网络的设备上学习(on-devicelearning)。

但是,进行设备上学习的本地装置没有或缺少存储训练数据的空间,因此难以进行设备上学习。

另外,当使用新训练数据学习深度学习网络时,若新的训练数据与过去的训练数据不同,则深度学习网络会逐渐忘记过去所学的内容,结果将发生灾难性遗忘(catastrophicforgetting)问题。



技术实现要素:

本发明的目的在于解决所有上述问题。

本发明的再一目的在于,无需将训练数据存储在进行设备上(on-device)学习的本地装置上也可继续使用训练数据。

本发明的另一目的在于,在未存储过去的训练数据的情况下也可在利用新的训练数据的学习中利用过去的训练数据。

本发明的又一目的在于,在进行设备上学习的本地装置上进行神经网络的设备上学习而不发生灾难性遗忘现象。

为了实现如上所述的本发明的目的,并且实现后述的本发明的特征效果,本发明的特征结构如下。

根据本发明的一方面,提供设备上(on-device)持续学习(continuallearning)用于分析输入数据的神经网络(neuralnetwork)的方法,所述方法包括:步骤(a),当为学习而获取的新数据具有预设的参考体积时,学习装置对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量(k-dimensionalrandomvector)输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次(batch);以及步骤(b),所述学习装置将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值(groundtruth,gt)来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播(backpropagation)来进行所述神经网络的所述第一当前学习。

在一实施例中,还包括:步骤(c),所述学习装置对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及步骤(d),所述学习装置将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量和与所述评分向量对应的真实值(gt)来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。

在一实施例中,所述学习装置重复所述步骤(c)和所述步骤(d),直到通过利用所述第二损失的反向传播来使所述鉴别器得损失以及所述第二数据生成器网络的损失分别收敛。

在一实施例中,在所述步骤(d)中,所述学习装置通过利用所述第二损失的反向传播来进行所述鉴别器以及所述第二数据生成器网络的梯度上升(gradientascent)。

在一实施例中,在所述步骤(d)中,当通过利用所述第二损失的反向传播来进行所述鉴别器的所述第二当前学习时,所述学习装置将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据来进行所述鉴别器的所述第二当前学习。

在一实施例中,在所述步骤(d)中,在所述评分向量中,所述学习装置进行所述原始数据生成器网络的所述第二当前学习,以使与所述第三合成先前数据对应的第三合成先前数据评分向量最大化。

在一实施例中,在所述步骤(d)中,当完成所述第二当前学习时,所述学习装置删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。

在一实施例中,在所述第二当前学习是初始学习的情况下,在所述步骤(a)中,所述学习装置通过仅使用所述预设的第一体积的所述新数据来生成所述第一批次,在所述步骤(c)中,所述学习装置使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。

在一实施例中,所述学习装置重复所述步骤(a)和所述步骤(b),直到通过利用所述第一损失的反向传播来使所述第一损失收敛。

在一实施例中,在所述步骤(b)中,所述学习装置通过利用所述第一损失的反向传播来进行所述神经网络的梯度下降(gradientdescent)。

在一实施例中,当所述神经网络是以至少一个向量作为输入来获取的分类器时,所述原始数据生成器网络包括一个以上的全连接(fc)层,所述全连接层将至少一个全连接(fullyconnected,fc)运算应用于与所述k维随机向量对应的k维信息来输出至少一个d维向量和至少一个c维独热编码(one-hot)向量。

在一实施例中,当所述神经网络是以至少一个rgb图像作为输入来获取的对象检测器时,所述原始数据生成器网络包括一个以上的转置(transposed)卷积层和更快的基于区域的卷积神经网络(fasterregion-basedconvolutionalnetwork,r-cnn),所述转置卷积层将与所述k维随机向量对应的1×1×k信息转换为至少一个h×w×3张量,所述更快速的基于区域的卷积神经网络通过分析所述h×w×3张量来输出至少一个r×(4+c)向量,其中,所述r包括至少一个r维向量,(4+c)包括x1、y1、x2、y2以及至少一个c维独热编码向量。

根据本发明的再一方面,提供一种用于测试已完成设备上(on-device)持续学习的神经网络的测试方法,所述方法包括:步骤(a),学习装置在进行过程(1)及过程(2)的状态下,测试装置获取测试数据,即,过程(1),对具有预设的参考体积的新数据进行采样,使得具有预设的第一体积,将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(2),通过将所述第一批次输入到所述神经网络中来使所述神经网络生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息和与所述学习用输出信息对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习;以及步骤(b),所述测试装置将所述测试数据输入到所述神经网络中,使所述神经网络生成与所述测试数据对应的测试用输出信息。

在一实施例中,所述学习装置还进行如下的过程(3)及过程(4),即,过程(3),对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络来生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次,以及过程(4),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层通过参考所述评分向量和与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及进行所述原始数据生成器网络的所述第二当前学习。

根据本发明的另一方面,提供一种用于分析输入数据的神经网络的设备上持续学习的学习装置,所述学习装置包括:至少一个存储器,用于存储指令;以及至少一个处理器,被配置为执行用于进行如下过程(i)及过程(ii)的指令,即,过程(i),当为学习而获取的新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批,以及过程(ii),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习。

在一实施例中,所述处理器还进行如下的过程(iii)及过程(iv),即,过程(iii),对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及过程(iv),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量及与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。

在一实施例中,所述处理器重复所述过程(iii)和所述过程(iv),直到通过利用所述第二损失的反向传播来使所述鉴别器得损失以及所述第二数据生成器网络的损失分别收敛。

在一实施例中,在所述过程(iv)中,所述处理器通过利用所述第二损失的反向传播来进行所述鉴别器以及所述第二数据生成器网络的梯度上升(gradientascent)。

在一实施例中,在所述过程(iv)中,当通过利用所述第二损失的反向传播来进行所述鉴别器的所述第二当前学习时,所述处理器将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据来进行所述鉴别器的所述第二当前学习。

在一实施例中,在所述过程(iv)中,在所述评分向量中,所述处理器进行所述原始数据生成器网络的所述第二当前学习,以使与所述第三合成先前数据对应的第三合成先前数据评分向量最大化。

在一实施例中,在所述过程(iv)中,当完成所述第二当前学习时,所述处理器则删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。

在一实施例中,在所述第二当前学习是初始学习的情况下,在所述过程(i)中,所述处理器通过仅使用所述预设的第一体积的所述新数据来生成所述第一批次,在所述过程(iii)中,所述处理器使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。

在一实施例中,所述处理器重复所述过程(i)和所述过程(ii),直到通过利用所述第一损失的反向传播来使所述第一损失收敛。

在一实施例中,在所述过程(ii)中,所述处理器通过利用所述第一损失的反向传播来进行所述神经网络的梯度下降。

在一实施例中,当所述神经网络是以至少一个向量作为输入来获取的分类器时,所述原始数据生成器网络包括一个以上的全连接层,所述一个以上的全连接层将至少一个全连接运算应用于与所述k维随机向量对应的k维信息来输出至少一个d维向量和至少一个c维独热编码向量。

在一实施例中,当所述神经网络是以至少一个rgb图像作为输入来获取的对象检测器时,所述原始数据生成器网络包括一个以上的转置卷积层与更快速的基于区域的卷积神经网络,所述转置卷积层将与所述k维随机向量对应的1×1×k信息转换为至少一个h×w×3张量,所述更快速的基于区域的卷积神经网络通过分析所述h×w×3张量来输出至少一个r×(4+c)向量,其中,所述r包括至少一个r维向量,(4+c)包括x1、y1、x2、y2以及至少一个c维独热编码向量。

根据本发明的另一方面,提供一种用于测试已完成设备上持续学习的神经网络的测试装置,所述测试装置包括:至少一个存储器,用于存储指令;以及至少一个处理器,被配置为执行指令,所述指令用于进行在学习装置进行如下过程(1)及过程(2)的状态下,将所述测试数据输入到所述神经网络中,使所述神经网络生成与所述测试数据对应的测试用输出信息的过程,即,过程(1),当新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(2),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息及与所述学习用输出信息对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来在进行所述神经网络的所述第一当前学习。

在一实施例中,所述学习装置还进行如下的过程(3)及过程(4),即,过程(3),对所述新数据进行采样,使得具有所述预设的第一体积,并且通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次,以及过程(4),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量及与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。

另外,还提供一种用于存储计算机程序的计算机可读介质,所述计算机程序用于执行本发明的方法。

本发明具有如下效果,即,有效生成用于先前所学的过去的训练数据,从而在本地装置上进行设备上学习而无需存储过去的训练数据。

另外,本发明具有如下效果,即,通过由数据生成器网络生成,并使用过去的训练数据与新训练数据的神经网络的设备上学习,来防止学习期间神经网络的灾难性遗忘(catastrophicforgetting)现象。

另外,本发明具有如下效果,即,通过利用生成对抗网络(generativeadversarialnetwork,gan)、在线学习等,具有保护个人信息、节省诸如存储装置等资源。

附图说明

用于描述本发明实施例的附图仅是本发明实施例的一部分,并且本发明所属领域的普通技术人员无需进行创造性劳动也可基于这些附图获得其他附图。

图1示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习的学习装置;

图2示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法;

图3示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法中生成过去的训练数据的数据生成器网络的一示例;

图4示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法中生成过去的训练数据的数据生成器网络的另一示例;

图5示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法中学习数据生成器网络的过程;

图6示出根据本发明一实施例的用于测试完成设备上持续学习的神经网络的测试装置;

图7示出根据本发明一实施例的用于测试完成设备上持续学习的神经网络的测试方法。

具体实施方式

为使本发明得目的、技术方案以及优点清楚,对于后述的本发明的详细说明参考本发明可以实施的特定实施例作为示例来示出的附图。为了使本领域技术人员能够足以实施本发明而详细说明这些实施例。

另外,在本发明的详细说明以及发明要求保护范围中,术语“包括”及其变形并不旨在排除其他技术特征、添加物、组件或步骤。就本领域普通技术人员而言,本发明的其他目的、优点以及特征的一部分从本说明书中、另一部分从本发明的实施中公开。以下示例和附图将作为示例提供,但是它们并不旨于限制本发明。

尤其,本发明涵盖了本说明书所示的实施例的所有可能的组合。应理解,本发明的各种实施例尽管不同,但不一定是相互排斥的。例如,在不脱离与一实施例有关的本发明的精神和范围的情况下,可在其他实施例中实现本文中所记载的特定形状、结构或特性。另外,应理解,在不脱离本发明的精神和范围的情况下,可以修改每个公开的实施例内的单独的组件的位置或配置。因此,以下详细描述不应被理解为限制性的,并且本发明的范围在适当地解释的情况下,仅由所附发明要求保护范围以及发明要求保护范围所赋予的等同的全部范围来限定。附图中相似的附图标记是指经过多方面具有相同或相似的功能。

本发明所涉及的各种图像可包括铺设或未铺设的道路有关的图像,在这种情况下,可以假设可能会出现在道路环境中的物体(例如,汽车、人、动物、植物、物体、建筑物、诸如飞机或无人机的飞行器、其他障碍物),但不限于此,本发明中涉及的各种图像可以是与道路无关的图像(例如,土路、小巷、空地、海、湖泊、河流、山脉、森林、沙漠、天空、室内),在这种情况下,可以推断土路、小巷、空地、海、湖泊、河流、山脉、森林、沙漠、天空、室内环境中可能出现的物体(例如,汽车,人,动物,植物,物体,建筑物,诸如飞机或无人机的飞行器、其他障碍物等),但不限于此。

以下,为了使本发明所属领域的普通技术人员能够容易地实施本发明,将通过参考附图详细说明本发明的示例实施例。

图1示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习的学习装置。参考图1,学习装置100可以包括:存储器110,用于存储指令,所述指令用于进行所述神经网络的设备上持续学习;处理器120,用于对应于存储于所述存储器110的所述指令来进行所述神经网络的设备上持续学习。

具体地,所述学习装置100通常可以通过使用至少一个计算装置(例如,可包括计算机处理器、存储器、存储装置、输入装置以及输出装置、其他现有计算装置的组件的装置;诸如路由器或交换机的电子通信装置;诸如网络附加存储(nas)以及存储区域网络(san)的电子信息存储系统)和至少一个计算机软件(即,使计算装置以特定方式运行的指令)的组合来实现所需的系统性能。

所述计算装置的所述处理器可包括微处理单元(microprocessingunit,mpu)或中央处理单元(centralprocessingunit,cpu)、高速缓冲存储器存储器(cachememory)、数据总线(databus)等硬件结构。另外,所述计算装置还可以包括操作系统以及进行特定目的应用程序的软件结构。

然而,所述计算装置并不排除作为集成有包括用于实施本发明的介质、处理器及存储器的形式的的集成处理器的情况。

参考图2,下面描述根据本发明一实施例的通过所述学习装置100的深度学习,设备上持续学习用于分析输入数据的所述神经网络的方法。

首先,当为学习而获取的新数据10具有预设的参考体积m时,所述学习装置100对所述新数据10进行采样,使得具有预设的第一体积m。

此时,可以从包括神经网络140的至少一个本地装置本身或至少一个外部装置获取所述新数据10。

另一方面,当对所述新数据10进行采样时,所述学习装置100可以通过均匀采样以所述预设的第一体积m的量来选择所述新数据10中的一部分,或者混洗所述新数据10之后,按照混洗的顺序,以所述预设的第一体积m的量选择所述新数据10的一部分,但本发明不限于此,并且可以使用能够以所述预设的第一体积的量选择所述新数据10的所述一部分的任何采样方法。

然后,所述学习装置100,可以将至少一个k维随机向量输入到先前所学的原始数据生成器网络g(130),并且可以使所述原始数据生成器网络g(130)重复输出与所述k维随机向量对应的第一合成先前数据的过程,使得所述第一合成先前数据具有预设的第二体积n。

此时,所述原始数据生成器网络g(130)为被预先学习以输出用于对其的学习的原始数据生成器网络g(130)的先前数据,并且所述第一合成先前数据对应于所述先前数据。并且,可以从针对其每个元素采样的从0至1的范围内的输入生成k维随机向量。以下将描述对原始数据生成器网络g(130)的学习。

另一方面,所述原始数据生成器网络g(130)可以被配置为对应于所述神经网络140,并且所述神经网络140可以根据与输入的所述新数据(x、y)10对应的(x、y)的维度,值类型以及范围等来创建并使用合适的网络架构。

作为一例,参考图3,在所述神经网络140是以至少一个向量作为输入来获取的分类器的情况下,所述原始数据生成器网络130可以包括一个以上的全连接层,所述一个以上的全连接层将至少一个全连接运算应用于与所述k维随机向量对应的k维信息,从而输出至少一个d维向量gx(z)和至少一个c维独热编码向量gx(z)。

作为另一例,参考图4,在所述神经网络140是以至少rgb图像作为输入来获取的对象检测器的情况下,所述原始数据生成器网络130可以包括一个以上的转置卷积层和更快速的基于区域的卷积神经网络,所述转置卷基层将与所述k维随机向量对应的1×1×k信息转换为至少一个h×w×3张量gx(z),所述更快速的基于区域的卷积神经网络输出用于分析所述h×w×3张量至少一个r×(4+c)向量。此时,所述多个转置卷积层(131-1,131-2,…)的输出端可以提供将至少一个h×w×3向量转换为所述h×w×3张量的激活函数(s形)。并且,在所述r×(4+c)向量中,r可以包括至少一个r维向量gx(z),并且(4+c)可以包括x1、y1、x2、y2以及所述c维独热编码向量。

然后,再次参考图2,所述学习装置100可以通过参考所述预设的第一体积m的所述新数据和所述预设的第二体积n的所述第一合成先前数据来生成用于第一当前学习第一批次20。此时,所述第一批次20可以具有m+n体积。

之后,所述学习装置100可以通过将所述第一批次20输入到所述神经网络140中来使所述神经网络140生成与所述第一批次20对应的输出信息,使第一损失层150参考所述输出信息及与所述输出信息对应的真实值,并计算出一个以上的第一损失。此时,所述新数据的损失作为所述第一批次20内所述新数据的损失,可以表示为l(yi,f(xi)),而所述先前数据的损失作为所述第一批次20内合成先前数据的损失,可以表示为l(gy(zi),f(gx(zi)))。

并且,所述学习装置100可以通过利用所述第一损失的反向传播来进行所述神经网络140的所述第一当前学习。

此时,所述学习装置100可以通过利用所述第一损失的反向传播来进行所述神经网络140的梯度下降,由此所述神经网络140的至少一个权重wf可以被更新为如下公式。

并且,所述学习装置100可以重复以上操作,直到通过利用所述第一损失的反向传播,所述第一损失收敛。即,所述学习装置100可以重复通过使用所述新数据与所述合成先前数据的所述第一批次的生成,并且重复通过使用所述第一批次的所述神经网络140的所述第一当前学习来使所述第一损失收敛。

然后,参考图5,描述学习先前所学的所述原始数据生成器网络130的过程。在下面的描述中,将省略根据图2的描述容易理解的部分。

首先,所述学习装置100对所述新数据(h)10采样,使得具有所述预设的第一体积m,并且通过复制所述原始数据生成器网络g(130),生成复制数据生成器网络g’(130c)。

并且,所述学习装置100使所述复制数据生成器网络g’(130c),重复输出与所述k维随机向量z对应的第二合成先前数据g'(z)的过程,使得所述第二合成先前数据g'(z)具有所述预设的第二体积n。此时,所述学习装置100将所述预设的第二体积n的所述第二合成先前数据g'(z)视为真实数据,设置为所述先前数据g'(z)。

另外,所述学习装置100使所述原始数据生成器网络g(130)重复输出与所述k维随机向量z对应的第三合成先前数据g(z)的过程,使得所述第三合成先前数据g(z)具有预设的第3体积m+n。此时,所述预设的第三体积m+n可以是所述预设的第一体积m和所述预设的第二体积n之和。

然后,所述学习装置100通过参考所述预设的第一体积m的所述新数据(h)、所述预设的第二体积n的所述第二合成先前数据g'(z)以及所述预设的第三体积m+n的所述第三合成先前数据g(z),生成要用于第二当前学习的第二批次21。

然后,所述学习装置100可以将所述第二批次21输入到鉴别器(d)160,使得所述鉴别器(d)160输出与所述第二批次21对应的评分向量。

此时,所述评分向量可以包括所述预设的第二体积n的所述第二合成先前数据g'(z)的评分向量、所述预设的第一体积m的所述新数据(h)的评分向量以及所述预设的第三体积m+n的所述第三合成先前数据g(z)的评分向量。

所述预设的第二体积n的所述第二合成先前数据g'(z)的评分向量可以表示为d(g′(z1)),...,d(g′(zn)),所述预设的第一体积m的所述新数据(h)的评分向量可以表示为d(g′(z1)),...,d(g′(zn)),所述预设的第三体积(m+n)的所述第三合成先前数据g(z)的评分向量可以表示为d(g′(z1)),...,d(g′(zn))。

然后,所述学习装置100,可以通过使第二损失层170参考所述评分向量和与所述评分向量对应的真实值,计算出一个以上的第二损失,通过利用所述第二损失的反向传播,进行所述鉴别器d(160)和所述原始数据生成器网络g(130)的所述第二当前学习。

此时,所述学习装置100可以通过利用所述第二损失的反向传播,进行所述鉴别器d(160)的梯度上升,由此,所述鉴别器d(160)的至少一个权重wd可以被更新为如下公式。

另外,所述学习装置100可以通过利用所述第二损失的反向传播,进行所述原始数据生成器网络g(130)的所述梯度上升,由此,所述数据生成器网络g(130)的至少一个权重wg可以被更新为如下公式。

同时,所述学习装置100通过将来自所述复制数据生成器网络g’(130c)的所述第二合成先前数据g'(z)视为真实数据,进行所述鉴别器d(160)的所述第二当前学习,在所述评分向量中,进行所述原始数据生成器网络g(130)的所述第二当前学习,以使与所述第三合成先前数据g(z)对应的第三合成先前数据评分向量最大化。

因此,用于学习所述鉴别器160的所述真实数据可以包括所述新数据(h)和作为所述第二合成先前数据g'(z)的所述先前数据g'(z),由此,所述原始数据生成器网络g(130)可以学习以输出作为所述真实数据的所述新数据(h)和作为所述第二合成先前数据的所述先前数据g'(z)。

并且,所述学习装置100可以通过利用所述第二损失的反向传播重复所述操作,直到所述鉴别器d(160)的损失以及所述原始数据生成器网络g(130)的损失分别收敛。即,所述学习装置100利用所述第二合成先前数据、所述新数据以及所述第三合成先前数据重复所述第二批次的生成,利用所述第二批次,重复所述鉴别器160与所述原始数据生成器网络130的所述第二当前学习,直到所述鉴别器160的损失与所述原始数据生成器网络130的损失收敛。

此时,用于学习所述鉴别器160的所述新数据与所述先前数据的比率可以是n:m=n:m,在利用所述第二批次学习所述新数据的所有体积m的情况下,所述新数据与所述先前数据的比率可以是n:m。其中,所述先前数据与所述新数据可以是从学过的所述原始数据生成器网络g(130)输出的。

此后,当完成所述第二当前学习时,作为一例,当所述鉴别器160的损失与所述原始数据生成器网络130的损失收敛时,所述学习装置100可以删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。

即,因为已学习所述原始数据生成器网络130以输出与用于所述第二当前学习的所述真实数据对应的所述新数据和所述先前数据,可以删除所述新数据,在进行所述下一个学习的情况下,所述原始数据生成器网络130可以输出用于当前的学习的所述先前数据和所述新数据,从而可以获取用于所述下一个学习的先前数据。

同时,在包括所述第一当前学习与所述第二当前学习的所述当前学习是初始学习的情况下,可以没有所述先前数据而进行所述第一当前学习与所述第二当前学习。

即,所述学习装置100可以仅通过使用所述预设的第一体积m的所述新数据来生成所述第一批次,并且可以通过使用所述第一批次来进行所述第一当前学习,使得所述神经网络140的所述损失收敛。

并且,所述学习装置100使所述原始数据生成器网络130重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积m,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据,生成所述第二批次,并且进行使用所述第二批次的所述第二当前学习,使得所述鉴别器160的所述损失以及所述原始数据生成器网络130的所述损失收敛。

此后,所述学习装置100可以删除用于所述当前学习的所述新数据,并将所述新数据初始化为所述先前数据。

作为参考,在以下描述中,为了避免混淆,为与学习过程有关的术语添加了词语“学习用”或“训练”,为与测试过程有关的术语添加了短语“测试用”或“测试”。

图6示出根据本发明一实施例的测试完成设备上持续学习的所述神经网络的测试装置。参考图6,所述测试装置200可以包括:存储器210,存储用于测试完成设备上持续学习的所述神经网络的指令;以及处理器220,用于对应于存储于所述存储器210中的所述指令来执行测试完成设备上持续学习的所述神经网络的过程。

具体地,所述测试装置200通常可以通过至少一个计算装置(例如,可包括计算机处理器、存储器、存储装置、输入装置以及输出装置、其他现有计算装置的组件的装置;诸如路由器或交换机的电子通信装置;诸如网络附加存储(nas)以及存储区域网络(san)的电子信息存储系统)和至少一个计算机软件(即,使计算装置以特定方式运行的指令)的组合来实现所需的系统性能。

另外,所述计算装置的所述处理器可包括微处理单元或中央处理单元,高速缓冲存储器存储器,数据总线等硬件结构。另外,所述计算装置还可以包括操作系统以及进行特定目的应用程序的软件结构。

然而,所述计算装置并不排除作为集成有包括用于实施本发明的介质、处理器及存储器的集成处理器的情况。

参考图7,描述通过使用根据如上所述配置的本发明一实施例的所述测试装置200,测试完成设备上持续学习的所述神经网络的方法。

在所述神经网络140已根据如上所述的过程进行学习的状态下,所述测试装置200可以支持获取测试数据201或使其他装置获取测试数据201。此时,所述测试数据201可以包括图像信息、传感器信息、语音信息等,但不限于此,并且可以包括可以分析特征的任何输入数据。

并且,所述测试装置200可以将所述测试数据201输入到所述神经网络140中,并且使所述神经网络140生成与所述测试数据201对应的测试用输出信息。

此时,所述学习装置可以为完成如下过程(a)及过程(b)的状态,即,过程(a),当为学习而获取的新数据具有所述预设的参考体积时,对所述新数据进行采样,使得具有所述预设的第一体积,将至少一个k维随机向量输入到先前所学的所述原始数据生成器网络,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据,生成所述用于第一当前学习的第一批次;以及过程(b),将所述第一批次输入到所述神经网络140,使所述神经网络140生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息和与其对应的真实值来计算出所述第一损失,从而通过利用其的反向传播,完成进行所述神经网络的所述第一当前学习。

并且,所述学习装置可以为完成如下过程的状态,即,对所述新数据进行采样,使得具有所述预设的第一体积m,并且通过复制所述原始数据生成器网络,所述生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的所述第二合成先前数据的过程,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第三体积,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据,生成用于所述第二当前学习的所述第二批次,将所述第二批次输入到所述鉴别器,使所述鉴别器输出与所述第二批次对应的所述评分向量,使所述使第二损失层参考所述评分向量和与所述评分向量对应的真实值来计算出所述第二损失,并且通过利用所述第二损失的反向传播,完成所述鉴别器以及进行所述原始数据生成器网络的所述第二当前学习。

通过这种方法,可利用于智能手机、无人机、船舶或军事用途。

并且,以上描述的根据本发明的实施例可以通过各种计算机组件执行的程序指令的形式来实现并存储在计算机可读存储介质。所述计算机可读存储介质可以单独或组合包括程序指令、数据文件、数据结构等。存储在所述计算机可读存储介质的程序指令可以是为本发明专门设计并组成的,或者可以是计算机软件领域的技术人员公知而可使用的。计算机可读存储介质的示例包括如硬盘、软盘和磁带的磁性介质、如cd-rom、dvd的光学记录介质、如软盘的磁光介质以及专门配置用于存储并执行如rom、ram、闪存等程序指令的硬件装置。程序指令的示例不仅包括如由编译器产生的机器代码,还包括可以由计算机使用解释器等执行的高级语言代码。所述硬件装置可配置为一个或多个软件模块来操作,以执行根据本发明的过程,反之亦然。

以上,虽然本发明根据具体的结构要素等特定事项和有限的实施例及附图进行了说明,这只是为了帮助更全面地理解本发明而提供的,本发明并不限于上述实施例,在本发明所属的技术领域中,普通技术人员可以从这些记载中进行各种修改和变化。

因此,本发明的思想不能限于上述说明的实施例,不仅是后述的发明要求保护范围,所有与该发明要求保护范围等同或等价变形的都属于本发明的思想范畴。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1