人工神经网络的制作方法

文档序号:20686480发布日期:2020-05-08 18:52阅读:191来源:国知局
人工神经网络的制作方法
本发明涉及人工神经网络,并且得出输入序列之间的相关性
背景技术
:人工神经网络可以以不同的方式被配置。通常,在本文中简称为神经网络的人工神经网络包括人工神经元,该人工神经元在本文中将同样简称为神经元。例如,神经元可以被配置为接收输入、施加权重以及基于输入和权重提供输出。神经元可以以软件来实现,或者附加地或备选地,神经网络可以包括基于硬件的人工神经元。神经网络可以基于其属性和配置而被分类为不同的类型。前馈神经网络是其中神经元之间的连接不形成循环的网络,即数据单向流动。前馈型神经网络的示例是卷积神经网络cnn,其中滤波器被用于对先前层中的数据应用卷积运算,以获得用于后续层的数据。cnn可以包括全连接的层,其中每个神经元与先前层中的每个神经元相连接。例如,cnn已经在图像分类中被采用。cnn在有限的设定中已经达到了与人类相当的分类性能水平。另一方面,循环神经网络(recurrentneuralnetwork)rnn是其中神经元之间的连接形成有向循环的网络。这些网络由于其内部存储器而进行对序列数据的处理,并且rnn可以对时间的线性进程进行操作,将先前的时间步长和隐藏的表示组合为当前时间步长的表示。例如,rnn已经被用于语音识别和连接的未分段的笔迹识别中。递归神经网络(recursiveneuralnetwork)在结构上递归地应用权重的集合,以针对可能具有变化大小的输入结构产生结构化的预测。循环神经网络是递归神经网络的一种形式。技术实现要素:本发明由独立权利要求的特征限定。一些具体实施例在从属权利要求中被定义。根据本发明的第一方面,提供了一种装置,该装置包括至少一个处理核心、至少一个存储器,该至少一个存储器包括计算机程序代码,该至少一个存储器和计算机程序代码被配置为,与至少一个处理核心一起使装置至少:从第一顺序输入获得来自第一循环神经网络的第一输出,该第一顺序输入具有第一模态;从第二顺序输入获得来自第二循环神经网络的第二输出,该第二顺序输入具有第二模态;以及处理第一输出和第二输出以获得第一顺序输入和第二顺序输入的相关性。第一方面的各种实施例可以包括来自以下项目符号列表的至少一个特征:·第一循环神经网络和第二循环神经网络均包括多个长短期记忆lstm块·第一循环神经网络包括第一数目的长短期记忆lstm块,并且第二循环神经网络包括第二数目的lstm块,第一数目和第二数目不相等·至少一个存储器和计算机程序代码被配置为,与至少一个处理核心一起使装置:通过在获得内积以获得相关性之前,对第一输出和第二输出进行绘制具有相等的维度,来处理第一输出和第二输出·至少一个存储器和计算机程序代码被配置为与至少一个处理核一起,使装置通过采用线性变换来对输出进行绘制以具有相等的维度·第一模态和第二模态彼此相同·第一模态从以下列表中被选择:视频、文本语句、语音、手写文本、立体声视频、图像序列、飞行器控制状态和飞行器系统输出·第二模态从以下列表中被选择:视频、文本语句、语音、手写文本、立体声视频、图像序列、飞行器控制状态和飞行器系统输出·顺序输入包括如下输入,该输入包括输入元素序列。根据本发明的第二方面,提供了一种方法,包括:从第一顺序输入获得来自第一循环神经网络的第一输出,该第一顺序输入具有第一模态;从第二顺序输入获得来自第二循环神经网络的第二输出,该第二顺序输入具有第二模态;以及处理第一输出和第二输出以获得第一顺序输入和第二顺序输入的相关性。第二方面的各种实施例可以包括来自以下项目符号列表的至少一个特征:·第一循环神经网络和第二循环神经网络均包括多个长短期记忆lstm块·第一循环神经网络包括第一数目的长短期记忆lstm块,并且第二循环神经网络包括第二数目的lstm块,第一数目和第二数目不相等·在获得内积以获得相关性之前,第一输出和第二输出通过调第一输出和第二输出进行绘制以具有相等的维度而被处理·输出通过采用线性变换被绘制为具有相等的维度·第一模态和第二模态彼此相同·第一模态从以下列表中选择:视频、文本语句、语音、手写文本、立体声视频、图像序列和业务模式·从以下列表中选择第二模态:视频、文字语句、语音、手写文本、立体声视频、图像序列和业务模式·顺序输入包括一个包括一系列输入元素的输入。根据本发明的第三方面,提供一种装置,该装置包括用于从第一顺序输入获得来自第一循环神经网络的第一输出的部件,该第一顺序输入具有第一模态;用于从第二顺序输入获得来自第二循环神经网络的第二输出的部件,该第二顺序输入具有第二模态;以及用于处理第一输出和第二输出以获得第一顺序输入和第二顺序输入的相关性的部件。根据本发明的第四方面,提供了一种非瞬态计算机可读介质,其上存储有计算机可读指令的集合,该计算机可读指令的集合在由至少一个处理器执行时,使装置至少:从第一顺序输入获得来自第一循环神经网络的第一输出,该第一顺序输入具有第一模态;从第二顺序输入获得来自第二循环神经网络的第二输出,该第二顺序输入具有第二模态;以及处理第一输出和第二输出以获得第一顺序输入和第二顺序输入的相关性。根据本发明的第五方面,提供一种计算机程序,该计算机程序被配置为使得根据第二方面的方法被执行。附图说明图1图示了与本发明的至少一些实施例一起可用的顺序输入;图2a图示了lstm块;图2b图示了根据本发明的至少一些实施例的示例系统;图3图示了能够支持本发明的至少一些实施例的示例装置;图4a图示了编码器-解码器架构;图4b图示了lstm块中的数据流,以及图5是根据本发明的至少一些实施例的方法的流程图。具体实施方式本文描述了人工神经网络架构,其可用于获得描述输入数据的不同序列之间的相关水平的相关系数,该输入数据不需要具有相同的模态。例如,输入序列可以包括不同媒体格式或媒体类型的数据,诸如视频序列和文本语句。在得出相关系数之前,循环神经网络被用于表征每个输入序列。图1图示了与本发明的至少一些实施例一起可用的顺序输入。第一输入序列102被示于图的较上部,并且第二输入序列103被示于图的较下部。例如,第一输入序列102可以包括视频剪辑,该视频剪辑包括多个静止视频帧。第二输入序列103可以包括例如语句,该语句包括自然语言的单词序列,诸如中文或法语。视频剪辑可以通过将每个静止视频帧存储在存储介质上而被存储。由于分开存储每个帧可能需要大量的存储容量,因此视频剪辑通常以经编码的格式被存储,其中静止帧不是每个分别被存储,而是参照彼此被存储。这可以大大节省存储容量,因为根据视频的内容,顺序的帧通常共享其内容的一部分,因此不必要重复存储这种共享的内容。当视频剪辑以经编码的格式被存储时,可以通过执行解码操作来从经编码的剪辑生成剪辑的个体静止视频帧。神经网络可以被用于对静止图像进行分类。卷积前馈网络可以被用于确定,例如,特定的静止图像是否描绘了特定类别的对象,例如,从行车记录仪生成的静止图像中是否存在行人。另一方面,循环神经网络rnn可以被用于处理数据序列,诸如自然语言中的语句。例如,从一种自然语言到另一自然语言的机器翻译可以依赖于rnn。近年来,随着基于rnn的解决方案已经被采用,机器翻译的质量已经显著改进。在将视频剪辑的事件转换为自然语言格式时,长短期记忆lstm、rnn已经被采用。lstm是rnn块,其可以包括存储单元和三个门。lstms可能在lstm单元内部的循环组件内缺少激活功能。例如,使用基于lstm的rnn,视频剪辑中两个行星的碰撞可以被绘制为自然语言中的“两个球体碰撞”。然而,迄今为止,这样的系统仅获得了很低的成功率,这使得它不切实际。本发明的至少一些实施例涉及在顺序输入(例如视频剪辑和语句)之间获得相关性的相关但不同的任务。该语句可以以自然语言形式。发明方已经认识到,与将一个顺序输入转换成另一顺序输入,例如转换成另一模态(诸如视频到语句)相比,获得两个顺序输入之间的相关性更容易实现。模态在本文中是指一种数据类型。模态的示例包括视频、文本语句、语音、手写文本、立体声视频、图像序列和业务模式。在一些实施例中,模态可以包括不同的视频编码方法,诸如mpeg4、hevc和vp9。模式可以包括彩色视频和黑白视频。模式可以包括不同的媒体类型,诸如视频、文本、音频和没有音频的运动图像。现在,给出标准相关分析cca的简要介绍。给定数据和的两个视图,其中m是样本的数目,并且d1和d2和是两个视图中的特征维度,cca旨在将它们投影到统一的特征空间中,在该特征空间中它们最大相关。将两个投影矩阵分别表示为wx和wy,然后cca的目标可以被写为:其中∑xx和∑yy是集合内协方差矩阵,以及是集合间协方差矩阵。等式(1)等于通过引入拉格朗日参数,等式(2)可以进一步被写为:然后关于wx和wy求导,并且使其为零,我们得到∑xywy=λx∑xxwx,(4)∑yxwy=λy∑yywy.(5)从等式(4)和等式(5),以及等式(2)的约束,很容易获得记λ=λx=λy,并且假定∑xx是可逆的,通过考虑等式(5)和等式(6),我们有:这是广义特征向量问题。通过解决等式(7),可以得到wy,并且在等式(5)中通过代替wy,对应的wx也可以被获得。利用wx和wy,可以基于它们的经投影的表示容易地计算出不同视图中的两个样本之间的相关性。cca已经被应用于多种任务,诸如多媒体注释和搜索[38]。由于cca仅执行线性投影,因此在变量之间的关系为非线性的某些复杂情况下,其无法提取有用的特征。常见的方法是使用核方法[2]-[4]、[19]、[20],以首先将数据投影到较高维度,就像支持向量机svm中常使用的那些方法一样,并且这种类型的方法是前述的kcca。由于kcca的设计遵循cca的思想,除了核方法外,其还可以容易地被转换为类似的特征向量问题。尽管kcca实现了非线性,但是其依赖于固定的核,因此kcca可以学习的表示固有地被限制。另一方面,利用新传入的训练样本对kcca进行再训练将导致严重的计算成本。最近提出的dcca[5]旨在解决该问题。dcca无需将相关性计算转换为特征向量问题,而是利用特定的深层网络对数据的每个模态进行建模,并且投影可以通过梯度下降法被学习。杨等人在[40]提出了学习时间数据表示的方法,以用于多模型融合。然而,当与本发明的实施例相比时,他们的工作具有不同的目标。他们的目标是融合两种模态以完成分类任务。相反,本方法的某些实施例侧重于跨模态匹配。列出的参考文献能够学习联合表示,并且可以被用于执行跨模态匹配,但是它是次优的,因为它不能直接优化匹配。另外,它要求两种模态中的序列具有相同的长度。这是一个严格的限制,这是因为其目标只是将两个模态组合在一起。有关cca及其扩展技术的更多详细信息可以参阅[2]中的调研。图2a图示了lstm块。循环神经网络rnn已经被研究了数十年[24]-[26],并且与已知的卷积神经网络cnn[27]-[30]相比,它们能够存储过去状态的表示。这种机制对于涉及顺序数据的任务是重要的。然而,当对长期动态进行建模时,由于随时间流回的指数变化的误差信号,利用循环策略的网络很容易遇到梯度消失或梯度爆炸的问题。长短期记忆lstm[18]架构通过包含存储单元和三个门来解决此问题。这些实现学习何时忘记过去的状态以及何时在给定新的输入信息的情况下更新当前状态。lstm的基本结构如图2a中所示,对应的公式如下:it=σ(w(i)h),(8)ot=σ(w(o)h),(9)ft=σ(w(f)h),(10)mt=φ(w(m)h),(11)ct=ft⊙ct-1+it⊙mt,(12)ht=ot⊙φ(ct),(13)其中it、ot、ft分别是输入门、输出门、遗忘门,并且它们被设计用于控制来自不同连接的误差流。标记mt也可以被看作是特殊门,其被用于调制输入。h是当前单元的输入和先前隐藏单元的输出的串接。四个门的权重分别被表示为w(i)、w(o)、w(f)和w(m)。标记⊙代表逐元素乘积,并且存储单元是两部分的总和,先前记忆由ft调制,并且当前输入由it调制。标记ht是当前隐藏单元的输出。lstm中常用的两个激活函数是逻辑sigmoid函数和双曲正切函数,其分别被表示为σ和φ。由于在序列到序列学习中的强大功能,lstm已经广泛地被用于例如语音识别[31]、机器翻译[32]、图像字幕[33]和动作识别[34]。在过去的几年中,lstm已经广泛地被应用于序列到序列学习问题。通常,如[33]中所述,此类任务可以被分为三组,即顺序输入与固定输出、固定输入与顺序输出、顺序输入与顺序输出。本发明的实施例针对第三个任务,其已经被证明是最具挑战性的任务。由于输入时间步长通常与输出时间步长不同,因此学习每个时间步长的从输入到输出的直接映射是有挑战性的。为了解决这个问题,最近的工作[35]、[36],[36]利用编码器-解码器策略,参见图4a。编码器被用于生成序列的固定长度表示,其以后可以由解码器展开为任何长度的其他序列。编码器-解码器类型的解决方案可以被应用于诸如语音识别、机器翻译等任务。图2b示出了根据本发明的至少一些实施例的示例系统。上方部分被用于对一个序列x进行建模,并且左下部分被用于对另一序列y进行建模。两个序列的输出通过相关函数210进行交互。相关函数210可以被配置为生成相关系数作为输出,其在图2b中被示出为向下的箭头。在此,神经网络的输入是两个序列{x1,x2,...,xm}和{y1,y2,...,yn},输出是它们的相关系数。输入序列可以具有不同的模态。尽管在图2b中示出了lstm块,但是其他类型的rnn块在本发明的不同实施例中可以是可用的。本发明的原理在本文中被称为深度循环相关神经网络drcnn。通常,drcnn学习针对每个输入序列的非线性投影,同时保留其内的内部依存性。令{x1,x2,...,xm}为第一个视图中的输入序列,是第i个时间步长的特征向量,令{y1,y2,...,yn}为第二个视图中的对应输入序列,其中是第j个时间步长的特征向量。换言之,输入序列不需要具有相同的长度。由于lstm单元(θ1,θ′1,θ2,θ′2)的权重通过时间共享,因此第一视图(m)中的时间步进数目不必等于第二视图(n)中的时间步数。假定f1和f2是将每个序列的输入映射到输出的函数,然后两个序列z1和z2的输出可以被表示为:z1=f1(x1,x2,...,xm,θ1,θ′1),(14)z2=f2(y1,y2,...,yn,θ2,θ′2).(15)由于我们需要计算数据的两个视图之间的相关性,因此它们的维度必须被绘制为相同的。这样,线性变换可以被用于每个lstm序列的顶部,如下:在此p1和p2可以被视为两个序列的表示。它们的维度由参数α1和α2控制。假定并且样本总数为m。然后,用于相关性学习的数据的两个视图可以分别被表示为和这样,训练drcnn的目标可以被写成:也即,使两个视图的表示的相关性最大化。为了训练drcnn,可以遵循网络训练中的一般实践,并且可以采用小批量随机梯度下降法。drcnn框架可以包括两个关键组件,即序列学习组件和相关性学习组件,其可以分别被优化。关于首先优化相关性学习组件,假定训练批量大小为n,并且和是小批量中来自两个视图的数据。是全1矩阵。然后,p1和p2的中心数据矩阵可以分别被表示为和令和为两个视图的集合内协方差矩阵,并且令为对应的集合间协方差矩阵。定义并且根据[5],等式(16)等同于:ρ=||s||tr=tr(s′s)1/2.(19)假定s的特征值分解为s=udv′,然后类似于深度cca的优化(参见[5]的附录),可以关于p1计算corr(p1,p2)的梯度:其中以及由于采用小批量随机梯度下降方法来训练网络,因此训练误差应当向后传播到每个样本,并且corr(p1,p2)关于的梯度可以被计算为:其中和分别是和的第i列。一旦被计算,我们就可以相对于每个lstm单元的输入来计算目标函数的梯度。注意到,在两个视图中优化目标的方法可能几乎相同。因此,为简洁起见,我们仅在第一个视图中示出优化过程。然后考虑优化序列学习组件,从等式(8)至(14),我们可以看到序列学习中用于学习所需的参数恰好是四个门的权重。假定第一个视图中最后的时间步长的第i个样本的输出为ht(即,),而最后的时间步长的对应输入为h,然后我们可以可视化数据流,如图4b所示。因此,可以使用链式规则如下计算ht关于h的梯度(参见图4b):从lstm的公式(等式(8)至(13)),可以计算等式(21)中每个部分的梯度,如下(有关梯度得出的参考也可以在[39]中找到):从图2b可以看出,最后时间步长的序列输出正好是相关性学习组件的输入。因此,可以容易地计算最终目标函数关于h的梯度,如下:其中可以如等式(23)中被计算,可以很容易地被计算,因为是的线性变换,如等式(16)中所示,并且可以如等式(24)中被计算(为)。由于四个门的参数通过时间共享,因此可以以完全相同的方式使用链规则来容易地计算先前时间步长的梯度。到目前为止,我们已经介绍了drcnn如何被训练,即所涉及的参数如何被优化。一旦训练完成,就可以通过计算p1和p2的内积来计算两个序列的相关系数(参见等式(16)和等式(17))。可以在测试数据中采用drcnn来确定其功能如何。利用训练好的drcnn,不同的应用程序场景变得可用,诸如:文本到视频的匹配,其可以促进复杂查询视频搜索。那意味着查询可以是描述性语句,而不是一个或两个简单的单词。视频可以通过计算匹配分数而被排名。视频字幕,其引起了学术界和工业界的兴趣。那意味着,我们为给定的视频生成描述性语句。我们可以通过计算其与视频的匹配分数来对若干候选语句进行排名。视频到视频的匹配,其可以被用于视频推荐和分类。如何计算两个视频的距离也是问题。由于drcnn可以生成用于视频的固定维度表示,因此我们可以根据该表示来估计视频之间的距离,并且该距离很好地探索了视频的语义和时间信息。在此我们仅讨论视频,但是该方案也可以被扩展到其他媒体文档。实际上,在各种应用中,输入序列可以包括飞行器系统输出,该飞行器系统输出可以与飞行器控制状态相关,以例如警告飞行员飞行器已经进入或正在进入失速或可控制性降低的状态。现在呈现第一应用场景的初步结果,即针对复杂查询视频搜索的初步结果。发明方使用了msr-vtt数据集[37],其包含200k个视频语句对。8k个对被随机选择用于实验。4k个对被用于训练drcnn,并且其余的被用于视频搜索实验。在视频搜索实验中,100个语句被选择并且被用作查询以执行搜索,以及然后检查平均精度ap性能。观察到map测量值为0.35。为了比较,本方法与cca和dcca方法被比较。在这两种方法中,视频和文本表示通过平均视频帧和单词的特征而被获得。显然,这两种方法不能很好地探索序列的时间信息。结果是,通过cca和dcca方法获得的map测量值分别为0.19和0.23。因此,drcnn方法能够明显提高性能。图3示出了能够支持本发明的至少一些实施例的示例设备。示出了设备300,其可以包括例如服务器、台式计算机、膝上型计算机或平板计算机。设备300中包括处理器310,该处理器310可以包括例如单核或多核处理器,其中单核处理器包括一个处理核,并且而多核处理器包括多于一个处理核心。处理器310可以包括多于一个处理器。处理核心可以包括例如由arm控股制造的cortex-a8处理核或由超微半导体公司生产的steamroller处理核心。处理器310可以包括高通骁龙、英特尔凌动和/或英特尔至强处理器中的至少一项。处理器310可以包括至少一个专用集成电路asic。处理器310可以包括至少一个现场可编程门阵列fpga。处理器310可以是用于执行设备300中的方法步骤的部件。处理器310可以至少部分地由计算机指令配置为执行动作。设备300可以包括存储器320。存储器320可以包括随机存取存储器和/或永久性存储器。存储器320可包括至少一个ram芯片。存储器320可以包括例如固态、磁性、光学和/或全息存储器。存储器320可以是处理器310至少部分可访问的。存储器320可以至少部分被包括在处理器310中。存储器320可以是用于存储信息的部件。存储器320可以包括计算机指令,处理器310被配置为执行该计算机指令。当被配置为使处理器310执行某些动作的计算机指令被存储在存储器320中,并且设备300整体被配置为使用来自存储器320的计算机指令来在处理器310的指导下运行时,处理器310和/或其至少一个处理核可用被认为被配置为执行所述某些动作。存储器320可以至少部分地被包括在处理器310中。存储器320可以至少部分地在设备300外部,但是对于设备300是可访问的。设备300可以包括发射器330。设备300可以包括接收器340。发射器330和接收器340可以被配置为分别根据至少一种蜂窝或非蜂窝标准来发送和接收信息。发射器330可以包括多于一个发射器。接收器340可以包括多于一个接收器。发射器330和/或接收器340可以被配置成根据以下项来操作:例如,全球移动通信系统gsm、宽带码分多址wcdma、长期演进、lte、is-95、无线局域网wlan、以太网和/或全球微波接入互操作性wimax标准。设备300可以包括近场通信nfc收发器350。nfc收发器350可以支持至少一种nfc技术,诸如nfc、蓝牙、低功耗蓝牙或类似技术。设备300可以包括用户接口ui360。ui360可以包括以下中的至少一项:显示器、键盘、触摸屏、被布置为通过使设备300振动来向用户发信号的振动器、扬声器以及麦克风。用户可用能够经由ui360来操作设备300,例如以配置机器学习参数。设备300可以包括或被布置为接受用户身份模块370。用户身份模块370可以包括例如订户身份模块sim、可安装在设备300中的卡。用户身份模块370可以包括标识设备300的用户的订阅的信息。用户身份模块370可以包括密码信息,该密码信息可用于验证设备300的用户的身份和/或有助于对所通信的信息的加密以及对设备300的用户经由设备300所产生的通信的计费。处理器310可以被配备有发射器,该发射器被布置为经由设备300内部的电引线从处理器310向设备300中所包括的其他设备输出信息。这样的发射器可以包括串行总线发射器,该串行总线发射器例如被布置为经由至少一根电引线向存储器320输出信息以用于其中的存储装置。作为串行总线的替代,发射器可以包括并行总线发射器。同样地,处理器310可以包括接收器,该接收器被布置为经由设备300内部的电引线从设备300中包括的其他设备接收处理器310中的信息。这样的接收器可以包括串行总线接收器,该串行总线接收器被布置为例如经由至少一根电引线从接收器340接收信息以用于处理器310中的处理。作为对串行总线的备选,该接收器可以包括并行总线接收器。设备300可以包括图3中未示出的另外的设备。例如,在设备300包括智能电话的情况下,其可以包括至少一个数字照相机。一些设备300可以包括背面照相机和正面照相机,其中背面照相机可以意在用于数字摄影,并且正面照相机用于视频电话。设备300可以包括指纹传感器,该指纹传感器被布置为至少部分地认证设备300的用户。在一些实施例中,设备300缺少上述至少一个设备。例如,一些设备300可能缺少nfc收发器350和/或用户身份模块370。处理器310、存储器320、发射器330、接收器340、nfc收发器350、ui360和/或用户身份模块370可以通过设备300内部的电引线以多种不同方式被互连。例如,前述设备中的每个设备可以分别被连接到设备300内部的主总线,以允许设备交换信息。然而,如本领域技术人员将理解的,这仅是一个示例,并且根据实施例,在不脱离本发明的范围的情况下,可以选择互连前述设备中的至少两个设备的各种方式。图4a示出了以上讨论的编码器-解码器架构。在该术语中,上面的网络对应于“编码器”部分,下面的网络对应于“解码器”部分。图4b示出了一个lstm块中的数据流。输出向量ht受输出门向量ot和单元状态向量ct所影响。单元状态向量ct又受以下中的一项所影响:输入门向量it、遗忘门向量ft以及特殊门mt。图5是根据本发明的至少一些实施例的方法的流程图。所示出的方法的阶段可以在被配置为根据本发明来执行关联的设备(诸如计算机或服务器)中被执行。阶段510包括从第一顺序输入获得来自第一循环神经网络的第一输出,该第一顺序输入具有第一模态。阶段520包括从第二顺序输入获得来自第二循环神经网络的第二输出,该第二顺序输入具有第二模态。最后,阶段530包括处理第一输出和第二输出以获得第一顺序输入和第二顺序输入的相关性。该处理可以包括获得内积。将理解,所公开的本发明的实施例不限于本文所公开的特定结构、工序或材料,而是扩展至其等同物,如相关领域的普通技术人员将认识到的。还应当理解,本文采用的术语仅被用于描述特定实施例的目的,而非旨在限制。贯穿本说明书中对一个实施例或实施例的引用意味着结合该实施例所述的特定特征、结构或特性被包括在本发明的至少一个实施例中。因此,贯穿该说明书中各处出现的短语“在一个实施例中”或“在实施例中”并不一定全部是指同一实施例。在使用诸如例如大约或基本上的术语来参考数值的情况下,也公开了确切的数值。如在本文中所使用的,出于方便起见,可以在公共列表中呈现多个项、结构要素、组成要素和/或材料。然而,这些列表应当被解释为好像列表的每个成员都被个体地标识为单独且唯一的成员。因此,仅基于其在公共组中的呈现而不具有相反的指示,此类列表的任何个体成员都不应当被解释为相同列表的任何其他成员的实际上的等同物。另外,在本文中可以参考本发明的各种实施例和示例,以及用于其各种组件的备选方案。应当理解,这样的实施例、示例和备选方案不被理解为彼此的实际上等同,而是被认为是本发明的独立和自主的表示。此外,在一个或多个实施例中,所描述的特征、结构或特性可以以任何合适的方式被组合。在先前的描述中,提供了许多具体细节,诸如长度、宽度、形状等的示例,以提供对本发明实施例的透彻理解。然而,相关领域的技术人员将认识到,本发明可以在不具有具体细节中的一项或多项或利用其它方法、组件、材料的情况下被实践。在其他情况下,公知的结构、材料或操作未被详细示出或描述,以避免混淆本发明的方面。尽管前述示例在一个或多个特定应用中说明了本发明的原理,但是对于本领域的普通技术人员而言明显的是,在不进行创造性能力劳动,并且不脱离本发明的原理和概念的情况下,在形式、使用和实现细节方面进行许多修改。相应地,除了由下面提出的权利要求书之外,不旨在限制本发明。动词“包括(tocomprise)”和“包括(toinclude)”在本文档中用作开放的限制,既不排除也不要求未叙述的特征的存在。除非另外明确说明,否则从属权利要求中阐述的特征可以相互自由组合。此外,应当理解,在贯穿本文档中使用“一个(a)”或“一个(an)”,即单数形式,并不排除多个。工业适用性本发明的至少一些实施例在使用人工神经网络来处理顺序输入数据方面找到了工业应用。缩写表cca典型相关分析cnn卷积神经网络drcnn深度循环相关神经网络kcca核ccarnn循环神经网络附图标记表102第一输入序列103第二输入序列210相关函数300至370图3的装置的结构510至530图5的方法的阶段引文列表[1]h.hotelling,“relationsbetweentwosetsofvariates,”biometrika,vol.28,no.3/4,pp.321–377,1936.[2]d.r.hardoon,s.szedmak,andj.shawe-taylor,“canonicalcorrelationanalysis:anoverviewwithapplicationtolearningmethods,”neuralcomputation,vol.16,no.12,pp.2639–2664,2004.[3]s.akaho,“akernelmethodforcanonicalcorrelationanalysis,”arxivpreprintcs/0609071,2006.[4]f.r.bachandm.i.jordan,“kernelindependentcomponentanalysis,”journalofmachinelearningresearch,vol.3,no.jul,pp.1–48,2002.[5]g.andrew,r.arora,j.a.bilmes,andk.livescu,“deepcanonicalcorrelationanalysis.”inproc.icml,2013,pp.1247–1255.[6]f.yanandk.mikolajczyk,“deepcorrelationformatchingimagesandtext,”inproc.cvpr,2015,pp.3441–3450.[7]y.vermaandc.jawahar,“im2textandtext2im:associatingimagesandtextsforcross-modalretrieval.”inproc.bmvc,vol.1,2014,p.2.[8]j.c.pereira,e.coviello,g.doyle,n.rasiwasia,g.r.lanckriet,r.levy,andn.vasconcelos,“ontheroleofcorrelationandabstractionincross-modalmultimediaretrieval,”ieeetransactionsonpatternanalysisandmachineintelligence,vol.36,no.3,pp.521–535,2014.[9]y.gong,q.ke,m.isard,ands.lazebnik,“amulti-viewembeddingspaceformodelinginternetimages,tags,andtheirsemantics,”internationaljournalofcomputervision,vol.106,no.2,pp.210–233,2014.[10]k.choukriandg.chollet,“adaptationofautomaticspeechrecognizerstonewspeakersusingcanonicalcorrelationanalysistechniques,”computerspeech&language,vol.1,no.2,pp.95–107,1986.[11]r.aroraandk.livescu,“multi-viewcca-basedacousticfeaturesforphoneticrecognitionacrossspeakersanddomains,”inproc.icassp,2013,pp.7135–7139.[12]c.chapdelaine,v.gouaillier,m.beaulieu,andl.gagnon,“improvingvideocaptioningfordeafandhearing-impairedpeoplebasedoneyemovementandattentionoverload,”inelectronicimaging2007,2007,pp.64921k–64921k.[13]m.kahn,“consumervideocaptioningsystem,”mar.52002,uspatentapp.10/091,098.[14]m.e.sargin,y.yemez,e.erzin,anda.m.tekalp,“audiovisualsynchronizationandfusionusingcanonicalcorrelationanalysis,”ieeetransactionsonmultimedia,vol.9,no.7,pp.1396–1403,2007.[15]h.bredinandg.chollet,“audio-visualspeechsynchronymeasurefortalking-faceidentityverification,”inproc.icassp,vol.2,2007,pp.ii–233.[16]j.yuan,z.-j.zha,y.-t.zheng,m.wang,x.zhou,andt.-s.chua,“learningconceptbundlesforvideosearchwithcomplexqueries,”inproc.acmmm,2011,pp.453–462.[17]d.lin,s.fidler,c.kong,andr.urtasun,“visualsemanticsearch:retrievingvideosviacomplextextualqueries,”inproc.cvpr,2014,pp.2657–2664.[18]s.hochreiterandj.schmidhuber,“longshort-termmemory,”neuralcomputation,vol.9,no.8,pp.1735–1780,1997.[19]p.l.laiandc.fyfe,“kernelandnonlinearcanonicalcorrelationanalysis,”internationaljournalofneuralsystems,vol.10,no.05,pp.365–377,2000.[20]k.fukumizu,f.r.bach,anda.gretton,“statisticalconsistencyofkernelcanonicalcorrelationanalysis,”journalofmachinelearningresearch,vol.8,no.feb,pp.361–383,2007.[21]j.i.andj.p′erez,“alearningalgorithmforadaptivecanonicalcorrelationanalysisofseveraldatasets,”neuralnetworks,vol.20,no.1,pp.139–152,2007.[22]a.sharma,a.kumar,h.daume,andd.w.jacobs,“generalizedmultiviewanalysis:adiscriminativelatentspace,”inproc.cvpr,2012,pp.2160–2167.[23]y.yamanishi,j.-p.vert,a.nakaya,andm.kanehisa,“extractionofcorrelatedgeneclustersfrommultiplegenomicdatabygeneralizedkernelcanonicalcorrelationanalysis,”bioinformatics,vol.19,no.suppl1,pp.i323–i330,2003.[24]f.j.pineda,“generalizationofback-propagationtorecurrentneuralnetworks,”physicalreviewletters,vol.59,no.19,p.2229,1987.[25]p.j.werbos,“generalizationofbackpropagationwithapplicationtoarecurrentgasmarketmodel,”neuralnetworks,vol.1,no.4,pp.339–356,1988.[26]r.j.williamsandd.zipser,“gradient-basedlearningalgorithmsforrecurrentnetworksandtheircomputationalcomplexity,”backpropagation:theory,architecturesandapplications,pp.433–486,1995.[27]a.krizhevsky,i.sutskever,andg.e.hinton,“imagenetclassificationwithdeepconvolutionalneuralnetworks,”inproc.nips,2012.[28]c.szegedy,w.liu,y.jia,p.sermanet,s.reed,d.anguelov,d.erhan,v.vanhoucke,anda.rabinovich,“goingdeeperwithconvolutions,”inproc.cvpr,2015.[29]k.simonyananda.zisserman,“verydeepconvolutionalnetworksforlarge-scaleimagerecognition,”arxivpreprintarxiv:1409.1556,2014.[30]k.he,x.zhang,s.ren,andj.sun,“deepresiduallearningforimagerecognition,”arxivpreprintarxiv:1512.03385,2015.[31]a.graves,a.-r.mohamed,andg.hinton,“speechrecognitionwithdeeprecurrentneuralnetworks,”inproc.icassp,2013,pp.6645–6649.[32]i.sutskever,o.vinyals,andq.v.le,“sequencetosequencelearningwithneuralnetworks,”inadvancesinneuralinformationprocessingsystems,2014,pp.3104–3112.[33]j.donahue,l.annehendricks,s.guadarrama,m.rohrbach,s.venugopalan,k.saenko,andt.darrell,“long-termrecurrentconvolutionalnetworksforvisualrecognitionanddescription,”inproc.cvpr,2015,pp.2625–2634.[34]j.yue-heing,m.hausknecht,s.vijayanarasimhan,o.vinyals,r.monga,andg.toderici,“beyondshortsnippets:deepnetworksforvideoclassification,”inproc.cvpr,2015,pp.4694–4702.[35]w.zaremba,i.sutskever,ando.vinyals,“recurrentneuralnetworkregularization,”arxivpreprintarxiv:1409.2329,2014.[36]n.srivastava,e.mansimov,andr.salakhutdinov,“unsupervisedlearningofvideorepresentationsusinglstms,”corr,abs/1502.04681,vol.2,2015[37]j.xu,t.mei,t.yao,y.rui.“msr-vtt:alargevideodescriptiondatasetforbridgingvideoandlanguage,”inproc.cvpr2016.[38]nikhilrasiwasi,josecostapereira,emanuelecoviello,gabrieldoyle,gertr.g.lanckriet,rogerlevy,nunovasconcelos,“anewapproachtocross-modalmultimediaretrieval,”inproc.acmmm,2010.[39]sepphochreiterandjurgenschmidhuber,“longshort-termmemory,”neuralcomputations,vol.9,no.8,pp.1735-1780,1997.[40]yangetal.,“deepmultimodalrepresentationlearningfromtemporaldata,”arxiv,https://arxiv.org/pdf/1704.03152.pdf当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1