用于近似深入神经网络以用于解剖对象检测的方法和系统与流程

文档序号:11865372阅读:111来源:国知局
用于近似深入神经网络以用于解剖对象检测的方法和系统与流程
本发明涉及使用深入神经网络的解剖对象检测,并且更具体地涉及近似深入神经网络以用于解剖对象检测。在机器学习和模式识别方面的一个最大挑战在于维度灾难。维度灾难是指学习问题的复杂性随着数据维度中的线性增大而呈指数形式增长的概念。出于这一原因,通常通过特征提取的维度减小技术预处理数据以便提取可以由机器学习分类器有效地处置的数据的有意义且紧凑的表示。因而,数据表示是影响人造智能系统的性能的重要因素。深入学习模仿哺乳动物大脑行为以便从高维度输入提取有意义的表示。数据通过网络的多个层传递。主要层提取低水平线索,诸如用于自然图像的边缘和角落。更深入的层将来自之前各层的简单线索复合成更高水平的特征。这样,在网络结尾处出现强有力的表示。深入网络的逐步构造防止学习过早地暴露于高复杂性的数据。若干理论工作示出某些分类的函数(例如指示符函数)可以由深入网络表示,但是要求具有非充分深度的网络的指数计算。最近,已经以高精度向图像中的模式识别问题应用深入学习。然而,深入网络的益处是以评估阶段期间的高计算成本为代价的。特别地,完全连接的深入网络具有比传统机器学习分类器(诸如线性支持向量机(SVM)和随机森林分类器)缓慢的幅度量级。合期望的是改进深入网络的运行时间速度以使得这样的深入学习技术对于各种应用(对于高计算平台,所述应用包括诸如移动电话和计算机平板设备)更加实用。已经尝试各种方案来改进深入学习的计算方面。图形处理单元(GPU)已经示出以若干幅度量级加速训练。然而,大多数广泛使用的计算设备未装备有强有力的GPU。加速这样的深入网络的另一方式是卷积网络,诸如卷积神经网(CNN)或卷积深入信任网。还可以使用可分离滤波器来改进卷积网络的速度。然而,这些方案要求数据具有张量结构,其限制这样的深入学习技术的应用范围。此外,卷积网络和可分离滤波器可能由于它们强加于深入网络的滤波器上的结构而使总体分类精度降级。技术实现要素:本发明提供一种用于近似深入神经网络以用于解剖对象检测的方法和系统。本发明各种方法的实施例是减小经训练的深入神经网络的计算复杂性。本发明的实施例使用所近似的深入神经网络执行医学图像数据中的解剖对象检测,所近似的深入神经网络在计算上比原始训练用于对象检测任务的深入神经网络更高效。在本发明的实施例中,深入神经网络被训练成检测医学图像中的解剖对象。计算经训练的深入神经网络的近似,该近似减小经训练的深入神经网络的计算复杂性。使用经训练的深入神经网络的近似来在所接收的患者的医学图像中检测解剖对象。在一个实施例中,可以使用权重稀疏化来计算经训练的深入神经网络的近似。在另一实施例中,函数近似可以用于减小经训练的深入神经网络分类器的每一个水平中的节点数目。在另一实施例中,1-DHaar小波基和小波系数可以用于重构经训练的深入神经网络的层中的给定节点的权重矩阵。在另一实施例中,主成分分析(PCA)可以应用于经训练的深入神经网络的层中的所有节点之上的权重矩阵的空间。在一个实施例中,一种用于医学图像中的解剖对象检测的方法,包括:训练深入神经网络以检测医学图像中的解剖对象;计算经训练的深入神经网络的近似,所述近似减少经训练的深入神经网络的计算复杂性;以及使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象。在一个实施例中,其中训练深入神经网络以检测医学图像中的解剖对象包括针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点训练相应滤波器,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络中的多个层中的每一个层减少每一个滤波器中的非零权重的数目;以及针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响。在一个实施例中,其中针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响包括:对源自减小每一个滤波器中的非零权重的数目以精炼每一个滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,其度量使用经训练的深入神经网络的近似所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零,包括:将再加权L1-规范的项添加到成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差;以及对经训练的深入神经网络执行后向传播来针对经训练的深入神经网络的多个层中的每一个层精炼滤波器中的权重以便减少具有再加权L1-规范的所添加项的成本函数。在一个实施例中,其中针对多个层中的每一个层精炼滤波器中的其余非零权重以便缓解将多个非零权重驱动为零的影响包括:对源自将多个非零权重驱动为零以精炼滤波器中的其余非零权重的经训练的深入神经网络的近似执行后向传播的一个或多个迭代以便减小成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差,而没有再加权L1-规范的所添加项。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点;以及基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重。在一个实施例中,其中确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点包括:确定当前层中的节点子集以及混合矩阵,该混合矩阵最佳地最小化当前层中的多个节点中的每一个节点与通过使用混合矩阵线性地组合节点子集而计算的当前层中的多个节点中的每一个节点的相应近似之间的误差,其中经受节点子集大小上的约束。在一个实施例中,其中基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重包括:移除其索引不处于当前层中的节点子集中的经训练的深入神经网络的下一层的滤波器;以及利用通过使用混合矩阵线性地组合当前层中的节点子集的权重而生成的权重来更新经训练的深入神经网络的下一层的其余滤波器以便从当前层中的多个节点中所移除的节点近似向下一层的加权输入。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似还包括:重复以下步骤:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除不处于节点子集中的当前层中的多个节点,以及基于经训练的深入神经网络的当前层中所剩余的节点子集来更新经训练的深入神经网络的下一层的权重,对于经训练的深入神经网络中的多个层中的每一个层而言,导致经训练的深入神经网络的初始近似;以及通过对经训练的深入神经网络的初始近似执行后向传播的一个或多个迭代来精炼经训练的深入神经网络的初始近似以便减小成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:通过确定线性地近似所述层中的所有节点的每一个层中的节点子集来减少经训练的深入神经网络的多个层中的每一个层中的节点数目,从而导致经训练的深入神经网络的第一近似;以及针对经训练的深入神经网络的第一近似的多个层中的每一个层中的每一个节点减少相应滤波器中的非零权重数目,从而导致经训练的深入神经网络的第二近似。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,使用1-DHaar小波基和小波系数来重构节点的经训练的权重矩阵。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,减少用于重构该节点的经训练的权重矩阵的小波系数的数目。在一个实施例中,其中使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象包括:将所接收的医学图像的整体图像存储在查找表中;针对所接收的医学图像中的多个图像碎片中的每一个图像碎片,从存储在查找表中的整体图像来计算使用查找表操作使图像碎片与1-DHaar小波基和转置的Haar1-D小波相乘的相应相乘结果;以及针对经训练的深入神经网络的近似中的第一隐藏层的每一个节点,计算针对该节点的小波系数与针对多个图像碎片中的每一个图像碎片所计算的相应相乘结果的Frobenius内积。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:针对经训练的深入神经网络的多个层中的每一个层,在该层的多个节点的所有之上,将主成分分析(PCA)应用于小波系数的空间。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:使用1-DHaar小波基和相应小波系数针对经训练的深入神经网络的当前层中的多个节点中的每一个节点来重构相应经训练的权重矩阵,以及减少用于重构每一个相应经训练的权重矩阵的小波系数数目;以及针对经训练的深入神经网络的当前层中的多个节点中的每一个节点来再训练源自重构相应经训练的权重矩阵的经训练的深入神经网络的近似,以及减少用于重构每一个相应经训练的权重矩阵的小波系数数目。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络中的多个层中的每一个层,在该层中的多个节点的所有之上,将主成分分析(PCA)应用于经训练的权重矩阵的空间。在一个实施例中,一种用于医学图像中的解剖对象检测的装置,包括:用于训练深入神经网络以检测医学图像中的解剖对象的构件;用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件;以及用于使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象的构件。在一个实施例中,其中用于训练深入神经网络以检测医学图像中的解剖对象的构件包括用于针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点来训练相应滤波器的构件,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的构件。在一个实施例中,其中用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的构件包括:用于通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络中的多个层中的每一个层减少每一个滤波器中的非零权重的数目的构件;以及用于针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以便缓解减少每一个滤波器中的非零权重数目的影响的构件。在一个实施例中,其中用于针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重的构件包括:用于针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化的构件,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及用于针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响的构件。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于确定线性地近似经训练的深入神经网络的该层中的多个节点的经训练的深入神经网络的每一个层中的多个节点的节点子集以及从经训练的深入神经网络移除没有处于节点子集中的每一个层中的多个节点的构件;以及用于基于经训练的深入神经网络的前一层中所剩余的节点子集来针对经训练的深入神经网络的每一个层更新权重的构件。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于通过对经训练的深入神经网络的近似执行后向传播的一个或多个迭代来精炼经训练的深入神经网络的近似以便减小成本函数的构件,所述成本函数度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于通过确定线性地近似所述层中的所有节点的每一个层中的节点子集来减少经训练的深入神经网络的多个层中的每一个层中的节点数目的构件,从而导致经训练的深入神经网络的第一近似;以及用于针对经训练的深入神经网络的第一近似的多个层中的每一个层中的每一个节点减少相应滤波器中的非零权重数目的构件,从而导致经训练的深入神经网络的第二近似。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件包括:用于针对经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点而使用1-DHaar小波基和小波系数来重构相应经训练的权重矩阵的构件。在一个实施例中,其中用于计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似的构件还包括:用于针对经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点而减少用于重构相应经训练的权重矩阵的小波系数的数目的构件。在一个实施例中,一种存储计算机程序指令以用于医学图像中的解剖对象检测的非暂时性计算机可读介质,所述计算机程序执行限定操作,包括:训练深入神经网络以检测医学图像中的解剖对象;计算经训练的深入神经网络的近似,该近似减少经训练的深入神经网络的计算复杂性;以及使用经训练的深入神经网络的近似来检测所接收的患者的医学图像中的解剖对象。在一个实施例中,其中训练深入神经网络以检测医学图像中的解剖对象包括针对深入神经网络的多个层中的每一个层中的多个节点中的每一个节点训练相应滤波器,其中每一个相应滤波器是包括对多个层中的之前一个层的节点的节点输出加权的多个权重的权重矩阵,并且计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:通过将每一个滤波器中预确定百分比的具有最低幅度的非零权重设定成等于零来针对经训练的深入神经网络的多个层中的每一个层减少每一个滤波器中的非零权重的数目;以及针对多个层中的每一个层精炼每一个滤波器中的其余非零权重以缓解减小每一个滤波器中的非零权重数目的影响。在一个实施例中,其中针对经训练的深入神经网络的多个层中的每一个层稀疏化滤波器的权重包括:针对经训练的深入神经网络的多个层中的每一个层对滤波器的权重执行再加权L1-规范正则化,其中再加权L1-规范正则化将滤波器的多个非零权重驱动成零;以及针对多个层中的每一个层精炼滤波器中的其余非零权重以缓解将多个非零权重驱动为零的影响。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除没有处于节点子集中的当前层中的多个节点;以及基于经训练的深入神经网络的当前层中所剩余的节点子集来针对经训练的深入神经网络的下一层更新权重。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似还包括:重复以下步骤:确定线性地近似经训练的深入神经网络的当前层中的多个节点的经训练的深入神经网络的当前层中的多个节点的节点子集,以及从经训练的深入神经网络移除不处于节点子集中的当前层中的多个节点,以及基于经训练的深入神经网络的当前层中所剩余的节点子集来更新经训练的深入神经网络的下一层的权重,对于经训练的深入神经网络中的多个层中的每一个层而言,导致经训练的深入神经网络的初始近似;以及通过对经训练的深入神经网络的初始近似执行后向传播的一个或多个迭代来精炼经训练的深入神经网络的初始近似以便减小成本函数,其度量所预测的解剖对象位置与训练数据集合中的地面真实解剖对象位置之间的误差。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:通过确定线性地近似所述层中的所有节点的每一个层中的节点子集来减少经训练的深入神经网络的多个层中的每一个层中的节点数目,从而导致经训练的深入神经网络的第一近似;以及针对经训练的深入神经网络的第一近似的多个层中的每一个层中的每一个节点减少相应滤波器中的非零权重数目,从而导致经训练的深入神经网络的第二近似。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,使用1-DHaar小波基和小波系数来重构节点的经训练的权重矩阵。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络的多个层中的每一个层中的多个节点中的每一个节点,减少用于重构该节点的经训练的权重矩阵的小波系数的数目。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似还包括:针对经训练的深入神经网络的多个层中的每一个层,在该层的多个节点的所有之上,将主成分分析(PCA)应用于小波系数的空间。在一个实施例中,其中计算减少经训练的深入神经网络的计算复杂性的经训练的深入神经网络的近似包括:对于经训练的深入神经网络中的多个层中的每一个层,在该层中的多个节点的所有之上,将主成分分析(PCA)应用于经训练的权重矩阵的空间。通过参照以下详细描述和随附各图,本发明的这些和其它优点将对于本领域的普通技术人员显而易见。附图说明图1图示了根据本发明的实施例的用于使用深入神经网络近似的医学图像中的解剖对象分析的方法;图2图示了示例性AE神经网络;图3图示了根据本发明的实施例的使用Haar小波近似来近似深入神经网络的隐藏层的权重的方法;图4和5图示了使用图3的方法近似经训练的深入神经网络的隐藏层的节点的权重矩阵的示例;图6图示了根据本发明的实施例的在使用小波近似来近似权重矩阵的同时迭代地训练深入神经网络;图7图示了根据本发明的实施例的使用权重稀疏化来近似经训练的深入神经网络的方法;图8图示了使用通过阈值处理所执行的权重稀疏化的经训练的深入神经网络的示例性近似的随机滤波器的可视化;图9图示了在使用通过再加权的L1-规范最小化所执行的权重稀疏化的经训练的深入神经的近似之前和之后的经训练的深入神经网络的示例性滤波器的可视化;图10图示了根据本发明的实施例的用于使用函数近似来近似经训练的深入神经网络以减少每一个层中的节点数目的方法;图11图示了在函数近似和权重稀疏化之后的2DMR图像中的LV顶点检测的经训练的深入神经网络的近似的示例性滤波器的可视化;以及图12是能够实现本发明的计算机的高级框图。具体实施方式本发明涉及用于近似深入神经网络以用于医学图像中的解剖对象检测的方法和系统。本发明的实施例在本文中描述成给出用于近似深入神经网络和医学图像中的解剖对象检测的方法的视觉理解。数字图像通常包括一个或多个对象(或形状)的数字表示。对象的数字表示通常在本文中根据标识和操控对象来描述。这样的操控是在存储器或者计算机系统的其它电路/硬件中达成的虚拟操控。因而,要理解到,本发明的实施例可以使用存储在计算机系统内的数据而在计算机系统内执行。图1图示了根据本发明的实施例的用于使用深入神经网络近似的医学图像中的解剖对象检测的方法。图1的步骤102和104在离线训练阶段中执行。这些步骤训练深入神经网络以用于医学图像数据中的解剖标志检测并且计算经训练的深入神经网络的对应近似,并且在离线测试阶段之前离线执行(步骤106-110),其中经训练的深入神经网络的近似用于执行新的未看到的医学图像中的解剖标志检测。在步骤102处,训练深入神经网络。深入神经网络是具有输入数据和输出数据之间的所学习特征或变量的多个隐藏层的基于机器学习的神经网络。根据有利实现方案,深入神经网络将典型地以三个或更多的隐藏层实现。在有利实施例中,深入神经网络训练成检测医学图像数据中的解剖标志。特别地,解剖标志可以训练成检测2D医学图像中的解剖标志的2D位置(x,y)或者检测3D医学图像中的解剖标志的3D位置(x,y,z)。尽管本发明的实施例可以应用于2D或3D医学图像,但是术语“像素”在本文中用于指代医学图像的元素,而不管维度如何。深入神经网络基于数据库中所存储的多个训练图像来训练。训练图像可以是使用任何医学成像形式(诸如但不限于CT、MRI、超声、X射线荧光、DynaCT等)所获取的2D或3D医学图像。至少训练图像的子集注解有目标解剖对象的位置。训练图像另外也可以包括非注解图像。在可能的实现方案中,经训练的深入神经可以是有差别的深入神经网络,其针对以像素为中心的图像碎片计算目标解剖标志位于该像素处的可能性。在另一可能的实现方案中,经训练的深入神经网络可以是深入神经网络回归量(回归函数),其针对以像素为中心的图像碎片计算从该像素向目标解剖标志的预测位置的差向量。直接在图像数据上训练深入神经网络以学习复杂图像模式并且基于复杂图像模式检测解剖对象。前馈神经网络是具有称为后向传播的高效训练算法的神经网络结构。尽管足够强有力以近似复杂的目标函数,但是大的前馈神经网络往往过渡拟合训练数据。难以以良好的一般化能力来训练具有多于两个隐藏层的网络。在可能的实施例中,紧随有受监管的精细调谐的不受监管的预训练可以用于克服过渡拟合问题。该技术可以用于训练具有三个或更多隐藏层的网络。预训练可以看作不受监管的学习过程以从输入图像数据发现强有力的图像特征。各种深入学习技术,诸如自动编码器(AE)、去噪声自动编码器(DAE)或者受限制的Boltzman机器(RBM),可以用于预训练隐藏层。图2图示了示例性AE神经网络。如图2中所示,AE200是具有一个隐藏层204的前馈神经网络。AE200具有输入层L1202、隐藏层L2和输出层L3206。如果AE200是完全连接的网络,则输入层202中的每一个节点可以对应于图像碎片的相应体素或像素。忽略偏项(在图2中标记为+1的节点),输入和输出层202和206分别具有相同数目的节点。AE的目标是最小化输入和输出向量之间的差异。如果隐藏层204具有等于或大于输入层202的尺寸,则AE可以学习标识变换。为了防止这种不重要的解决方案,AE可以以隐藏层204具有比输入层202更少的节点来设立。隐藏层204的节点可以计算为输入层202的节点的权重求和与偏项的函数,其中相应权重被分配给输入层202的节点与隐藏层204中的节点之间的每一个连接。偏项以及输入层202与隐藏层204之间的权重在AE200的训练中学习,例如使用后向传播算法。隐藏层204的节点可以视为从输入图像碎片的像素(由输入层202的节点表示)提取的特征,并且所学习的权重可以视为对输入图像数据滤波以生成特征的滤波器。去噪音自动编码器(DAE)可以用于学习输入图像数据的更有意义的表示。在DAE中,某一百分比(例如50%)的输入节点随机选择成受干扰的(例如将值设定成等于零)并且要求DAE以在给定受污染的观察的情况下重构原始输入向量。这明显增大所得经训练的深入神经网络的鲁棒性。DAE中的隐藏层可以具有比输入层更多的节点以实现过完备表示。在有利的实施例中,深入神经网络使用堆叠的去噪声自动编码器(DAE)在两个阶段中训练。第一阶段是不受监管的,其中多层深入神经网络的每一层训练成重构输入图像数据。在该阶段中,在利用重构输入层的输出层训练DAE之后,输出层被丢弃并且使用如输入到新DAE的已经训练的隐藏层的激活响应来堆叠另一DAE。该过程可以重复以逐层训练和扩展网络。第二阶段是受监管的,并且整个网络误差相对于从预训练的网络权重开始的输出训练数据而最小化。例如,为了训练有差别的深入神经网络,在预训练数个隐藏层之后,可以将针对目标输出的附加层添加到网络并且整个网络可以使用后向传播精炼。可替换地,隐藏层的输出可以被视为高水平图像特征并且用于训练有差别的分类器以用于检测解剖对象。为了训练深入神经网络回归量,输出参数空间可以使用线性函数直接回归,或者其可以相对于参数范围(例如(x,y)或(x,y,z))离散化并且求解为多类别分类问题。第二公式具有以下优势:其可以直接编码输出可能性并且可以生成多个假设(例如针对不同解剖对象)。返回到图1,在步骤104处,计算经训练的深入神经网络的近似。特别地,计算经训练的深入神经网络的近似,该近似减少经训练的深入神经网络的计算复杂性。尽管训练深入神经网络(步骤102)并且计算针对深入神经网络的近似(步骤104)被图示为图1中的分离步骤,但是本发明不限于此。在一些实施例中,深入神经网络可以完全经训练,并且然后计算经训练的深入神经网络的近似。在一些实施例中,深入神经网络的近似可以计算为所训练的深入神经网络,或者可以执行训练和近似的多次迭代。在下文描述用于近似经训练的深入神经网络的各种实施例,包括Haar小波近似、主成分分析(PCA)近似、权重稀疏化(SparseConnect)以及减少每一个隐藏层的节点(ShrinkConnect)。在步骤106处,在联机测试阶段中,接收患者的医学图像。医学图像可以是2D或3D图像并且可以使用任何医学成像形式(诸如但不限于CT、MRI、超声、X射线荧光、DynaCT等)获取。患者的医学图像可以直接从图像获取设备(诸如CT扫描仪或MRI扫描仪)接收,或者患者的医学图像可以通过加载之前存储在计算机系统的存储器或存储设备中的医学图像来接收。在步骤108处,使用经训练的深入神经网络的近似在医学图像中执行解剖对象检测。在可能的实现方案中,可以使用滑动窗口方案,其中以每一个像素或体素为中心的相应图像碎片从医学图像提取。每一个图像碎片被输入到经训练的深入神经网络的近似,该近似直接在每一个碎片中的像素或体素上操作。如果经训练的深入神经网络是有差别的深入神经网络,则经训练的深入神经网络的近似针对每一个图像碎片计算目标解剖标志位于图像碎片以其为中心的像素或体素处的概率。具有最高概率的位置然后可以选择为医学图像中的所检测的解剖标志位置。如果经训练的深入神经网络是深入神经网络回归量,则经训练的深入神经网络的近似针对每一个图像碎片输出差向量,其提供从图像碎片以其为中心的像素或体素到医学图像中的目标解剖标志的预测位置的位移。来自每一个图像碎片的预测位置然后可以聚集以确定医学图像中的所检测的解剖标志位置。在步骤110处,输出解剖对象检测结果。例如,解剖对象检测结果可以通过在计算机系统的显示设备上显示医学图像来输出,其中解剖对象位置在所显示的医学图像中标记或高亮。尽管针对训练成检测解剖标志的位置的单个深入神经网络描述了图1的方法,但是本发明不限于此。例如,图1的方法和以下描述的用于近似深入神经网络的每一个实施例可以应用于一系列深入神经网络中的每一个,该深入神经网络在增大维度的一系列搜索空间中训练以针对边际空间深入学习(MSDL)或边际空间深入回归(MSDR)框架(如在2015年4月16日提交的题为“MethodandSystemforAnatomicalObjectDetectionUsingMarginalSpaceDeepNeuralNetworks”的美国临时申请号62/148,273中描述的,该申请通过引用以其整体并入本文)中的医学图像中的解剖对象检测姿态参数(位置、方位和尺度)。Haar小波近似根据本发明的实施例,Haar小波近似可以用于计算经训练的深入神经网络的近似以用于解剖标志检测。在对象或标志检测问题中,可以使用滑动窗口方案,其中检查大量图像碎片而同时在整个图像或体积之上滑动窗口。例如,以图像的每一个像素或体素为中心的相应图像碎片可以被检查。为了将针对经训练的深入神经网络的隐藏层的所学习权重应用于特定图像碎片,计算Frobenius内积,其是针对输入图像碎片的像素值的矩阵与和经训练的深入神经网络的隐藏层的节点相关联的权重矩阵之间的分量形式的内积。在本发明的该实施例中,在针对每一个隐藏层的权重矩阵上执行Haar小波变换以便有效地减少Frobenius内积所要求的计算数目。积分成像技术还可以用于增加计算效率。由于相同权重矩阵集合重复地用于计算与各种图像碎片的Frobenius内积,所以有利的是使用小波基表示权重矩阵,该小波基要求比权重矩阵中的原始元素数目更少的系数。图3图示了根据本发明的实施例的使用Haar小波近似来近似深入神经网络的隐藏层的权重的方法。图3的方法可以在针对整个经训练的深入神经网络完成训练之后针对每一个隐藏层(或者包括输出层的每一个)执行,或者图3的方法可以在训练深入神经网络的随后层之前针对每一个层在训练期间执行。在步骤302处,针对深入神经网络的隐藏层训练权重。针对隐藏层的权重如上文结合图1的步骤102所述的那样训练。例如,隐藏层的权重可以使用后向传播算法训练。在步骤304处,隐藏层的权重使用小波系数和一维1-D小波基来重构。在不损失一般性的情况下,出于该描述的目的而假定输入到经训练的深入神经网络的是2D图像。在该情况下,P表示2D图像碎片,W表示连接到任何一个隐藏单元(即隐藏层的节点)的神经网络的权重,并且Dim(W)=Dim(P)。目标在于加速的计算,所述公式是两个矩阵(尽管它们是向量)的分量形式内积,还已知为Frobenius内积。我们使用来表示小波基的转置。小波基可以用于将神经网络重构为:其通过小波系数Y重构神经网络权重。这可以在1-D小波基中表述为:在有利的实现方案中,使用Haar小波基。例如,4*4Haar小波基可以表述为:要理解到,本发明不限于等式(3)中所示的小波基,并且也可以使用其它大小的小波基。在步骤306处,在小波系数上执行收缩以减小非零小波系数的数目。实现小波系数Y的稀疏集合以表示每一个权重矩阵加速计算。小波系数的稀疏性通过小波收缩获得,该小波收缩可以使用具有小值的系数的软或硬阈值处理而实现。例如,具有比预确定的阈值更小的值的所有小波系数可以设定成等于零,或者预确定数目的最大小波系数可以保留而其余小波系数设定成等于零。图4和5图示了使用图3的方法来近似经训练的深入神经网络的隐藏层的节点的权重矩阵的示例。如图4中所示,图像402是与隐藏层节点相关联的原始经训练的权重矩阵的可视化,并且图像404是使用Haar小波重构在图402中示出的权重矩阵的近似的可视化,其中一半小波系数设定为零。如图4中所示,图像502是与另一隐藏层节点相关联的原始经训练的权重矩阵的可视化,并且图像504是使用Haar小波重构在图像502中示出的权重矩阵的近似的可视化,其中一半小波系数设定为零。一旦使用小波系数重构隐藏层的所有权重矩阵并且在小波系数上执行1D小波基和收缩,则小波系数和1D小波基可以用在输入图像碎片上替换权重矩阵以便近似Frobenius内积,如下所示:因而,Frobenius内积被近似为Y和的内积。为了执行解剖标志检测(图1的步骤108),可以使用滑动窗口方案,其中多个图像碎片P被检查而同时在整个图像或体积V之上滑动。当Haar小波用于小波基时,针对隐藏层的每一个节点的每一个图像碎片的的计算可以使用整体成像技术加速。与原始图像相同大小的整体图像存储在查找表中,并且Haar小波基确定将查找的是查找表中的哪些项目(像素)。例如,可以使用在等式(3)中示出的4*4Haar小波基,但是本发明不限于此。在该4*4情况下,矩阵相乘总计针对与的第一列的相乘的四个查找操作、针对第二列的四个表格查找和相减操作、以及针对第三列和第四列中的每一个的两个表格查找和相减操作。这比直接矩阵相乘更快。可以针对与的相乘获得相同加速。本文描述的相同分析也可以类似地应用于更大的Haar小波基。一旦获得,则Y和Z的Frobenius内积可以看起来在计算上像原始计算目标那样昂贵。然而,小波系数Y由于在步骤306中应用到小波系数的收缩而是稀疏的,这导致较少的计算。由于小波系数是离线地从神经网络权重矩阵而不是在检测期间计算的,所以收缩操作将不会不利地影响检测速度。图3的方法针对经训练的深入神经网络中的每一个隐藏层(或每一个层)执行。如上文所述,图3的方法可以在训练深入神经网络的随后层之前针对每一个隐藏层在训练期间执行。在可能的实现方案中,可以在深入神经网络的训练期间使用迭代近似和训练步骤针对每一个隐藏层执行Haar小波近似。图6图示了根据本发明的实施例在使用小波近似来近似权重矩阵的同时迭代地训练深入神经网络。如图6中所示,在步骤602处,执行神经网络训练以训练神经网络的权重矩阵,并且在步骤604处,执行Haar小波近似以使用1DHaar小波基和小波系数来重构权重并且数个小波系数设定为零。步骤602和604然后迭代。在每一轮迭代中,设定为零的小波系数保持为零,而其余系数通过神经网络训练算法(诸如后向传播)调节。迭代可以重复直到对于预确定数目的迭代而言数个其余的小波系数收敛,或者直到达到与深入神经网络的近似精度中的降低相关联的停止条件。在示例性实现方案中,图6的步骤可以针对每一个隐藏层在隐藏层的训练期间迭代。在另一实施例中,步骤604的每一个迭代可以针对经训练的深入神经网络的每一个隐藏层执行,并且步骤602的每一个迭代可以再训练整个深入神经网络。主成分分析近似在本发明的另一实施例中,可以使用主成分分析(PCA)以通过运用所有隐藏层单元(节点)之上的冗余性来减少计算成本。如上文所述,针对隐藏层的给定节点(单元)的权重矩阵W单独地执行Haar小波近似。PCA可以用于运用隐藏层的所有隐藏层节点之上的冗余性。这可以在神经网络权重矩阵{W}的空间中或者在Haar小波近似中所计算的小波系数{Y}的空间中实现。PCA近似将首先在本文中使用神经网络权重矩阵{W}的空间来解释。使用PCA,针对给定隐藏层单元i的权重矩阵为,其中K指示减小的维度,其可以是设定成维持某一数量的近似精度的预确定值。因而,图像碎片与针对每一个隐藏单元的权重矩阵的Frobenius内积可以近似为:如果K小于隐藏层单元数目H,则相比于,K个值可以计算得快得多,并且因此实现在所有隐藏层单元之上计算的加速。PCA近似可以通过在Haar小波系数{Y}的空间中应用PCA而与Haar小波分析组合以获得在隐藏层的所有隐藏层单元之上计算的额外加速。SparseConnect:权重稀疏化出于说明目的,SparseConnect近似方法和ShrinkConnect近似方法(在下文描述)在本文中描述为与堆叠的去噪声自动编码器(DAE)深入神经网络组合地使用。然而要理解到,这些方法可以类似地应用于任何其它经训练的深入神经网络。假设W表示权重矩阵并且h表示每一个层处的输出,并且自动编码器的输入-输出可以表述为:其中f是非线性整形函数,比如S形函数(sigmoidfunction)。诸如堆叠的去噪声自动编码之类的深入神经网络的训练可以基于被测量为预测结果与训练数据中的观察之间的欧几里得距离的成本函数的随机梯度下降来执行。在理想世界中,网络中的每一个节点应当从输入图像数据提取不同信息片段,使得节点组合得出针对标志位置的准确且鲁棒的预测。然而,不存在防止不同节点学习相同事物的明显约束。此外,由于用来训练深入神经网络的优化进程的高度复杂且非凸本性,经训练的深入神经网络将可能包含明显冗余性。在本发明的这一实施例中,经训练的神经网络通过向滤波器的系数引入稀疏性而简化。如本文所使用的,术语“滤波器”是指深入神经网络的层的特定节点的权重矩阵。因而,每一个层具有多个节点,并且每一个节点具有用于对来自之前层的节点的数据滤波或组合的权重矩阵或“滤波器”。可以以不同方式向滤波器的系数引入稀疏性。例如,在可能的实现方案中,具有最大幅度的某一百分比的系数可以保留在每一个滤波器中,而其余系数设定为零。在另一可能的实现方案中,L1-规范最小化可以在后向传播算法中实施,该L1-规范最小化将会把每一个滤波器中的数个系数驱动为零。由于使输入与神经元(节点)之间的连接稀疏,所以我们将该方案称为“SparseConnect”。重要的是要指出:SparseConnet不同于迫使隐藏单元的输出而不是滤波器的权重成为稀疏的传统实践。本文描述的SparseConnect方法导致比传统实践更高的运行时间效率。对于深入神经网络中的层的特定节点(单元),输出被近似为:其中是层处的第i个滤波器的所保留连接的索引集合。集合越小,可以实现的加速就越大,其代价是向网络引入更强扰动。在有利的实现方案中,一旦针对每一个滤波器确定系数的减小集合,则深入神经网络可以使用受监管的后向传播精炼以缓解由扰动引入的影响。在这一精炼步骤中,仅有效系数更新,而设定为零的系数保持为零。图7图示了根据本发明的实施例的使用权重稀疏化来近似经训练的深入神经网络的方法。在步骤702处,训练深入神经网络。例如,深入神经网络可以使用堆叠DAE在不受监管的学习阶段中训练,接着是如以上结合图1的步骤102所述的受监管的学习阶段。在步骤704处,每一个滤波器中的非零权重(系数)数目减少。每一个滤波器中的非零权重数目通过将滤波器中的数个权重设定为零以引入并且保持滤波器中的其它权重而减小,使得权重的稀疏集合保留在每一个滤波器中。例如,每一个滤波器中的非零权重的数目可以使用阈值处理或者通过在后向传播算法中实施L1-规范最小化而减小,如在下文更详细描述的。在步骤706处,精炼源自步骤704的所近似深入神经网络中的每一个滤波器的其余非零权重。特别地,受监管的训练算法,诸如受监管的后向传播,可以用于通过精炼每一个滤波器的其余非零权重而基于训练数据中的所观察结果来再训练所近似的深入神经网络,其中设定为零的权重限制成保持为零。步骤706可以针对大量迭代重复以精炼非零权重来实现标志检测中的更大精度。在针对图7的方法的可能实现方案中,步骤704可以执行一次以移除每一个滤波器中的大量(例如90%的)非零权重(例如使用阈值处理或者L1-规范最小化),并且然后步骤706可以执行并且可能地重复多次以精炼每一个滤波器中的其余非零权重,从而导致经训练的深入神经网络的最终近似。在另一可能的实现方案中,步骤704和706可以迭代以逐步减小每一个滤波器的非零权重的数目,从而实现权重的稀疏集合。在该实现方案中,步骤704的每一个迭代可以减小每一个滤波器的较小数目(例如10%)的非零权重(使用阈值处理或者L1-规范最小化),并且706的每一个迭代可以精炼(可能地多次)其余非零权重。步骤704和706可以迭代直到达到停止条件。例如,所近似的深入神经网络的精度可以使用训练数据在每一个迭代之后计算,并且当精度降低某一数量时,方法可以停止并且可以使用源自前一迭代的所近似的深入神经网络。还可能的是,这些步骤可以迭代直到每一个滤波器中的目标百分比的权重被设定为零。在可能的实现方案中,可以使用阈值处理来稀疏化网络的权重。特别地,具有每一个滤波器中的最大幅度的某一百分比的权重可以保留,而其余权重设定为零。在可能的实现方案中,大百分比(例如90%或95%)的权重可以在每一个滤波器中设定为零,并且然后可以执行受监管的后向传播的数个迭代(例如30个)以精炼其余非零权重。在另一可能的实现方案中,较小百分比(例如10%)的权重可以设定为零,接着是受监管的后向传播以精炼其余权重,并且这些步骤可以迭代直到每一个滤波器中的目标百分比的权重被设定为零或者直到所近似的深入神经网络的总体精度减小某一数量。为了评估该方案的有效性,本发明人已经在2DMR图像中的左心室(LV)顶点检测中使用该方案。数据集包含来自184个患者的7961个图像,从中采样32*32像素的正和负碎片。75%的碎片被随机选择以用于训练并且其余部分用于测试。相同患者的图像在相同集合内出现多次,但是并非二者。正碎片通过将中心放在剪裁对应图像碎片的所标记地面真实罐体(can)来生成。与LV顶点的地面真实位置远离地采样负碎片。训练堆叠的DAE深入神经网络以用于检测2DMR图像中的LV顶点。DAE的噪音部分设定成50%,即50%的输入像素随机设定为零。经训练的深入神经的层的大小是1024-1024-300-100-2。训练以不受监管的预训练发起并且然后使用受监管的后向传播精炼。表1示出使用通过以不同稀疏因子进行阈值处理而执行的权重稀疏化所生成的深入神经网络的近似的2DLV顶点分类误差。网络误差(%)原始(非稀疏)3.0920%非零(5倍加速)3.0910%非零(10倍加速)3.095%非零(20倍加速)4.075%非零(100倍加速)11.05表1。如表1中所示,可能消除每一个滤波器的系数(权重)的显著部分(例如95%)而不在精度方面损失太多。图8图示了使用由阈值处理所执行的权重稀疏化的经训练的深入神经网络的示例性近似的随机滤波器的可视化。特别地,图8针对2DMR图像中的LV顶点检测示出了其中10%的非零系数保持来自经训练的深入神经网络的原始训练滤波器的稀疏滤波器的可视化。在另一可能的实施例中,权重稀疏化可以使用再加权的L1-规范最小化来执行。某些滤波器对于经训练的深入神经网络的最终分类结果可能是无关的。因而,保持每一个滤波器中固定数目的系数(权重)可能不会产生最佳加速。根据有利的实现方案,后向传播算法(或者其它深入神经网络训练算法)可以用于基于它们对于最终的分类精度多么重要而决定要丢弃哪些系数。在最初训练深入神经网络之后,可以将以下项添加到成本函数,其在后向传播算法中最小化以便促进网络的权重内的稀疏性:其中表示元素形式的相乘并且是矩阵,其系数被计算为:这种再加权方案通过使L1-规范中的每一个系数与近似其幅度的逆的项相乘来减小目标函数的L1-规范幅度的影响。L1-规范的再加权使正则化看起来更像L0-规范正则化,并且将与最终分类结果较不相关的大量权重驱动为零。一旦使用后向传播执行再加权的L1-规范最小化,则后向传播可以再次使用随机梯度下降(即利用原始成本函数)执行以精炼其余非零系数。在可能的实现方案中,使用后向传播的再加权的L1-规范最小化可以执行一次以将经训练的深入神经网络的滤波器中的数个权重驱动为零,并且其余非零权重然后可以利用原始成本函数使用受监管的后向传播来精炼。在另一可能的实现方案中,可以执行再加权的L1-规范最小化的多个迭代以将数个权重驱动为零以及利用原始成本函数使用受监管的后向传播对其余非零权重的精炼。在该情况下,可以执行迭代直到所近似的深入神经网络的精度减少某一数量,并且然后可以使用源自前一迭代的所近似的深入神经网络。本发明人针对2DMR图像中的LV顶点检测测试了使用通过再加权的L1-规范最小化在经训练的深入神经网络上执行的权重稀疏化对经训练的深入神经网络的近似。该方法使用50个精炼迭代实现了60倍加速,其中LV顶点检测问题上的误差率为3.57%。该误差可以随着附加的后向传播事件而甚至更多地减小以进一步精炼其余非零权重的稀疏集合。图9图示了在使用由再加权的L1-规范最小化所执行的权重稀疏化对经训练的深入神经的近似之前和之后的经训练的深入神经网络的示例性滤波器的可视化。如图9中所示,图像(a)示出了具有原始权重的经训练的深入神经网络的滤波器的可视化,并且图像(b)示出了具有简化权重的深入神经的近似的滤波器的可视化。在图9中可以观察到,具有更多结构的滤波器保持更多非零系数,而看起来随机的滤波器具有大多为零的系数。还可以观察到,滤波器具有可变百分比的非零系数而不是固定比例,如在阈值处理的情况中那样。ShrinkConnect:具有分组——稀疏性的函数近似在本发明的这一实施例中,经训练的神经网络的每一个输出层由大概横跨该层的整个输出的相同函数空间的较小函数子集(即层的节点)表示。也就是说,经训练的神经网络的每一个层中的节点数目通过使用该层的较小子集节点的线性组合表示每一个层的节点而减小。由于每一个层的节点数目以及因而每一个层之间的连接数目减小,所以我们将该方法称为“ShrinkConnect”。图10图示了根据本发明的实施例的用于使用函数近似来近似经训练的深入神经网络以减小每一个层中的节点数目的方法。在步骤1002处,训练深入神经网络。例如,使用不受监管的学习阶段(接着是受监管的学习阶段)中的堆叠DAE来训练深入神经网络,如以上结合图1的步骤102所描述的。在步骤1004处,计算最佳地线性近似当前层中的所有节点的经训练的深入神经网络的当前层中的节点子集。假设S表示这样的函数子集的索引。深入神经网络的层中的每一个函数对应于深入神经网络中的节点,并且术语“函数”和“节点”在本文中可互换地使用。出于简单起见,我们将丢弃指示S在网络的层中的依赖性的下标。如果这样的集合存在,则经训练的深入神经网络的特定层的输出可以表述为:左手侧的是特定层处的输出。在右手侧,通过线性地组合小函数(节点)集合(由索引集合S指示)与混合矩阵M来获得等价输出。在实践中,对于有限的训练数据样本集合x而言足以满足该条件:如果对于有限训练样本集合而言满足该条件,则函数子集可以用于针对任何输入再现原始经训练的层中的所有函数的输出,使得:。以上条件可能由于通常存在于图像数据中的各种噪声和伪影而没有完美地满足。然而,大概满足该条件的函数(节点)子集可以被标识。在有利的实现方案中,子集可以通过求解以下优化问题而标识:其中表示为准规范的列稀疏约束实施线性地近似所有输出函数的小函数子集的选择。通过求解优化问题所标识的矩阵M中的非零列的索引的并集等于我们尝试标识的集合S。贪婪算法,诸如同时正交匹配追击,可以用于优化以上成本函数,并且因而标识节点子集,其可以用于表示特定层的节点的整个集合,并且还计算供节点子集使用以近似针对该层的所有输出函数的混合矩阵M。在步骤1006处,调节针对树的经训练深入神经网络的下一层的权重。由于当前层中的输出函数(节点)连接到下一层,所以将当前层中的节点连接到下一层的权重响应于从当前层移除节点而更新。特别地,其索引没有在子集S中的滤波器(权重矩阵)被移除并且然后其余滤波器中的权重如下更新:矩阵M表示每一个输出函数(节点)对函数(节点)的所选子集的线性依赖性。矩阵是由其索引处于中的的列形成的矩阵。矩阵是由其索引处于中的的行形成的矩阵。在步骤1008处,确定经训练的深入神经网络中的所有层的节点是否已经减少。如果确定并非所有层已经减少,则方法进行到步骤1010。如果确定所有层已经减少,则方法进行到步骤1012。在步骤1010处,方法移动到下一层并且返回到步骤1004。步骤1004和1006然后针对下一层重复。因而,方法传播通过经训练的深入神经网络树的每一个层以确定近似该层处的所有节点的输出函数的每一个层中的节点子集并且调节连接层的权重来补偿从每一个层移除的节点。在步骤1012处,一旦经训练的深入神经网络的每一个层已经减少,从而导致经训练的深入神经的近似,则精炼深入神经网络的近似。特别地,受监督的深入神经网络训练算法,诸如受监督的后向传播,可以用于再训练具有针对每一个网络层的节点子集的经训练的深入神经网络的近似,其导致针对每一个层的权重的进一步精炼。在有利的实现方案中,使用受监督的后向传播的精炼的多个迭代可以用于精炼经训练的深入神经网络的近似。本发明人针对LV顶点检测在经训练的深入神经网络上测试了图10的方法。图10的方法的目标是简化经训练的深入神经网络而不会在分类精度方面损失很多。本发明人应用图10的方法以近似经训练的深入神经网络以用于利用简化因子3和5的LV检测,从而导致大小分别为1024-340-100-35-2和1024-200-50-20-2的简化深入神经网络。这应当引起分别关于原始经训练的深入神经网络的3和5倍加速。表2针对原始经训练的深入神经网络、两个简化网络以及类似大小的两个深入神经网络与简化但是从擦除训练的网络示出了LV顶点分类误差的对比。SdA网络大小误差(%)1024-1024-300-100-2(原始)3.091024-340-100-35-2(简化)3.271024-200-50-20-2(简化)4.291024-340-100-35-2(来自擦除)3.821024-200-50-20-2(来自擦除)7.16表2。如表2中所示,分类精度中的降级在简化网络与原始经训练的深入神经网络之间相当小。在表2中还可以观察到,从擦除训练(即不受监督的预训练接着是受监督的精炼)的较小大小的网络比简化网络执行得更差。根据本发明的有利实施例,用于近似经训练的深入神经网络的SparseConnet和ShrinkConnect方法可以组合。SparseConnet和ShrinkConnect方法运用经训练的深入神经网络内的不同类型冗余性。方法彼此补偿并且可以组合以实现甚至更大的加速。例如,在可能的实现方案中,经训练的深入神经网络可以首先使用ShrinkConnect方法近似以减少经训练的深入神经网络的每一个层中的节点数目,接着使用SparseConnect方法(使用阈值处理或者再加权的L1-规范最小化)以在源自应用ShrinkConnect方法的深入神经网络的近似中稀疏化连接每一个层的滤波器中的权重。本发明人使用阈值处理的方案针对权重稀疏化(SparseConnect)测试了该组合方法以便针对2DMR图像中的LV顶点检测来近似经训练的深入神经网络。原始经训练的深入神经网络使用ShrinkConnect方法(函数近似)而简化到1/3并且然后使用SparseConnect方法(权重稀疏化)进一步简化到1/10。作为结果,针对LZ顶点检测以4.54%的误差率实现了原始经训练的深入神经网络的检测速度的30多倍的加速。图11图示了在函数近似和权重稀疏化之后针对2DMR图像中的LV顶点检测的经训练的深入神经网络的近似的示例性滤波器的可视化。如图11中所示,图像1102是在函数近似(ShrinkConnect)之后经训练的深入神经网络的近似的滤波器的可视化,并且图像1104是在除了函数近似之外还执行权重稀疏化(SparseConnect)之后经训练的深入神经网络的近似的滤波器的可视化。如在图11中可以观察到的,在执行ShrinkConnect之后没有看起来随机的滤波器。相比于单独地使用每一个方法而言,这些方法的组合可以产生更有意义的特征。以上所述用于近似经训练的深入神经网络的实施例可以扩展成使得代替简化已经训练的深入神经网络,这些实施例可以用于从训练过程的开始就在深入神经网络中的滤波器上实施结构。例如,可以从训练开始就应用再加权的L1-规范正则化以获得稀疏滤波器。另一可能性是在最小化分类误差的同时最大化滤波器之中的相关性。这可以帮助减小每一个网络层处的输出(节点)的冗余性。还可以使用可替换的方案来移除冗余的滤波器和权重系数。例如,分类精度的灵敏性可以关于每一个滤波器或权重系数的移除而贪婪地检查。在经训练的深入神经网络的总体精度上不具有大影响的那些可以安全地移除。深入神经网络可以在每一个移除之后再训练以便补偿源自丢失节点或权重的扰动。尽管用于近似经训练的深入神经网络的方法在本文中被应用以针对解剖标志检测来近似经训练的深入神经网络以便减少用于使用经训练的深入神经网络在没有看到的图像中检测解剖标志的计算时间,但是本文描述的方法可以类似地用于近似任何经训练的深入神经网络以便执行任何分类任务。以上所述用于解剖标志检测和近似经训练的深入神经网络的方法可以使用公知的计算机处理器、存储器单元、存储设备、计算机软件和其它组件而实现在计算机上。在图12中图示了这样的计算机的高级框图。计算机1202包含处理器1204,其通过执行限定这样的操作的计算机程序指令来控制计算机1202的总体操作。计算机程序指令可以存储在存储设备1212(例如磁盘)中并且在期望执行计算机程序指令时加载到存储器1210中。因而,图1,3,6,7和10的方法的步骤可以通过存储在存储器1210和/或存储装置1212中并且由执行计算机程序指令的处理器1204控制的计算机程序指令来限定。图像获取设备1220,诸如CT扫描设备、MR扫描设备、超声设备等,可以连接到计算机1202以将图像数据输入到计算机1202。可能将图像获取设备1220和计算机1202实现为一个设备。还可能的是,图像获取设备1220和计算机1202通过网络无线通信。在可能的实施例中,计算机1202可以关于图像获取设备1220远程定位,并且方法步骤可以作为基于服务器或云的服务的部分而执行。计算机1202还包括用于经由网络与其它设备通信的一个或多个网络接口1206。计算机1202还包括其它输入/输出设备1208,其使得用户能够与计算机1202(例如显示器、键盘、鼠标、扬声器、按钮等)交互。这样的输入/输出设备1208可以与计算机程序集合结合地使用作为注释工具来注释从图像获取设备1220所接收的体积。本领域技术人员将认识到,实际计算机的实现方案也可以包含其它组件,并且出于说明目的,图12是这样的计算机的一些组件的高级表示。前述详细描述要理解为在每一个方面中都是说明性和示例性而非限制性的,并且本文公开的发明的范围不应从详细描述确定,而是要从权利要求确定,如根据专利法所准许的完整广度来解释的。要理解到,本文示出和描述的实施例仅仅说明本发明的原理,并且本领域技术人员在没有脱离本发明的精神和范围的情况下可以实现各种修改。本领域技术人员可以实现各种其它特征组合而不脱离本发明的精神和范围。当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1