基于对抗自动编码器的单细胞RNA测序聚类方法与流程

文档序号:22550734发布日期:2020-10-17 02:26阅读:627来源:国知局
基于对抗自动编码器的单细胞RNA测序聚类方法与流程

本说明书一个或多个实施例涉及rna测序技术领域,尤其涉及一种基于对抗自动编码器的单细胞rna测序聚类方法。



背景技术:

单细胞rna测序(scrna-seq)技术的进步使其能通过提供比常用批量rna测序更高的分辨率的转录组个体细胞差异解决方案,彻底改变了转录组学研究。该技术使研究人员能够系统地研究细胞异质性,细胞发育轨迹以及跨大量细胞的肿瘤亚群的分类,而无监督聚类是分析scrna-seq以实现上述任务的重要步骤。只有在聚类后,才能识别细胞类型,之后研究人员才能进一步描绘细胞功能状态并推断潜在的细胞动力学。

尽管聚类是传统的机器学习研究的领域之一,并且已经有一些代表性的方法,例如k均值和谱聚类等,但是由于scrna-seq原始数据中的基因表达值的缺失,对这种数据的聚类分析仍然是一个挑战。这种数据缺失指的是存在一些错误的零计数,这可能是由于低测序深度和其他技术中的噪音或技术水平限制从而导致基因计数矩阵中没有记录的数据。如图1所示,不同的热力图颜色表示不同的基因表达水平(基因计数矩阵中的值)。显然,细胞中的大多数基因表达水平非常低,只有少数基因表达超过0。因此,这种缺失使scrna-seq数据非常稀疏,让传统的聚类方法无法很好地处理该数据。为了缓解这个问题,当前已经提出了几种针对scrna-seq数据的特定聚类算法,包括snn-clip,simlr和mpssc。但是,它们在大型数据集上的计算成本很高,并且聚类性能仍然较差。



技术实现要素:

有鉴于此,本说明书一个或多个实施例的目的在于提出一种基于对抗自动编码器的单细胞rna测序聚类方法,以解决聚类性能较差的问题。

基于上述目的,本说明书一个或多个实施例提供了一种基于对抗自动编码器的单细胞rna测序聚类方法,包括以下步骤:

利用基于深度技术自动编码器方法的零膨胀负二项分布特定损失函数对输入的数据进行数据重建,得到无噪音数据,并构建一个由编码器,中间隐藏层和解码器三部分构成的自动编码器框架,利用自动编码器的中间隐藏层中学习到隐藏层特征向量;

利用对抗自编码器对隐藏层特征向量的先验分布进行约束,将隐藏层特征向量的聚合后验与先验分布进行匹配;

使用负二项分布特定损失函数作为重建损失函数,并使用改进深度嵌入聚类进行聚类,计算聚类损失;

联合优化约束特征的重建损失和聚类损失,迭代地更新聚类标签分配。

优选地,利用基于深度技术自动编码器方法的零膨胀负二项式分布损失函数对输入的数据进行数据重建,得到无噪音数据包括,

通过负二项式分布的均值和离散度以及代表数据缺失概率的附加系数估算零膨胀负二项式分布损失函数:

zinb(x|π,μ,θ)=πδ0(x)+(1-π)nb(x|μ,θ)

其中μ表示负二项式分布的均值,θ表示离散度,π表示数据缺失概率的附加系数,zinb表示零膨胀负二项式分布损失函数;

将零膨胀负二项式分布损失函数作为重建损失函数对输入的数据进行数据重建,得到无噪音数据。

优选地,利用对抗自编码器对隐藏层特征向量的先验分布进行约束包括:

在自动编码器的中间隐藏层顶部添加一个判别器,将自动编码器修改为对抗自编码器;

将编码器函数和解码器函数分别定义为其中z表示隐藏层的特征,权重we和wd分别是编码器和解码器中的待学习参数;

将自动编码器中间隐藏层的潜在特征和来自先验分布的一组相同维度大小的真实样本输入判别器,利用二进制交叉熵损失来训练和更新参数,其中ld代表判别器的损失函数:

将自动编码器作为生成器进行训练,以混淆判别器,并让判别器判断编码器生成的输入样本为真实样本;

其中lg代表判别器的损失函数,zi表示真实样本,d表示判别器,si表示自动编码器中间隐藏层的潜在特征;

优选地,在利用二进制交叉熵损失来训练和更新参数之前,方法还包括:

将零均值高斯随机噪声添加到编码器的每一层,使模型更健壮。

优选地,使用负二项分布特定损失函数作为重建损失函数,并使用idec进行聚类,计算聚类损失包括:

将解码器的最后一层替换为三个独立的全连接层,且三个独立的全连接层的维度与输入数据相同,解码器的架构为:

de=gwd(h)

φ=sigmoid(wπde)

其中,h表示瓶颈层的输出,wm,wπ和wθ分别代表最后三个全连接层中的待学习参数。尺度因子sf是一个独立的生物学变量,由原始数据的库大小和细胞中位数计算得出;

zinb分布的重建损失函数是zinb分布的负对数变换

lr=-log(zinb(x|π,μ,θ))

在辅助目标分布p和样本特征中软聚类标签的分布q之间的kl散度计算得到聚类损失,

优选地,本方法还包括:

联合优化约束特征的重建损失和聚类损失,迭代地更新聚类标签分配,模型的目标函数定义为

l1=lr+lg

相对于聚类中心μj和隐藏层特征样本zi的lc的梯度计算如下

在聚类过程中,聚类中心μj通过以下方式更新

从上面所述可以看出,本说明书一个或多个实施例提供的基于对抗自动编码器的单细胞rna测序聚类方法,综合了特定生物噪声建模,变异推断和深度聚类建模的优势。我们的模型约束了数据结构,并通过aae模块进行聚类分析。在三个真实的scrna-seq数据集上进行的实验表明,与最新技术在聚类准确度,标准化互信息和调整兰德系数三个指标上相比,本方法的聚类性能都要好得多。

附图说明

为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为背景技术中的scrna-seq聚类任务示意图;

图2为本说明书一个或多个实施例的基于对抗自动编码器的单细胞rna测序聚类方法流程示意图;

图3为本说明书一个或多个实施例的aae-sc模型结构示意图;

图4为本说明书一个或多个实施例的aae-sc模型聚类效果图;

图5为本说明书一个或多个实施例的scdeepcluster模型聚类效果图;

图6为本说明书一个或多个实施例的dca模型聚类效果图;

图7为本说明书一个或多个实施例的network-128超参数选择实验结果图;

图8为本说明书一个或多个实施例的network-256超参数选择实验结果图;

图9为本说明书一个或多个实施例的network-64超参数选择实验结果图。

具体实施方式

为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,对本公开进一步详细说明。

需要说明的是,除非另外定义,本说明书一个或多个实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本说明书一个或多个实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。

本说明书一个或多个实施例公开了一种基于对抗自动编码器的单细胞rna测序聚类方法,并提出一种aae-sc(基于对抗自动编码器的scrna-seq聚类框架)。

早期的研究人员应用传统的聚类算法来分析scrna-seq数据。snn-clip通过基于图社区发现算法来识别紧密连接的细胞群。它利用共享最近邻的概念来计算细胞相似度从而来发现潜在的社区。在这之后,研究人员提出了几种基于k均值的算法。raceid利用k均值来揭示稀有肠道细胞类型的异质性。saic运用迭代k均值(k-means)来识别将单个细胞分为不同簇的特征基因的最佳子集。但是,由于k-means是一种贪婪算法,因此这些方法可能无法找到其全局最优值。此外,k均值对异常值非常敏感,因为它倾向于识别球形簇,导致检测稀有细胞类型可能会发生失败。为了克服上述缺点,raceid2用k-medoids聚类替换了k均值算法,后来改进的版本raceid3添加了随机森林算法以改善聚类的准确性。一些学者还试图通过谱聚类法确定细胞群的多样性。simlr使用高斯核和辅助谱聚类来学习更好的距离度量,以对scrna-seq的特殊稀疏结构进行建模。此外,simlr可以处理噪声较大的大规模数据集。mpssc创新地使用了l1惩罚来通过多核谱聚类来表征数据的稀疏性。

sinnlrr在细胞的相似矩阵上施加非负和低秩结构,然后利用谱聚类来检测细胞类型。

尽管这些方法提高了在scrna-seq数据上的聚类性能,但是它们通常扩展性不强,在处理大规模数据集时需要巨大的计算资源和空间。一些使用louvain算法检测社区的可扩展工具(如seurat和scanpy)在大规模数据集上的时间复杂度较低,但它们可能找不到较小的细胞集群簇,因此降低了聚类的准确性。

最近,深度学习在生物信息学的许多领域都取得了重大突破。在所有深度学习技术中,自动编码器是迄今为止最受欢迎的无监督算法之一。当前已经有许多自动编码器方法旨在更有效和准确地处理scrna-seq数据。lin等人尝试通过具有先验生物学知识的神经网络来减少scrna-seq数据的大小。scscope使用堆叠式自动编码器来构建递归模型,并进行批量效应去除,数据缺失归因和细胞亚群鉴定。talwar等人受到自动编码器在稀疏矩阵插补在推荐系统的协同过滤中的最新成功的启发而提出了autoimpute,该方法也基于自动编码器,通过关注输入稀疏矩阵中的非零信息,利用自动编码器来重新生成估算表达式矩阵。随后,诸如vasc和scvis之类的一些算法都利用变分自动编码器(vae)来表征scrna-seq的数据结构。vasc对数据缺失问题进行了建模,并试图找到原始数据的非线性分层特征表示,而scvis推断了低维潜在变量的近似后验分布,并因此学习了从高维空间到低维嵌入的参数映射。

推断模型dca(深度技术自动编码器)将传统自动编码器的重建损失调整为基于zinb模型的特殊损失函数,该算法在输出层构造了一个带有三个神经元节点的去噪自动编码器,分别代表去噪数据的平均值和zinb分布的两个参数。它对scrna-seq数据特殊的稀疏结构进行建模并推断了scrna-seq数据的数据缺失事件。scdeepcluster(sc深度聚类)在dca的基础上,添加了一个额外的深度聚类层,该层来自改进深度嵌入聚类算法(idec),并且在预训练dca之后可以迭代地更新聚类簇分配。scdeepcluster在聚类任务方面的性能优于dca,并成为scrna-seq聚类任务中的最先进方法。

在本说明书中,首先对本方法的基准模型scdeepcluster进行介绍。

scdeepcluster具有特定zinb损失函数的dae(去噪自动编码器)和idec层组成。为了使自动编码器更鲁棒,dae将额外的高斯噪声添加到输入样本中,并尝试从带噪音的数据中重建原始的输入数据。在dae中,编码器和解码器均由全连接层组成,这些层的宽度与原始数据维度相比是低维的。通过重建无噪音的数据,dae中间的隐藏层就可以学习有效的低维数据特征表示。尽管学界通常的做法是利用均方误差(mse)损失来完成传统ae(自动编码器)和dae中的数据重建过程,但scrna-seq数据太稀疏,以致mse损失无法很好地重建原始数据。因此,scdeepcluster利用基于dca方法的zinb分布特定损失函数来进行数据重建。这种分布已经显示了其对高度稀疏和过度分散的数据进行建模的有效性。zinb可以通过负二项式分布的均值μ和离散度θ以及代表数据缺失概率的附加系数π来估算:

其中x代表原始输入数据。scdeepcluster在解码器的末端使用三个独立的全连接层来估计上述参数。

zinb(x|π,μ,θ)=πδ0(x)+(1-π)nb(x|μ,θ)

为了更好地进行聚类,scdeepcluster还采用了idec的深度聚类方法,而不是直接使用传统的聚类算法(例如k-means)。从dae的隐藏层获取低维的数据特征后,scdeepcluster使用与idec相同的聚类方法。该方法首先计算样本特征中软聚类标签的分布q,然后基于q定义辅助目标分布p。最后,聚类损失定义为p和q之间的kullback-leibler(kl)散度,如下所示:

其中qij是样本zi的软标签。此变量用于通过学生t分布来衡量样本zi和聚类中心μj的相似性。之后,scdeepcluster迭代地使用自训练策略来计算具有先前qij的辅助目标分布pij。

除了在scdeepcluster的基础上使用特殊的先验zinb分布对解码器输出的重建数据进行建模外,我们还约束dae中间隐藏层特征的先验分布,以保留潜在的数据结构并生成更适合后续聚类的特征。近期的研究通常使用像aae(对抗自动编码器)这样的变分推理来将自动编码器潜在特征的聚合后验与任意先验分布进行匹配,并且已被证明在许多领域都是有效的。因此,我们通过在中间隐藏层顶部添加一个判别器d从而将scdeepcluster中的dae修改为aae,并使用原始的编码器作为生成器。

基于scdeepcluster中dae的实现,输入数据被一个零均值高斯随机噪声所扰乱,我们将编码器和解码器函数定义为其中z表示隐藏层的特征。权重we和wd分别是编码器和解码器中的待学习参数。除了在原始数据上添加噪声进行扰动外,我们还将零均值高斯随机噪声添加到编码器的每一层,并使模型更健壮。

类似于生成对抗网络(gan),aae在自动编码器上使用对抗训练自动编码器和判别器,以将隐藏层特征向量的聚合后验与先验分布进行匹配,目的是学习更好的映射功能和隐藏层中间特征。aae的附加判别器也由全连接层组成,其最后一层的输出维度设置为1,以确定输入样本的真实性。判别器的输入是dae中间隐藏层的潜在特征,以及来自先验分布的一组相同维度大小的随机采样数据。从先验分布生成的数据是真实数据,其标签设置为1,而潜在特征的标签设置为0,并被视为伪数据。判别器网络利用二进制交叉熵损失来训练和更新参数:

与具有独立生成器的gan结构不同,对抗自动编码器将原来自动编码器的编码器部分作为生成器进行训练,以混淆判别器d,并让d判断编码器生成的输入样本为真实样本:

经过上述的对抗训练过程,隐藏层特征就可以与规定的先验分布对齐,整个aae框架很好地学习了输入数据到低维特征空间的映射,并适用于之后的聚类分析。

除了通过aae进行数据分布的推断外,我们的方法还使用zinb损失作为重建损失函数,并使用idec层进行之后的聚类。为了估计上面的zinb分布的三个参数,我们将解码器的最后一层替换为三个独立的全连接层,并且它们的维度与输入数据相同。因此,解码器的架构如下所示(h表示aae-sc中瓶颈层的输出):

de=gwd(h)

φ=sigmoid(wπde)

其中wm,wπ和wθ分别代表最后三个全连接层中的待学习参数。尺度因子sf是一个独立的生物学变量,由原始数据的库大小和细胞中位数计算得出。zinb分布的重建损失函数是zinb分布的负对数变换:

lr=-log(zinb(x|π,μ,θ))

aae-sc在aae的隐藏层之上还具有一个idec层用来聚类。我们按照文献上的描述进行设置,其聚类损失是通过在p和q之间的kl散度计算得出的,如下所示:

本方法的模型有两个训练阶段:1)对抗训练和重建阶段的结合,旨在在重建在噪音的原始数据的同时约束隐藏层编码的先验分布。2)联合优化上述约束特征的重建损失和聚类损失,并迭代地更新聚类标签分配。模型的目标函数定义如下:

l1=lr+lg

其中α是一个聚类系数,用于调整聚类损失以避免聚类空间失真。对应于l1和l2的预训练阶段的损失表示聚类过程中的目标函数。

l2=lr+αlc

上述损失函数均可以通过随机梯度下降(sgd)和反向传播来优化和更新所有三个部分的参数。

具体来说,如ijcai,2017,pp.1753–1759中的文献《improveddeepembeddedclusteringwithlocalstructurepreservation》和internationalconferenceonmachinelearning,2016,pp.478–487中的文献《unsuperviseddeepembeddingforclusteringanalysis》中预训练阶段的损失表示聚类过程中的目标函数所述,相对于聚类中心μj和隐藏层特征样本zi的lc的梯度可以计算如下:

在聚类过程中,聚类中心μj通过以下方式更新:

在本部分中,我们将aae-sc与其他最新的scrna-seq聚类方法分为两大类进行定量比较:传统聚类模型和深度学习模型。

(一)数据集概述

我们在来自不同测序平台的三个真实scrna-seq数据集上评估了所提出的aae-sc模型。本文使用的所有数据集都是公开可用的数据集的统计信息汇总在表1中。详细信息如下表1所示:

表1

10xpbmc:此数据集是从10xscrna-seq平台下载的。它测量从健康供体收集的外周血单个核细胞的转录组。数据集中有4000多个具有16,000个基因的细胞。该数据集具有8个不同的细胞集群。

小鼠膀胱细胞(mousebladdercells):此数据集来自期刊cell,vol.172,no.5,pp.1091–1107,2018的文献《mappingthemousecellatlasbymicrowell-seq》中的mousecellatlas项目。我们从总共40万个单细胞数据中选择小鼠的膀胱组织细胞数据,它们可以分为16个不同的细胞集群。

蠕虫神经元细胞(wormneuroncells):它是由sci-rna测序平台分析的蠕虫细胞数据集。先前的研究人员已经在l2幼虫阶段测量了约50,000个来自线虫的细胞,并确定了相应的细胞类型。按照期刊science,vol.357,no.6352,pp.661–667,2017题为《comprehensivesingle-celltranscriptionalprofilingofamulticellularorganism》的文献中的方法,我们选择这些神经细胞的子集并删除未标记的个体。因此,我们使用的数据集由4186个细胞和超过10,000个基因组成。该数据集共有10个不同的细胞集群。

(二)对比算法概述

为了评估我们提出的aae-sc的性能,我们将其与以下八种算法进行比较,它们都是传统聚类方法和基于深度学习的方法中的代表性工作。这些方法的说明如下:

pca+k-均值:此方法首先利用pca(主成分分析)来减少原始高维数据的维度,然后使用k均值将类标签分配给每个数据点。

simlr:该算法采用多核学习来获取合适的距离度量,该距离度量可以对scrna-seq数据的稀疏性进行建模。

mpssc:mpssc尝试通过使用l1惩罚约束稀疏性并利用多核学习来进行分析。

dec:dec是一种使用深度学习方法解决聚类任务的开创性方法。

idec:idec通过共同优化重建损失和聚类损失来对dec进行改进。

scvis:scvis利用深度生成模型vae来学习scrna-seq的潜在数据特征

dca:dca扩展了具有特定zinb损失函数的传统dae,作为新的重建损失来表征scrna-seq中的数据缺失问题。

scdeepcluster:该算法通过在dca的基础上添加一个额外的idec层来改进聚类任务的表现。该方法也是我们的aae-sc的基准模型。

(三)评价指标

在我们的实验中,使用三个指标聚类准确度(acc),标准化互信息(nmi)和调整兰德系数(ari)来评估aae-sc模型,这三个指标被广泛用于无监督学习场景的模型性能评价中。

acc(聚类准确度):acc用于测量分配给样本的聚类标签及其真实标签的匹配程度。给定样本i,分配标签pi及其基本标签ti,acc的计算公式为:

其中n是样本点的数量,map(·)表示分配的标签和真实标签之间的最佳映射。这个指标的计算可以通过带有多项式时间的匈牙利算法来解决。

nmi(标准化互信息):nmi从信息论的角度衡量两个聚类簇的相似性。它定义为:

其中i(t,p)表示真实标签t和模型预测的分配标签p之间的互信息。h(·)表示标签的熵。n是批处理样本的大小。

ari(调整兰德指数):ari通过计算从原始ri(兰德指数)改善的配对关系来评估两个聚类结果之间的相似性。给定真实标签t和预测的聚类标签分配p,我们首先计算四个数学量:

a:在t和p中被分为相同簇的样本对的数量。

b:在t和p中被分成不同簇的样本对的数量。

c:在p中被划分为相同簇但在t中被划分为不同簇的样本对的数量。

d:在p中分为不同簇但在t中相同的样本对的数量。

然后ari定义为:

acc和nmi的取值范围均为[0,1],而ari的取值范围为[-1,1]。对于所有三个指标,都是得分越高表明聚类结果越准确。

(四)参数设置

在实验中,我们使用与基准模型scdeepcluster相同数量的层来构建aae-sc网络架构。我们将编码器网络尺寸设置为input-128-64-32,其中input代表输入数据的尺寸,解码器与编码器具有对称结构。此外,我们构建了尺寸为32-128-64-32-1的判别器网络。鉴别器的最后一层的激活函数为sigmoid,而其他全连接层的输出均由relu激活。在预训练阶段,我们对所有数据集使用优化器adam,其学习率为0.001,在之后的聚类阶段,我们应用优化器adadelta并将学习率设置为1.0。

在本文中,我们使用标准正态分布n(0,1)作为先验分布来对齐隐藏层的数据特征。aae-sc模型的全连接层中的所有权重均使用glorot均匀方法进行初始化。我们首先通过300次迭代对整个模型进行预训练,然后开始聚类阶段。在下一节中,我们将进行额外的实验来确定参数α的更合适的值。其余的超参数设置与scdeepcluster相同。

(一)定量分析

表2中总结了各算法在三个真实scrna-seq数据集的聚类表现。

表2

我们首先将模型与三种传统方法进行比较:pca+k均值,simlr和mpssc。pca+k均值算法被认为是聚类领域中一种经典的传统方法,与这种方法相比,aae-sc具有巨大的优势,在所有三个数据集上总体提高了17%-32%。由于pca方法仅专注于减小数据的维数,而未提取有效的聚类特征,因此导致最终聚类效果不佳。通过采用谱聚类的方法,simlr和mpssc相对于pca+k均值方法取得了显著的性能提高。尽管频谱聚类比普通的pca+k均值方法更好,但是simlr无法有效地建模scrna-seq数据中存在的大量噪声和数据缺失事件。mpssc在谱聚类的基础上增加了一个额外的l1惩罚损失,因此其性能优于simlr。但是,这种人为设计的约束不能完全模拟scrna-seq数据的基本特征。结果,它们的性能也不如我们提出的aae-sc。

dec和idec是使用自动编码器进行聚类的早期深度学习方法。在idec中,保留了解码器结构以用于dec的后续聚类,所以可以很明显的观察到,idec在所有三个数据集上的性能均优于dec。但是,由于scrna-seq数据与传统图像数据有很大不同,并且这两种算法不是专门针对scrna-seq数据聚类的任务而设计的,因此它们在此类数据上的实验结果甚至比传统的mpssc方法还要差。另一方面,尽管dca和scvis分别通过特定的zinb损失和方差推断模型vae来建模scrna-seq数据,但它们都忽略了利用深度聚类的优势去进行聚类分析。因此,它们只能达到与传统谱聚类算法相似的性能,而不能反映出深度学习处理大数据的能力。

我们的基准模型scdeepcluster遵循dec和idec的方法来添加了一个额外的深度聚类层,该层连接了dca模型的隐藏层。这样,scdeepcluster不仅可以通过zinb损失有效地建模和描述scrna-seq数据,而且可以通过深度聚类层增强后续聚类任务的效果,因此它优于上述的所有方法,成为之前的最先进算法。与scdeepcluster相比,我们改进的模型约束了隐藏层的数据特征,以防止在特征学习和聚类过程中造成数据结构失真,并且可以在10xpbmc和小鼠膀胱细胞上显示出明显的聚类性能改进。特别是在10xpbmc的实验中,我们的模型在acc和ari指标上都比原始scdeepcluster高出约5%。这表明在隐藏层中保持数据结构的重要性,而aae确实可以提高聚类的表现。

如上所述,通过在dca上添加额外的深度聚类层来改进scdeepcluster,然后我们的aae-sc使用aae来约束scdeepcluster的隐藏层特征。为了更直观地评估aae-sc的聚类效果和有效性并与这两种基准方法相比,我们使用tsne方法可视化aae-sc,scdeepcluster和dca在10xpbmc数据集上的隐藏层数据特征表示。

在图4-图6中可以明显地看到,dca中同一细胞集群中的样本不能很好地聚集,而利用额外的群集层,scdeepcluster的聚类效果明显优于dca。尽管scdeepcluster使相似的细胞紧凑分布并变得密集,但是它无法很好地分隔一些不同的细胞集群(例如群集1&7和群集2&3)。我们的aae-sc克服了以上问题,并将细胞样本很好地分为不同的集群,这将对后续的生物学分析非常有益。

我们要进一步研究聚类系数α对聚类效果的影响。我们的目标是找到一个合适的α值,以便改良最终的聚类效果。此外,我们希望我们的最终模型不会对系数α的变化过于敏感。也就是说,模型的性能不应随α的变化而波动太大。因此,我们还研究了不同网络宽度对模型性能的影响,特别的,我们更改了对抗自动编码器网络第一层的宽度,以观察参数变化所带来的振荡和影响。

我们对数据集10xpbmc进行了额外的实验,以研究系数α和网络宽度对聚类效果的影响。如图7-图9所示,α的值是从[1.0,1.1,1.2,1.3,1.4,1.5]中采样的,三个网络的对抗自动编码器的第一和对称的最后一层设置为64,128和256。值得一提的是,256与我们的基准模型scdeepcluster的设置相同。从图4可以直观地看到,network-128(在第一层和最后一层有128个节点)比其他两个网络具有更好的性能,并且当α达到1.5时,network-128在实验中的所有三个指标均达到最佳性能。我们还可以观察到,该网络对α的变化不是很敏感,并且三个指标的波动性也不是很大。至于中间子图的network-256,nmi指标的值对α的变化非常敏感,显示出很大的波动性。我们还尝试进一步减小网络的宽度,即第一层的宽度变为64(这与网络中第二层的宽度相同),但结果表明它无法达到良好的性能与原始network-256和我们选择的network-128相同。此外,这三个指标在实验过程中均显示出巨大的波动。因此,我们建议选择α到1.5,并采用轻量级网络,在aae-sc模型中将第一层和最后一层的宽度减小到128。

可见,本方法提出的aae-sc,这是一种面向单细胞rna-seq数据的聚类模型,该模型综合了特定生物噪声建模,变异推断和深度聚类建模的优势。我们的模型约束了数据结构,并通过aae模块进行聚类分析。在三个真实的scrna-seq数据集上进行的实验表明,与最新技术在三个评价指标(聚类准确度,标准化互信息和调整兰德系数)上相比,aae-sc的聚类性能都要好得多。

所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本说明书一个或多个实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。

另外,为简化说明和讨论,并且为了不会使本说明书一个或多个实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(ic)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本说明书一个或多个实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本说明书一个或多个实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本公开的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本说明书一个或多个实施例。因此,这些描述应被认为是说明性的而不是限制性的。

本说明书一个或多个实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本说明书一个或多个实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本公开的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1