ScienceAI设为星标
第一时间掌握
新鲜的 AI for Science 资讯

编辑 | 紫罗
就在前不久,多伦多大学研究团队发布首个单细胞生物学基础大型语言模型:scGPT,其在超 1000 万个细胞上进行预训练。
现在,该研究团队
首次尝试对超过 3300 万个细胞进行生成预训练来更新 scGPT
论文的通讯作者、多伦多大学助理教授 Bo Wang 在推特激动发文:「令人兴奋的 scGPT 更新:自 4 月份发布以来,受到社区的极大关注,我们很高兴地宣布单细胞多组学数据的基础模型 scGPT 的首次重大更新。」
更新后的研究以「scGPT: Towards Building a Foundation Model for Single-Cell Multi-omics Using Generative AI」为题,于 2023 年 7 月 2 日发布在 bioRxiv 预印平台上。
论文地址:https://biorxiv.org/content/10.1101/2023.04.30.538439
开源代码和模型:https://github.com/bowang-lab/scGPT
详细教程:https://scgpt.readthedocs.io/en/latest/
scGPT 更新的几个亮点
此次更新的亮点包括:
  • 推出第一个针对单细胞多组学数据的 GPT 式基础模型,该模型在超过 3300 万个人类细胞图谱数据上进行了预训练。
  • 其通才方法使一种模型能够完成单细胞分析中的多项任务,包括多组学综合分析和扰动预测。
  • 使用学习的注意力权重和基因嵌入发现特定于各种条件的基因间相互作用。
  • 揭示了随着数据量的增加,模型性能持续增强的 scaling 定律。
  • scGPT model Zoo(参见 github)现在提供多种针对各种实体器官的预训练基础模型和全面的泛癌模型。使用最合适的基础模型开始探索你的数据。
有推特网友评论:「绝对惊人的……好东西!」
怎么做到的呢?
在此,研究人员首次尝试通过对超过 3300 万个细胞进行生成预训练来构建单细胞基础模型 scGPT。研究人员引入新技术来解决大规模单细胞组学数据预训练的方法和工程挑战。
此次更新的 scGPT 模型是在超过 3300 万个细胞进行生成预训练的,而上一次是「超 1000 万个细胞」。
那是怎么做到的呢?
为了处理大规模数据,研究人员使用内存数据结构,可以快速访问存储数百个数据集。专门针对非序列组学数据建立了统一的生成预训练工作流程,并调整 Transformer 架构以同时学习细胞和基因表示。此外,还提供具有特定任务目标的通用管道,用于模型微调,旨在促进预训练模型在一系列下游任务中的应用。
此次更新整合了社区反馈并利用了 CELLxGENE 最新发布的数据。更新的 scGPT 拥有更大的预训练数据和更稳健的模型,并扩展了应用任务的范围。
研究人员从 CELLxGENE 网站检索了超过 1030 万个人类 PBMC scRNA-seq 样本,用于基础模型预训练。通过对生物体(即智人)、组织(即血液、骨髓)和疾病进行过滤,从 CELLxGENE 中收集了总共 65 个数据集。
数据地址:https://cellxgene.cziscience.com/
更新的 scGPT 通过三个关键方面展示了单细胞基础模型的变革潜力。
  • 首先,scGPT 代表了第一个大规模生成基础模型,可实现跨各种下游任务的迁移学习。通过在细胞类型注释、遗传扰动预测、batch 校正和多组学整合方面实现最先进的性能,展示了「普遍预训练,按需微调」作为单细胞组学计算应用的通用解决方案。值得注意的是,scGPT 是唯一可以整合包括 scATAC-seq 数据在内的多个单细胞组学的基础模型。
  • 其次,通过比较微调模型和原始预训练模型之间的基因嵌入和注意力权重,scGPT 揭示了针对特定于各种条件(例如细胞类型和扰动状态)的基因-基因相互作用的有价值的生物学见解。
  • 第三,我们的观察揭示了一个 scaling 定律:较大的预训练数据量可以产生优异的预训练嵌入,并进一步提高下游任务的性能。这一发现突显了基础模型可以随着研究界可用测序数据的扩展而不断改进的令人兴奋的前景。
基于这些发现,采用预先训练的基础模型将极大地扩展研究者对细胞生物学的理解,并为未来的发现奠定坚实的基础。scGPT 模型和工作流程的发布旨在增强和加速这些领域及其他领域的研究。
更新版 scGPT:在超 3300 个细胞上进行预训练
scGPT 作为单细胞领域的第一个基础模型,采用生成预训练方法。核心模型包含具有多头注意力的堆叠 Tansformer 层,可同时生成细胞和基因嵌入。scGPT 包含两个阶段:对大型细胞图集进行初始通用预训练,以及针对特定应用对较小数据集进行后续微调(图 1A-C)。
在预训练阶段,引入了专门设计的注意力掩模和生成训练管道,以自监督的方式训练 scGPT,以共同优化细胞和基因表示。这项创新技术成功解决了基因表达的非序列性质,以适应序列预测的 NLG 框架。
在训练过程中,模型逐渐学习根据细胞状态或基因表达线索生成细胞的基因表达。
在微调阶段,预训练模型可以适应新的数据集和特定任务。研究人员提供灵活的微调流程,适用于单细胞研究中的各种重要下游任务。
图 1:scGPT 模型概述。(来源:论文)
为了收集多样化和广泛的测序数据以用于 scGPT 的自监督预训练,研究人员收集了通过 CELLxGENE 集合获得的 3300 万条正常(非疾病)条件下人类细胞的 scRNA-seq 数据(图 1D) 。这个全面数据集涵盖了来自 51 个器官/组织和 441 项研究的多种细胞类型,提供了整个人体细胞异质性的丰富表现。
预训练后,使用 UMAP 可视化技术将 3300 万个数据中 10% 的人类细胞上的 scGPT 细胞嵌入可视化(图 1E)。由此产生的 UMAP 图表现出很好的清晰度,局部区域和簇的细胞类型通过不同的颜色准确表示。鉴于数据集中包含 400 多项研究,这证明了预训练在减轻技术批次效应方面的卓越能力。
研究结果表明,scGPT 可以有效地提炼有关基因和细胞的关键生物学见解。通过进一步适应迁移学习,可以优化 scGPT,以以在各种下游任务中实现最先进的性能,包括 multi-batch 整合、多组学整合、细胞类型注释、遗传扰动预测和基因网络推断。
对于未来,研究人员计划在更大规模、更多样化的数据集上进行预训练。
参考内容:https://twitter.com/BoWang87/status/1676056025072320512
人工智能 × [ 生物 神经科学 数学 物理 化学 材料 ]
「ScienceAI」关注人工智能与其他前沿技术及基础科学的交叉研究与融合发展
欢迎注标星,并点击右下角点赞在看
点击读原文,加入专业从业者社区,以获得更多交流合作机会及服务。
继续阅读
阅读原文