Id
int64
1
15
Title
stringclasses
13 values
Content
stringclasses
13 values
View
int64
0
0
PublishTime
int64
0
0
Site
stringclasses
1 value
1
Meta打造首个「蛋白质宇宙」全景图!用150亿参数语言模型,预测了6亿+蛋白质结构-阿里云开发者社区
Meta在蛋白质结构的探索上又前进了一步!这次他们瞄准的是更大的目标领域:宏基因组学。 蛋白质宇宙的「暗物质」 根据NIH人类基因组研究所的解释,宏基因组学(Metagenomics,又译宏基因组学)研究从大宗样品中的所有生物体(通常是微生物)中分离和分析的整个核苷酸序列的结构和功能,通常用于研究特定的微生物群落,比如居住在人类皮肤上、土壤中或水样中的微生物身上的蛋白质。在过去的几十年里,随着我们对生活在人类体内、身上以及环境中的所有微生物有更多的了解,宏基因组学一直是一个非常活跃的领域。由于宏基因组学的研究对象无所不包,远远超过了构成动植物生命的蛋白质,可以说是地球上最不为人知的蛋白质。为此,Meta AI用上了最新的大型语言模型、打造了一个超过6亿个宏基因组结构的数据库,并提供一个API,让科学家轻松检索与工作相关的特定蛋白质结构。 论文地址: https://www.biorxiv.org/content/10.1101/2022.07.20.500902v2 Meta表示,解码宏基因组结构,有助于解开长期存在的人类进化史之谜,帮助人类更有效地治愈疾病、净化环境。 蛋白质结构预测,提速60倍! 宏基因组学主要研究如何从所有这些在环境中共存的生物体中获得DNA,这有点像一盒拼图,但并不只是一盒拼图,实际上是所有10组较小的拼图堆在一起,放在一个盒子里。宏基因组学同时获取这10种生物的基因组时,实际上是试图同时解决10个谜题,了解同一个基因组盒子里的所有不同的拼图。正是这种结构和生物作用的未知性,通过宏基因组学发现的新蛋白质,甚至可以称为蛋白质宇宙的「暗物质」。 近些年,基因测序方面的进步让编目数十亿宏基因组蛋白质序列成为可能。然而,尽管已经知道这些蛋白质序列的存在,但想要进一步了解它们的生物学特性,却是一个巨大的挑战。 为了要得到这些数以亿计的蛋白质序列结构,预测速度的突破是至关重要的。这个过程,即便是用目前最先进的工具,再搭上一个大型研究机构的计算资源,也可能需要数年时间。于是,Meta训练了一个大型语言模型,来学习进化模式,并直接从蛋白质序列中端到端地生成准确的结构预测,在保持准确性的同时,预测速度比当前最先进的方法快60倍。事实上,借助于这种新的结构预测能力,Meta在短短两周内用一个由大约2000个GPU组成的集群上,预测出了图谱中超过6亿个宏基因组蛋白质的序列。 Meta发布的宏基因组图谱名为ESM Atlas,几乎涵盖了整个宏基因组序列公共数据库MGnify90的预测。Meta表示,ESM Atlas是迄今为止最大的高分辨率预测结构数据库,比现有蛋白质结构数据库大3倍,而且是第一个全面和大规模地覆盖宏基因组蛋白质的数据库。这些蛋白质结构为了解自然界的广泛性和多样性提供了一个前所未有的视角,并有可能加速发现蛋白质在医学、绿色化学、环境应用和可再生能源等领域的实际应用。此次用于预测蛋白质结构的新语言模型拥有150亿个参数,是迄今为止最大的「蛋白质语言模型」。这个模型实际上是Meta今年7月发布的ESM Fold蛋白质预测模型的延续。在当初ESMFold发布时,已经和AlphaFold2、RoseTTAFold等主流蛋白质模型不相上下。但ESMFold预测速度要比AlphaFold2快一个数量级!一下说数量级可能不好理解三者之间速度的对比,看看下面这张图就懂了。 而这次ESM Atlas数据库的发布,更是让150亿参数的大语言模型有了最广泛的用武之地。由此,科学家便可以在数亿个蛋白质的规模上搜索和分析以前没有被定性的结构,并发现在医学和其他应用中有用的新蛋白质。 语言模型,真是「万能」的 就像文本一样,蛋白质也可以被写成字符序列。其中,构成蛋白质的每个「字符」都对应于20个标准化学元素之一——氨基酸。而每个氨基酸又都有不同的特性。但想要读懂这种「生物学语言」是个很大的挑战。 虽然就像刚刚说的,蛋白质序列和一段文字都可以写成字符,但它们之间却存在着深刻而根本的区别。一方面,这些「字符」的不同组合方式的数量是个天文数字。例如,对于由200个氨基酸组成的蛋白质,有20^200种可能的序列,比目前可探索的宇宙中的原子数量还要多。另一方面,氨基酸的每个序列都会根据物理定律折叠成一个三维形状。而且,不是所有的序列都会折叠成连贯的结构,其中有很多会折叠成无序的形式,但正是这种让人捉摸不透形状决定了蛋白质的功能。举个例子,如果一个位置出现了某种氨基酸,而这种氨基酸通常又会与另一个位置的某种氨基酸配对。那么,在之后的折叠结构中,它们就很可能存在相互作用。而人工智能,便可以通过观察蛋白质序列来可以学习和阅读这些模式,进而推断出蛋白质的实际结构。在2019年,Meta提出了语言模型学习蛋白质属性的证据,例如它们的结构和功能。 论文地址: https://www.pnas.org/doi/10.1073/pnas.2016239118 利用掩膜这种自监督学习形式训练的模型,可以正确地填补一段文字中的空白,如「要不要__,这是________」。通过这种方法,Meta在数百万天然蛋白质序列的基础上上训练了一个语言模型,从而实现了填补蛋白质序列中的空白,如「GL_KKE_AHY_G」。实验表明,这种模型经过训练,可以发现关于蛋白质的结构和功能的信息。2020年,Meta发布ESH1b,这是当时最先进的蛋白质语言模型,目前已被用于各种应用,包括帮助科学家预测新冠病毒的进化,以及发现遗传病的病因。 论文地址: https://www.biorxiv.org/content/10.1101/2022.08.25.505311v1 现在,Meta扩大了这种方法的规模,创建了下一代蛋白质语言模型ESM-2,这是一个150亿参数的大模型。随着模型从800万个参数扩展到1500万个参数,内部表征中出现的信息能够在原子分辨率下进行三维结构预测。 读懂「蛋白质语言」,让生命更透明 从几十亿年前起,生物的进化就形成了一种蛋白质语言,这种语言可以通过简单的构件形成复杂而动态的分子机器。学习阅读蛋白质的语言是我们理解自然界的一个重要步骤。AI可以为我们提供理解自然世界的新工具,就像显微镜一样,让我们以几乎无限小的尺度来观察世界,并开启了对生命的全新理解。AI可以帮助我们理解自然界多样性的巨大范围,并以一种新的方式看待生物学。目前,大部分的AI研究都是让计算机以类似于人类的方式来理解世界。蛋白质的语言是人类无法理解的,甚至最强大的计算工具也无法理解。所以,Meta的这项工作的意义在于揭示了AI在跨领域时的巨大优势,即:在机器翻译、自然语言理解、语音识别和图像生成方面取得进展的大型语言模型,也能够学习有关生物学的深刻信息。此次Meta公开这项工作,分享数据和成果,并以他人的见解为基础,希望这个大规模结构图集和快速蛋白质折叠模型的发布,可以推动进一步的科学进步,使我们更好地了解周围的世界。 参考资料: https://ai.facebook.com/blog/protein-folding-esmfold-metagenomics/?utm_source=twitter&utm_medium=organic_social&utm_campaign=blog
0
0
Ali
2
浙大团队基于ML的抗菌肽筛选模型,可识别整个肽库空间发现新药-阿里云开发者社区
前言 近期,结合机器学习技术的相关研究在生物技术领域取得了巨大的成功。抗菌肽作为一个对抗细菌耐药性的潜在有效材料,其发掘与临床测试成为了研究的热点。其中,具有序列多样性的多肽分子构成了一个超大规模的潜在治疗药物的候选库。通过噬菌体、核糖体展示等高通量技术,可以实现  条序列的功能识别。但是在最先进的实验技术的加持下,为发现新药而识别整个肽库空间仍然是一项艰巨的任务。 针对抗菌肽筛选任务,目前主流的方案有以下几种: 1. 在收集的数据集上进行模型训练,并在独立的测试集上进行测试以验证模型性能,固定参数并上线服务器,对用户上传的多肽序列进行抗菌性识别。2. 收集特定的类型的抗菌肽数据,训练模型。使用领域先验知识在小范围内生成候选多肽搜索库(例如从特定的基因序列中生成或是针对已知抗菌序列片段进行截取或者扩增),将训练好的模型在上面进行验证,选出其中最好的进行实际的湿实验。3. 基于大规模蛋白质预训练模型,利用抗菌肽数据进行微调,针对不同下游任务训练不同的模型。 可以看到过往工作多基于已有功能肽,通过已知肽链上的增删的小幅度修改,实现小规模的区域性搜索。 因此,为什么不能从数据驱动的角度出发,将收集的有标签数据乃至整个搜索任务的数据集看作是一个整体,设计一整套实验框架呢? 我们可以将不同模型完成的不同任务的特性,结合数据集本身的特点,组合成不同模块来实现筛选的过程。核心创新点不在于使用最先进的模型,也不在单点算法的改进, 重点在于Data-centric的人工智能方法和多模型组合性的系统级工程来解决实际问题。 最终,我们实现了全球首个,对于功能肽(千亿量级)的巨大全库全局搜索解决方案。 在长度为6-9的多肽上进行全局搜索 , 通过湿实验和活体实验,结果显示,筛选出的多肽的抗菌性能至少可以达到目前发现的,针对特定菌种的最好的抗菌肽的水平。 论文标题: Identification of potent antimicrobial peptides via a machine-learning pipeline that mines the entire space of peptide sequences 本文由浙江大学数据智能实验室、M3实验室与浙江大学高分子系MOE实验室合作完成。 发表于Nature BME上(2023 IF:29.2) 论文链接: h ttps://www.nature.com/articles/s41551-022-00991-2 第一作者:黄俊杰、徐彦超 通讯作者:张鹏、赵俊博、计剑 第一单位:浙江大学 主要贡献点: 1. 基于数据驱动的思想,提出了结合经验判断、分类、排序和回归的任务组合形成的 pipeline(SMEP),各任务对多肽进行多尺度的抗菌功能的识别,同时使用当前实验环境的数据对模型进行finetune,提高了模型对抗菌肽的预测能力。 2. 在长度为 6-9 的多肽全库上进行了测试,湿实验结果表明筛选出的抗菌肽的有效率达到了 98.2%,证明了整套模型的泛化性能。 3. 与之前的工作相比,本文提出的 pipeline 执行效率有了很大的提升,只需要约 19 天即可完成对 5000 亿级别的样本库的全扫描,并筛选出最佳的抗菌肽。 4. 弱人工干预,整体过程可以完全自动化完成,不需要领域专家的额外介入。 框架 提出了一个基于领域经验判断规则,使用分类、排序以及回归三大任务组成的一个全新的,基于机器学习的 pipeline (SMEP),如图 1.a 所示,并在长度为 6-9 之间的多肽全库上(约 5000 亿样本)挖掘强效抗菌肽。 图 1 数据集的选择部分,我们融合了当前广泛使用的 APD,DADP,DBAASP 和 UniProt 等数据集,按照菌种收集了约 7660 条数据(同一条多肽的多条抗菌性记录使用均值处理,对不具有抗菌性的多肽统一赋一个极大值以示区分)。考虑到潜在的数据噪声问题,我们利用湿实验收集了额外的 67 条数据用于模型的微调。 针对整个流程框架,首先,我们需要借助领域专家的提供的一些基本条件,例如多肽序列整体的电荷性质以及氨基酸残基的排列规律(两亲性),进行第一步的筛选。这一步可以筛选掉约90%数据。 然后是第一步的分类模型阶段,我们目的是实现粗筛的一个过程。候选多肽库中存在的大量的非抗菌肽,我们希望通过训练一个分类器能够有效地过滤掉大量的非抗菌性肽,降低接下来的模块筛选的压力。这一步可以再筛选掉约 85% 的数据。 考虑到数据中存在的误差,直接使用一个回归模型来拟合抗菌性指标可能会引入额外的误差,但是使用多肽间相对的抗菌性能力高低进行的筛选则可以缓解这样的问题。因此我们在第二步引入了一个排序模型的模块,来筛选出最具有抗菌潜力的前 500 条抗菌肽。 最后,我们训练一个回归模型来精细预测 Top-500 抗菌肽具体的MIC指标的值,并从中选出最好的 Top-10 多肽进行湿实验验证。 实验解读 对于多肽序列的输入,我们使用了两种处理方式应对不同的模型。针对传统的机器学习模型,使用相关工具包,计算出多肽对应的物化性质的 676 维结构化特征。针对深度学习模型,我们使用了可训练的 128 维动态词向量作为序列的隐藏特征输入到模型中。 分类模型&排序模型 图 2 分类模型部分选用了传统的 XGBoost,随机森林模型以及 LSTM 和 CNN 两种深度学习模型进行比较,可以看到 XGBoost 在除了 Recall 指标上针对其他模型都有一定优势。并且考虑到设立这一模块的初衷,即筛选出具有抗菌性的多肽,因此筛选出样例的真阳性比例,即 precision 指标是我们更关心的,因此我们最终选用了 XGBoost 模型作为分类任务的模型。考虑到一致性的因素,我们在排序模块也使用了 XGBoost 模型。从图 2.d 中可以看出,排序模型对排名较靠前的抗菌肽有明显的聚集作用。 回归模型 图 3 回归模型部分,这里额外增加了梯度提升树,岭回归和集成模型作为候选的模型。指标部分,考虑到该任务的目的是准确预测抗菌性表现最佳的多肽的 MIC 指标,从而藉此准确选择出性能优异的抗菌肽,我们在 MSE 指标的基础上,额外增加了 Top-K MSE 指标来反映模型对目标抗菌肽的敏感程度。图 3.e 表明,LSTM 要显著优于剩下的若干模型,因此我们最终选择 LSTM 模型。 为了在回归模块中缓解之前提到的数据误差问题,我们利用额外的,重新测试的 67 条湿实验数据对 LSTM 回归模型进行了微调,使之预测结果更符合当前的实验条件。 消融实验 图 4 为了验证整个 pipeline 模块设计的合理性,我们分别删去其中的不同模块进行消融实验。其中 C 代表分类模块,R 代表回归和排序模块,I 代表微调的过程。从图 4.b 中可以看到,删除其中的任何模块都会导致预测出的多肽在湿实验上抗菌性结果的下降。 泛化性实验 图 5 在未对整体框架及模型权重进行修改的前提下,在七,八,九肽上执行该抗菌肽识别任务。图 5.a 显示了该框架极高的运算效率,可以在 19 天内完成对 5000 亿级别多肽库的筛选。图 5.c 表明,识别的 54 条多肽(共 55 条)具有抗菌性,识别成功率高达 98.2%。 序列相似性分析 图 6 全库搜索相对于小范围筛选的一个显著优势就是筛选出抗菌肽和已知抗菌肽间较低的相似性,也就是更"与众不同",我们将训练数据和预测出的 55 条抗菌肽序列在不同物化指标的分布上进行了比较,显示出了较低的相似性。 总结 1. 本文是目前研究中第一个尝试在全库的条件下进行抗菌肽筛选的工作,并且湿实验证明了其有效性。2. 整套 pipeline 的筛选架构方式指明了未来的一个潜在的研究方向,即基于数据驱动的思想,通过多层次任务的多步筛选来高效获得目标产物。3. 对多肽或者蛋白质序列的发掘,使用多种层级的序列建模,并融合输入到模型中可能是一条缓解数据噪音,发掘序列潜在规律的一种有效方案。 通讯作者介绍 张鹏,浙江大学高分子系百人计划研究员。研究方向:1.高分子生物材料;2.蛋白质药物修饰;3.免疫工程;4.生物材料表界面。 赵俊博,浙江大学计算机学院百人计划研究员。研究方向:1.深度学习;2. AI+X;3.预训练大模型;4. Diffusion models。 计剑,浙江大学高分子系教授。研究方向:1.心血管医用材料和微创介入医用材料;2.医用材料的组织工程化设计;3.生物治疗用智能纳米微载体;4.新型固相基因传递体系的研究;5.仿生双亲聚合物的溶液和界面组装;6.层层组装构建生物相容性和生物功能性纳米层状超薄膜的研究。
0
0
Ali
3
用于 DNA 测序的机器学习模型,理论上可以解码任何测序读数中所编码的数据值-阿里云开发者社区
大规模并行 DNA 测序导致生物学中高度多重实验的快速增长。这些实验产生独特的测序结果,需要特定的分析管道来解码高度结构化的读数。然而,尚未开发出解释测序读数以提取其编码信息用于下游生物分析的多功能框架。 在这里,不列颠哥伦比亚大学和东京大学的研究人员报告了  INTERSTELLAR(interpretation, scalable transformation, and emulation of large-scale sequencing reads,大规模测序读数的解释、可扩展转换和仿真);理论上,它可以解码任何类型的测序读数中编码的数据值,并将它们转化为另一种选择结构的测序读数。 INTERSTELLAR 成功地从一系列短读长和长读长测序读数中提取了信息,并翻译了单细胞 (sc)RNA-seq、scATAC-seq 和空间转录组学的那些数据,从而方便研究人员用不同软件工具进行分析。INTERSTELLAR 将极大地促进基于测序的实验的开发和数据分析管道的共享。 该研究以「 A universal sequencing read interpreter 」为题,于 2023 年 1 月 4 日发布在《 Science Advances 》。 在过去的几十年里,利用微阵列和高通量 DNA 测序,DNA 条形码的概念使一系列汇集的生物筛选成为可能。早期的例子包括建立酵母缺失集合,其中每个菌株都被构建为在缺失位点具有两个独特的 DNA 条形码。可以汇集条形码酵母菌株并进行单一生长竞争测定,其个体相对生长变化可以通过竞争前后微阵列或高通量测序测量的条形码数量读出。该策略开创了化学基因组学领域筛选药物靶基因的先河。 不久之后,同样的概念也被应用于基于哺乳动物细胞培养的全基因组基因敲除和敲除分析。在这些测定中,细胞由编码短发夹 (sh) RNA 或 CRISPR-Cas9 引导 (g) RNA 的慢病毒文库转导。由不同扰动引起的细胞生长可以通过聚合酶链反应 (PCR) 扩增和小 shRNA 或 gRNA 编码 DNA 片段的测序来大量量化。 此外,产生远端基因组区域和与不同因素相关的 DNA 条形码的嵌合融合的实验系统,使得研究人员能够大规模探索染色质构象、蛋白质相互作用、遗传相互作用和单分子 RNA 的空间细胞分布。在单细胞和空间基因组学中,单细胞标识符 (ID)、空间 ID 和唯一分子 ID (UMI) 用于唯一标记相应的转录组或基因组 DNA 片段,这导致了单细胞 RNA 测序(scRNA-seq)、scATAC-seq、空间转录组学和空间基因组技术的发展。 上述方法中的每一种都可以同时进行多个实验并生成测序文库。来自不同检测的测序文库也可以通过将额外的文库特异性、独特的 DNA 条形码融合到每个测序文库 DNA 中,进一步复用用于单次测序运行。这些实验的输出 DNA 分子具有一系列复杂性,其中一些编码多个信息片段,其组合有时被设计为通过多个读取(例如,配对末端读取和索引读取)读取。 然而,存在一些共同的问题——这些基于测序的实验中的大多数方法,都是使用它们自己专有的软件工具针对特定的序列读取结构开发的。虽然许多此类工具具有先进的下游数据分析功能,但它们通常不能重复用于概念上相同类型的实验系统产生的测序读数。对于具有改进的性能和不同读取结构的概念相同的分析,已经反复提出新的实验方法,并且已经为它们各自的读取结构开发了处理基本相同信息的数据分析工具。 在 scRNA-seq 领域尤其观察到这些轮子的再发明。这些软件工具不能交换不同的 scRNA-seq 库结构,也不能通过将它们应用于相同的 scRNA-seq 数据集来进行交叉验证。已经做出多项努力来开发能够分析特定类别实验的不同读取结构的灵活软件工具,例如 UMI-tools、zUMIs、scumi(用于基于 UMI 的 RNA-seq 和 scRNA-seq)和 SnapATAC(对于 scATAC-seq),但它们对于正在进行的产生独特读取结构的新实验的开发无效。 任何测序数据分析都遵循每次读取中序列片段的识别(例如,在 scRNA-seq reads 中识别细胞 ID、UMI 和 cDNA 编码区域)以及提取的序列片段和值(例如,映射到参考基因组和 scRNA-seq 中每个 RNA 种类的 UMI 计数)的下游分析。 因此,不列颠哥伦比亚大学和东京大学的研究人员提出了两种解决方案:(i) sequencing read interpreter 和数据分析工具的开发——如果一个 read interpreter 只提取在 sequencing reads 中编码的数据值,那么它的数据分析 pipeline 应该适用于产生相同数据结构的其他实验的 sequencing reads;(ii) read translator 的开发——如果可以将某种格式的测序 reads 翻译成另一种 reads 结构,则可以使用为特定 reads 结构开发的现有数据分析管道来分析其他 reads 结构。基于这两个方案,研究人员开发了称为 INTERSTELLAR 的单一通用工具。 图示:INTERSTELLAR 的概述。(来源:论文) 任何测序文库的结构都是通过用序列片段的位置规定在DNA序列中编码的信息或使用恒定标记序列对其进行切片来设计的(否则测序后无法分析文库)。在对文库进行测序之后进行任何测定后,提取序列片段并进行错误校正以用于下游分析。INTERSTELLAR 完全有能力使用灵活的正则表达式系统和序列段中编码的值的亲本关联来解码任何这些读取。 研究人员使用不同的软件工具对 scATAC-seq、scRNA-seq 和空间转录组学读数进行读数翻译和数据分析,并将结果与原始专有软件工具分析的原始读数进行比较。尽管原始结果和仿真结果的总体结果非常相似,但观察到的差异程度不同。 图示:不同 scRNA-seq 读数和软件工具的交叉评估。(来源:论文) 结果的差异可以通过三个潜在来源来解释:(i) 读取解释过程,(ii) 目标段分配过程,以及 (iii) 不同软件工具之间价值分析过程的差异,其中 INTERSTELLAR 负责前两个。从 scRNA-seq 读取翻译演示中,读取解释过程的纠错步骤被认为是所见差异的潜在主要来源,其中读取解释的纠错很可能使在不同软件工具中实施的纠错步骤无效(即,通过 INTERSTELLAR 覆盖纠错策略)。 图示:多模式 scRNA-seq 读取的翻译。(来源:论文) 虽然 Levenshtein 距离度量是 INTERSTELLAR 的基于非许可名单的纠错的默认值,并且对于大多数测序读取数据分析来说这实际上不是问题,但它可以用 Bartender 或用户开发的插件代替。当目标片段的信息容量(或代表性)小于相应源片段的信息容量(或代表性)时,目标片段序列分配过程是源读取中编码信息丢失的唯一潜在来源。 为了解决这个问题,研究人员在理论上实施了最佳价值空间优化策略,该策略使用亲本段分配的用户定义信息,并成功地证明了读取翻译的信息损失可以最小化,同时降低了序列代表性。 在过去的几十年里,除了临床样本和各种物种的(表观)基因组学和转录组学分析之外,大规模并行短读长测序技术的应用使得广泛的生物检测得以发展,并且该领域继续迅速扩大。虽然开发专有测序读数解释器和数据分析管道并将其与新的基于测序的分析方法的开发结合起来是一种实践,但该团队的研究人员建议应开发下一种形式,即社区可使用通用的测序读数解释和翻译平台, 如 INTERSTELLAR,只开发数据分析部分,单独共享,以最大限度地利用数据处理资源。 论文链接: https://www.science.org/doi/10.1126/sciadv.add2793
0
0
Ali
4
提速1200倍!MIT开发新一代药物研发AI,吊打老模型-阿里云开发者社区
众所周知,整个宇宙充满着无数分子。   这些分子中又有多少具有潜在的类似药物的特性,可用于开发挽救生命的药物呢?是百万级?还是十亿级?又或是万亿级?   答案是:10的60次幂。   如此巨大的数字,大大延缓了新药的研发进度,像新冠等快速传播的疾病,目前迟迟未有特效药,也是因为分子种类和数量太大,远远超出了现有药物设计模型可以计算的范围。   MIT的一个研究团队偏不信这个邪。算不过来是吧,那把之前的模型加加速总可以吧?   这一加速,就是1200倍。   他们研究了一款名为「EquiBind」的几何深度学习模型,该模型比之前最快的计算分子对接模型「QuickVina2-W」快了1200倍, 成功地将类药物分子与蛋白质结合,减少了药物试验失败的机会和成本。   研究论文即将发表在ICML 2022上。     「EquiBind」是基于其前身「EquiDock」研发的,「EquiDock」使用了已故的麻省理工学院AI研究员Octavian-Eugen Ganea开发的技术,去结合两种蛋白质。Ganea也是「EquiBind」论文的合著者。   在药物开发开始之前,研究人员必须找到有前途的药物样分子,这些分子可以在药物发现的过程中正确地结合或「停靠」在特定的蛋白质靶点上。   在与蛋白质成功对接后,结合药物(配体),可以阻止蛋白质发挥作用。如果这种情况发生在细菌的一种基本蛋白质上,它可以杀死细菌,从而保护人体。   然而,不论是从经济角度分析,还是从计算角度分析,药物发现的过程都可能是昂贵的,研发过程动辄耗资数十亿美元,并且在FDA最终批准之前,会进行超过十年的开发和测试。   更重要的是,90%的药物在人体试验后由于没有效果或副作用过多而失败。   所以制药公司收回这些成本的方法之一就是,提高最终成功研发药物的价格。     目前,寻找有希望的候选药物分子的计算过程是这样的:大多数最先进的计算模型依赖于大量的候选样本,再加上评分、排名和微调等方法,以获得配体和蛋白质之间的最佳「匹配」。   Hannes Stärk是MIT电子工程与计算机科学系的一年级研究生,也是这篇论文的主要作者,他把典型的「配体-蛋白质」结合方法比作「试图把钥匙放进有很多钥匙孔的锁中」。       典型的模型在选择最佳模型之前会花费时间对每个「拟合度」进行评分。相比之下,「EquiBind」无需事先了解蛋白质的目标口袋,只需一步就能直接预测出精确的关键位置,这被称为「盲对接」。   与大多数需要多次尝试才能找到配体在蛋白质中的有利位置的模型不同,「EquiBind」已经具有内置的几何推理功能,可帮助模型学习分子的潜在物理特性,并成功地进行归纳。以便在遇到新的或者无法识别的数据时成功泛化,以做出更好的预测。   EquiBind模型架构   这些发现的发布迅速引起了业内专业人士的注意,其中包括Relay Therapeutics首席数据官Pat Walters。   Walters建议,研究小组可以在一种现有的用于肺癌、白血病和胃肠道肿瘤的药物和蛋白质上去尝试他们的模型。尽管大多数传统的对接方法都未能成功地结合这些蛋白质上的配体,但是「EquiBind」成功了。   Walters说:「EquiBind为对接问题提供了一种独特的解决方案,它结合了姿态预测和结合位点识别。」   「并且这种方法利用了来自数千个公开的晶体结构的信息,有可能会以新的方式影响该领域。”   Stärk表示:「当其他所有方法都完全错误或仅有一个正确时,我们很惊讶,因为EquiBind能够把它放进正确的口袋,看到这个结果,我们是十分激动的!」     EquiBind解决的结构药物结合问题概览   尽管「EquiBind」已经收到了大量的来自业内专业人士的反馈,并且这些反馈帮助了团队考虑计算模型的实际用途,但Stärk仍希望在7月份即将举行的ICML上找到不同的观点。   Stärk表示:「我最期待的反馈是关于如何进一步改进该模型的建议。」   「我想和这些研究人员讨论,告诉他们我认为下一步可以怎么做,并鼓励他们继续前进,将模型用于他们自己的论文和方法中。目前已经有很多研究人员联系了我们,询问我们这个模型是否会对他们的问题有用。」   此外,这篇文章同样也是为了纪念Octavian-Eugen Gane,他为几何机器学习研究做出了至关重要的贡献,并慷慨地指导了许多学生,他是一个有着谦逊灵魂的杰出学者。   今年上半年,他在一次徒步旅行中永远离开了我们。   参考资料: https://news.mit.edu/2022/ai-model-finds-potentially-life-saving-drug-molecules-thousand-times-faster-0712 https://arxiv.org/pdf/2202.05146.pdf
0
0
Ali
5
AI制药工业落地的痛点与前进方向(三)-阿里云开发者社区
生命科学和智能计算峰会-AI制药工业落地的痛点与前进方向(三) 嘉宾信息 潘麓蓉 圆壹智慧创始人兼CEO 对于指标是很有影响的,一个电信等点就会有巨大的反差,你看起来是非常相似的,从一个2D的角度,一个人的角度,但实际上就有巨大的变化,实际上用ai来学的时候,是可以分开的,它分开的原理说它实际上学到了二维以外的一些维度,它能够识别的一个微小的区别,第二个一个多目标问题,传统的专家,只能够在一个维度上一次优化一个问题,过去要1000个分子2000个分子才可以,如果采取就人工智能里面最典型的的一个方式,实际上它也是可以很快出来的,a i比人做得好的。在过去的实践当中,基本上用ai,比如说在30个维度里面同时去打分,再去做实验,已经在实践当中验证了,像刚才郭博士也在阿里云面提到过了。   实际上过程就是我比较坚信ai是能够比专家更好的。第二个是真正的在制药环节里面不是基于靶点的这种,往往每个项目已经非常后期了,一定不是一个非常新的项目,非常新的项目往往是从表情筛选开始的。也就说它一个黑盒子,一个细胞,或者是一个病人的一个表情,你怎么样能够能够从表情直接预测一个人? 实际上就涉及一个黑盒子的问题。实际上也是ai擅长的,里面也是统计了过去大部分原创新药都是属于这儿出来的,但大部分已经知道了,基本上从发达论的角度就是ai的,过去也尝试过常多。就可以举例说明,比如说在这儿的时候,当时对于3000个人,每个进行了一个ai模型的建立,进行了两种大规模的验证。 研究验证发现,过去30年的数据里面只有5%的数据,它能够基本上接近真实的,实际上已经很好,就说明实际上它有这趋势,在过去的这两三年,数据更多的增长,我相信数字可能会更多一些。另外核心问题一直是一个小分子的瓶颈,基本上去年已经说天路径都已经可以预测,但合成问题的瓶颈并不是在路线上的预测, 在条件预测这块,大家都很关注了,到底怎么用?我们可以说它是一个化时代壮举。首先要提出一个问题,在制药的情况下,到底需不需要知道结构,正常的话,直接在细胞上筛,或者是直接是一个纯化的蛋白筛就可以了,不需要过程问题的,但是过程问题的好处是让知道哪一些关键的点可以改造。 第二个问题,发现预测的结果和传统的这种同元建模实际上,传统的同元建模在有已知的的情况下会更好,实际上里面就涉及到深层次的一个算法,它是借用其所有物种的所有蛋白质发力的信息,来去预测一个高等生物的信息,实际上它在有很多的核心区域上,实际上就应该这么说,如果是传统的同学建模,它基本上在一个已知的,直接就预测了。 在真实的制药的过程当中,发现是传统的建模,它的就执信度会更高一些,但如果是真的没有模板的蛋白,基本上就需要采取其他的办法,最后采取的办法直接从一级结构去预测它的生物性。2013年的时候,我的一个研究生当时也是调用了大概1000,用了两个月,才拿到差不多一个机会,一个跟零蛋白,还有小分子三元体的一个内容。基本上个那个时候到现在,我重新算了一下现在的计算机,十年后它可以从一个月变到一天,但也就30倍的增长,所以要去真正的系统性的算这种动态过程还非难。 最后就提到要用好ai的模型,实际上也是一个很好的。也是行业的一个很有意思的事情,这里面就有一些非常好用的方法来解决里面的问题,怎么去建模,怎么去时间关系,可以分享给大家。这里面最有用的是怎么去,怎么样的方法去提醒,我们都知道,生物大数据的内容非常多,组织干净的数据集,里面有非常多的方法论层面的,工程层面的方法,以及从算法层面,怎么去在里面去找一些东西,以及最后用用提到的,很有用的方法。当你在一个尺度,一个很少数据量的时候,你就需要上去迁移。在同一个问题上,它是一个很好办法,或者是我对一个白点的数据很少,我就去把它所有的数据都找来去做一个建议学习,实际上就可以补充其他的数据。而且最有用的ai模型,它一定是个泛化能力很强的模型,我一定是在我已知的当中能够找到一个位置的事物,才是最有意义的。这种方法是放在门头里是有用的,如果你要做一个内容的话,刚才提到的,你的专家只需要反馈一点点的结果,你只要对于新的问题有这么几个几十个的数据你就可以去做。一你找出来,你可能一轮,两轮,三轮,但是我觉得一般是在五轮以内,你一定可以,过去这种盲赛大规模的筛选会更好,另外你怎么去筛选数据?我觉得从过去我的经验里面有三种方法。第一种,你在现有里面挖,包括基本上所有商业数据库,100多个数据库,基本上最后调汰到咱们95,非常得体的对历史的一个重新的审视;第二个,你需要去自己做实验,有针对性的去补足一些数据,你就不需要知道你数据的化学生空间的分布,怎么样以最小的数据点,最高的模型的分子;第三个数据,知道哪一类的物理,它能够达到什么样的知度,就先去通物理的这种底层去采样,最后用这些数据去换你已经耗费的算利,就不需要再重算了,放在模里面,这三个方法都是有用的。现在的一个一体化的这种解决方案,之后就比较抽象了,因为所有东西都放在个平台上,从一个序列开始,基本上在几个小时的时间内,基本通过几10个模型同时打分,10到20个新的分子,基本上两到三轮,在100个分内就能拿到目标化合物.   基本上是针对了做了非常多的数据和算法的迭代,另外在算率方面也是基本上做了关于所谓抢单机时的行为时的一个。 从一直调用一级到gpu和cpu的分配,非常灵活的方案。 平台基本上也是一个非常自动化的的一个平台,现在说今年到六月份是在生活国际大会有元智慧的,多目标的i模型对于生物药,化学药以及核酸药,现在都有自动化设计的能力,并且也跟全全世界各地,一直到药企都有了非常多的合作。 现在一年大概有300万美金的的订单,我还是比较坚信方法论能够改变行业,可能这边没有太多技术细节,但是我从宏观的方向讲一下过去的一些经验。
0
0
Ali
6
AI制药工业落地的痛点与前进方向(一)-阿里云开发者社区
生命科学和智能计算峰会-AI制药工业落地的痛点与前进方向(一) 嘉宾信息 潘麓蓉 圆壹智慧创始人兼CEO 内容介绍 一、 The Drug Discovery Process 二、 What is AI? 三、Computational Drug Discovery Approaches 四、Computational Drug Discovery Approaches 五、Computational Complexity Conventional Physics Based Modeling Technology vs. AI Deep Learning 六、Computational Cost Studies AliCloud 七、How can machine learning and other AI technology help Drug Discovery 八、Core Scientific Challenges in AI Drug Discovery 九、Ainnocence’s Solution,From tools to whole system Superior Data Source,Higher Efficiency,Better Accuracy 十、Ainnocence’s Global Launch and Partnership 下面说下 我个人,还有我过去的 经历, 跟阿里合作的一些渊源,当时第一次合作的时候,大概是2018年,当时正好和这边在创立阿里云的科研超算平台,与此同时,我在参与图的个人工智能平台。当时 这 个时代,所有的开源的,学术的软件全部在阿里云上做了一个系统性的测试,去找到一些这种工业场景,希望能够真的把这些这种在科研上的方法论转化到工业实验当中,在过去,四五年的时间里面,也在之前的平台上,像郭博士时介绍的科研机构,新冠过程当中有非常多的配合,逐步的计算技术跟生命科学的交叉领域技术逐步的从一个学术推广到工业的一个过程。 我是去年创立的原智慧这家公司,也是希望把生命科学跟计算的信息技术高度 的, 深度的结合,不管是从工业的能效的提高,最终的制药的最终节点,临床节点的分子设计的效 果 提供突破,甚至说是超越专家经验一些问题的突破,在工业上进行更广泛的一个实践,我创 立了 一个原慧公司,但过程当中跟云计算,是有非常多的渊源的。 我第一次使用云计算进行科研,计算已经大概是 2014 年的时候,当 时 是美国亚马逊首先推出了的一个科研计算的平台,当时我在美国的一家医学机构,做计算生物学研究, 这 个时候就定量的,已经计算出来最节省的方法使用云,而不是自己搭建自己的超算系统进行推动科研。 基本上从个时候一个比较坚定的个云计算未来的科研,就在新冠过程当中,也基本上就展现出通过云的一个平台,能够实现大效果, 跨 地域的一个合作。 非常抱歉,我今天 课件 都是英文的,大部分材料都是英文的,但是我会用中文给大家解释一下。我主要讲的题目是,AI制药工业落地的痛点与前进方向,整个的技术领域在欧美的药企以及学术机构已经迭代了三四十年的时间了,有非常多的已经前人采购。实际上,在中国的创新要有的一个,零到一的过程当中,实际上是可以借鉴的,能够更高效的,更快速的方法能够跟国际先进水平有一个的结合。 我大概从几个方面,跟同事讨论一下,首先我我会大概的介绍一下药的背 景 以及a i技术真正的属于系统性的ai技术到是什么样的一个学科背景,以及应该怎么样去利用整个制药里面从转化医学到化学一直到最终的临床的实验的过 程 。 当所有数据以及对数据的标记,清洗和创新过程当中,怎么去推动数据ai的这种这种模式,都会进行一些介绍。 最后也会讲一些,从学科层面的可张 博 跟郭博也都提到一些,最后讲一下在现 在 最先进的基于ai的的方法论下面,怎么能有一些更高效的手段实现的一个对生命科学的最精准的,计算效率最优的一个预测的手段。   首先,说大部分人是没有参与过全程的,的一个行业专家来说,实际上,可能每个人都是在制药的每一个环节里面有过很深深度的理解。但说美国实际上是一个全球的行业标准,小分子为例的话,从识别,发现,优化,以及到最终的,每一步它都有非常成熟的方法论。筛选到优化的实验平台和理论渠道,以及这种监管的标准,但是实际上整个的系统它的数字化程度是非常低的,可以说制药行业是所有行业里面数字化程度最低的一个行业。我自己的见解,是实际上就从宏观的去看的整个流程,它实际上是一个说非常清晰的一个过程,每个过程里面它都有非常标准的语数,也说它实际上是一个可建模的系统,它涉及到从转化医学,一直到的具体的说的这种,产生的各种化学相关的数据,到临床的数据,以及到监管的数据,医保的数据,临床采样和体外采样的各种信号数据,都是有不同的机构和人员来负责的。 在的情况下,制药工业你要真的在系统上提效,只有两个方法,第一个方法是你需要把整个系统做一个重新的 提议 。第二个你需要在过去的历史数据当中去掉杂音,找到信号,把最先进的方法论取代过去的一些过去的方法论。因为生命科学是一个每天都在进步的科学,它不像物理,物理,化学,数学基本基本上100年前理论已经奠定了。 刚才可能都介绍过,实际上简单的一个流程,从最初的一个大规模筛选去确定的一个靶向性,一直到的多维度的成效性的优化吸收分布,代谢清楚以及各种系统毒性,一直到最后的漏斗到最后一个漏斗,要做多少实验,就决定了你最终的系统效率,过程当中说传统来说的话,基本上是两万个分子,新合成的分子为起点,从如果是盲衰的话,基本上是200万个分子作为一个起点,最后摘到一个分子,如果说能够打通分步骤的话,能不能从100分子就到一个分子,基本上它的整个的行业的和时间点就会到个提升整个行业。 这个 筛选流程引用了非常多年 了 ,但在过去十年,基本上的投产出比在逐年的下降,现在说怎么样突破筛选过程,不管是按照过去的方法介入计算,还还是把计算重新的定一个新的流程,需要去考虑的问题。 什么是ai?我觉得大家再提到ai制药或者是整个ai + 的概念的时候,实际上并没有明确的定义什么样才是一个严格意义。Ai还 是 一个半计算技术,说一个计算工具,因为工具跟ai之间实际上有很大区别的工具是需要人去用的,但是ai是自己可以优化自己,自己可以实现一个人体的目的,但不需要人去帮助实现目的,它实际上在最初的学科定里面,50年代大家就已经非常明确的了。 你需要像人一样思考,也有类似这图测试的一些测试去到底是不是一个ai。 现在的整个技术已经可以过渡到自优化的过程,但是最难的地方是怎么去定义给的,目的是什么?在制道的问题上,给的目的是优化一个选择性,还是说优化一个整体的体内药效? 还是说优化一个最终的适用的变成群体,它完全不同的。但是如果你给予足够的数据,实际上它都是可以通过自己的办法,可能是一个黑箱,也可能是基于经验,但一定是能够达到个节点的,最终人需要做的两件事情,首先要明确够给的是什么,第二个是需要知道你得给什么样的数据和规则,让实现够需要有一个宏观的对这件整个建模的一个理解。 人工智能本身它也是一个交叉学科的,的一个学科,它也是涉及到从最微观的化学,生物化学,细胞生物学到独立学,生理学都需要的一个多尺度的学科的信息。
0
0
Ali
7
AI制药工业落地的痛点与前进方向(二)-阿里云开发者社区
生命科学和智能计算峰会-AI制药工业落地的痛点与前进方向(二) 嘉宾信息 潘麓蓉 圆壹智慧创始人兼CEO 实际上你把这么多庞大的学科体系,怎么样高效的融合,是一个最大的一个挑战,这边的话可能很多的讲者已经介绍过了,里面基本上就涵盖了所有的计算的从q和d和的方法,它也不完全是,实际上里面也有一些参数去进行校准,可以说是完全只是取决于你的输入的这分子的成分,实际上们是在不同的经步进行计算的。但这里面大家是需要知道一个问题,精度和准度,它是完全两个不同的统计学参数,不需要精度最高,但是你需要准确,这对于你的下一步的判断才是更更完整的,过去这些方法论都有一些局限,它算的是电子精度电子结构,但是,基本上只能在材料和一些小型的这种溶业体系里面进行计算。它基本上就你是需要做一些这种更多的这种模拟,就有了这种方法。再到分子动力学的方法,它相当于借用一些经典力学和经验参数,模拟量子力学,就可以把尺度拉到一个单蛋白的程度。但是到以后大家就卡住了,基本上你蛋白以后你要算蛋白,买代码,相互作用,再算更高体系,比如说一个细胞里面有基本上4200万个蛋白,基本上你要用md算的话,全世界的计算机加起来都不可能计算得了。会有一个不可跨越的鸿沟。人体要算生理学的结果。如果你要从原子它是算42个命令成以30个,你才能够真的是从分子层面映射到体内,基本上分子动力学之后,基于这种原子为单位的,这种对生物学的模拟就断了,基本上我不可能去模拟生物系统,这时候就有了信息学介入,信息学的好处说我是基于一种信号读取,但信号它可以是个宏观信号,一层是分子本质的信号,它如果是蛋白质,也是个序列,它是确定的,没有任何的噪音的,你把分子放到某个体系里面,你可以观测到一个电信号,一个荧光信号,任何一个这种它都是单一层面,但是你是放在宏观体系里面,得到的一个信号,它实际上在过程当中就采取的是一个信息学的手段,就有了过去的40年前的化学信息学和生物信息学这两个学科的发展,过去它都是用一些简单的同学统计学的方法,从微观到宏观的做映射,以及之后的学科,把人类的整个所有物种的dna的解析之后,有了层面的一些数据,里面也可以看到计算的复杂度,就美化的时候把计算复杂度给去去掉了。 如果你到统计学或者机器学习的一个预测的话,它实际上接近于线性关系,相当于把你的计算复杂度又拉回了一个大概16到17次方的区间。 为什么到现在来说深度学习会大行其道,也是因为在尺度上,没办法再计算更大的范围,另外一个问题它是动态的,动态体现在哪里?dna是可以算是静态的,基本上是个序列就不会有太多变化,可能会有一些不会太大变化。但是一个人每一天早早饭吃了什么,晚饭吃了什么,生病了,还有没有生命,都是变化的,整个的生命的过程模拟呢?基本上能达到的时间节点,基本上从单元来说大概微级,现在要到秒级,基本不太可能,这一个方面没反应的话,也差不多在在毫秒级的一个过程,用过去的方法,你也不可能真的去进行一个过程模拟,信息学在过当中非常关键。既然你不能过程模拟,就只能做端到端到黑盒子的模拟。   这行就是人们不断的进行物理工程,减少你的,我就可以从最小的一个一个药分子,一直算到一个体系观,从这种不同的理论基础,从无到有的话,相当于你都是可以用物理层面去存存模拟的,但实际上,就相当于每一个尺度,你要重新计算一个时间条件,重新计一个单独的工具和一个物理的一个样式,实际上它是一种比较笨拙的方法,现在能够找到最好是精度是可调的,而且它是用一把剑来解决所有问题。实际上,深度学习第一个尝试,就相当于,只要你用每个尺度的数据足够多,你都可以用一个黑盒子来预测每个尺度的问题,就不需要考虑它底层的物理原理了,也是在过去的实践当中被证明,实际上非常有效的,但是依然不是最的最好的。如果可以找到一个数学公式,去模拟把握是不依赖数据,是最好的。基本上从2015年开始,我就研究问题,但基本上展示这些方法论都是已经比较成熟的。   ​ 具体的数学我就不多介绍了,基本上也从一个偏方程到一个线性的,一个经典物理方程的线性加值,这两个理论的基础。计算的时间的话,也基本上说你传统的这种小分子,基本上一个gpu差不多算几小时,过几天的时间就决你什么任务。基本上在一个gpu上精算的话,要一天,要大算基本上是就说它可以拓展非常大的化学空间和可计算的维度。 过去在阿里上测试的几个算例就一个是q m,算一个,几个,它基本上是100多个,基本上就算一个一个简单的能量,这预测它的一个准确性的一个稳定性的一个问题。基本上也要几分钟到十几分钟,大概半个小时的时间。如果是按d的话,预测一个大型的一个膜蛋白,基本上它的要算个几百几个小时吧,可以算个每一个纳秒的,要算到微秒或者是毫秒级,就是13次方或6次方,这么多的时间才能算完,但做这种练,也提到训练几个小时。预测的话,基本上也就可以达到一个非常快了。一小时可以有百万级的。行业就勃的发展,基本上也已经用在了,蛋白质的结构预测,蛋白质的功能预测。基因基编辑。     系统生物学这种生理性的一些数据,方法论也非常简单,实际这种模型刚刚也说已经非常迅速的在开展的课程,最终的瓶颈还是在于你对生物,生物的大数据的理解。 我给大家讲一下整个发展历史,基本上从给id就可以4个阶段,基本上都是有各种各样的,比较微方案的的一些这种数据驱动办法来进行。 我过去的一个理想,包括之前的工作原因都是希望能够把整个流程里面所有的数据,意义全部打通。有一个最高效的一个方法,里面我给大家讲讲,从学科层面,孩子的突破的地方,刚才讲的都是一些已经大家整个学界都知道的一个现状,首先怎么提方案,里面的这些差距,它实际上是行业的,专家突破不了,但是ai可以突破的,我觉得是比较有意义的,这就想要利用ai的一点并不只是让做得更快,而是让做得更好,而且让它做人做不了的事情,ai能超越人的两个方面,第一个确实不需要休息,而且是可以1000个ai同时做一件事情,一定比两三个专家做得好,它是可以从能力上突破。 第二, 对于世界的认知是多维的,人只能在三个维度加上时间的维度,4个维度来认知世界。 大部分的人都在对结构比较,结构就可解释,但实际上ai它是可以在几千个维度或者是一维零的行为,人无法认知的维度下认识世界,取得一个更好的答案,有个很有意思的问题,二维的认知跟的一维的认知是完全相反的,它实际上是一个很重要的。 
0
0
Ali
8
AI + 分子模拟,赋能药物发现新源头(三)-阿里云开发者社区
生命科学和智能计算峰会 -AI + 分子模拟,赋能药物发现新源头 (三) 嘉宾信息: 张林峰 深势科技创始人&首席科学家 北京科学智能研究院研究员 最后一部分,应下何老师刚才的介绍,在我们这个形成一系列的决案的过程中,我就介绍两个特点,这 两 个特点也是使得我们 阿里 云的一个互动变得非常的关键。 第一个老师已介绍过,我们一系列方案都有一个高弹性的需求,然后在高弹性的基础之上,对于我们的不同的方案,这样的模拟方案,以及我们的这个的一个已经被很广泛的使用并且很极致的优化的个开源软件这样系列的不同到计算方,对于算 力 的需求, 对数据 的一个使用的需求是非常不一样的。比如说大部分的时候,模拟需要的是一个高率,处理它的数据也会非常的大,所以这样的一个灵活性,这样的一个弹性是我们过去的这个计算机方案很难给我们的,所以在这个基础之上,我们的这个的诉求是非常的典型的。当时在ai和科学计算结合,在这个云超算这样的一个基础设施上怎么来做? 我 想是一个探索过程,所以所以这样一个探索的经历也让我们很荣幸的 变成 一系列的解决方案。   紧接着,随着这个我们的深度的业务发展,其实就是刚才老师也介绍过计算这样的方案也是目前我们确确实实遇到了一个需求很大的场景,因为这个实际客户使用我们的平台的时候,私有化的需求非常典型,在这样的一个前基础之上,发现我们去直接做相关的事情,往往也会有很多这个新人有一系列的麻烦之处,所以在这个结合这样的一个方案,其实值得我们能够更加聚焦的去做业务需求下的一个软件解决方案,其实不只是我们的场景有需求的这样的一部分交给windows,我们发现会是更好的一种方式。 关于ai结合分子模拟对我们的研发带来一系列的新的解决方案,以及这样的一个解决方案,在软件层以及跟云上的互动战的过程中,所带动的一系列的新的可能性,最后绝大多数的物理问题和全部的化学问题,基本上有一个非常的 稳固的基础之上 ,我们需要做的其实是一系列计算方法的 发展, 能够让我们真正的有效解决解相应的方程,并从这个方 程 的解中得到更多的信息。 在眼下,我们发现,我们算计数据 算法发展的时候, 需要能够真正有效的利用规律来去带来更多的来自底层的可能性,我想这其实目前也是在快速发展的一个过程中刚才所介绍的是一个阶段性的实践,也希望在 大 家 在未来的 这个时间里,跟大家共同的推动这个领域的发展。
0
0
Ali
9
AI + 分子模拟,赋能药物发现新源头(一)-阿里云开发者社区
生命科学和智能计算峰会 -AI + 分子模拟,赋能药物发现新源头 (一) 嘉宾信息: 张林峰 深势科技创始人&首席科学家 北京科学智能研究院研究员 内容介绍 一、关于深势科技 二、 传统分子模拟面临着为数灾难瓶颈。 三、 AI解决尺度工业设计问题 四、 AI药物计算设计平台 五、 Uni-Fold蛋白单体/多体结构预测 六、 Uni-Fold+Rid赋能无结构靶标结构预测与解析 七、Rid辅助寻找别构位点 八、Uni-EM冷冻电镜结构解析 九、Uni-Docking 十、All in One:面向未来的药物计算设计平台 十一、 上云的诉求和对算力的需求 十二、 计算巢+E-HPC 很高兴跟大家分享这样的一个话题,AI + 分子模拟,赋能药物发现新源头,也非常高兴今天 来 到阿里云,特别是老师的邀请,做这样样的几个介绍,其实想起来,跟阿里云结缘的一个过程,大约是在一九年底的时候,在那时候,在这个结合ai和科学计算有效的这个加强这个分子模拟的这一个效率的一系列个方案上取了很多突破,然后在这样的一个突破的基础之上,其实我们会发现,下一步想要进一步的这个大规模的突破,需要的是一个微观模拟,我们需要大量的量子数据,基 于 这样的数据,我们可能才能发展更为通用,更为大规模的模型来推动领域的一步的进展,也是在这样的需求之下,我们想要有一个系统性的,经费的支持来去帮助我们自动化的,规模化的产生数据。 在这样的一个需求之下,我们发现,其实当时并没有自觉的意识到这点,但是发现实际的困难是我们很难在一个学校或者的平台上去灵活的一会儿用一大堆cpu,所以即便得到了一个科研会的支持,也很难真正有效的把我们的数据生产出来,于是不得不考虑云 计算 ,而在那时候,云上的这个的价格还是 很 昂贵的,我也是 接 受不起的,甚至说要比我们的资源更贵,然后慢慢的会发现有一系列的高性 能的 可能性,比如说用这种来去做我 们的云 计算,然后同时也发现这个ai和科技计算的一个结合,使得我们很多的计算 取得了 这样的高并大量的资源做一个任务,这样的需求,以 高 性的需求,我们的需求特点很多,典型的业务是有非常大的互补型,所以这使得我们不自觉的用到了很多的这种低成本的 算力, 并且逐渐的在跟阿里云互动过程中,把我们的一系列的解决方案沉淀下 的 计算解决方案的底层基础,所以大家的过程逐渐的深入,我们发现了这样一个贯穿整个科学研究的方方面面, 以及 我发现这个云的计算其实是一个 崭新 的场景,并且在二零年的时候,我们在年底得到了哥伦贝尔奖,是这个将我们科学计算的规模推向了一个新的机制。 在这样一系列的进展之下,也很高兴看到我们在进步的这个时间当中,把很多的ai带给我们的计算的能力,逐步的 深 入到个行业,同时,今天看到了我们很多的这种过去的探索,沉淀成了这个阿里云的新的产品体系,还是非常的有感触,所以这部分其实是因为我前面看到有另外一位会讲,所以我没有带我出来怎样提及,但是,恰好是有所调整,所以常常想先跟大家分享这一个过程。       这样一个过程的驱动之下,我发现这个ai带给我们的一个系统能力,不只是处理大规模 的 常见的生活的数据,其实还有很自然的处理科学的数据,但其实也不只是处理科学的数据,我们本质的能力其实是表示这种高复杂的函数,这样的一个能力,能够让我们有可能更加好的利用好科学规律,利用好一系列的这量子学方程方程,使得我们能够高效,更准确的求解,让我们在药物计过程中,也有能像我们在做飞机 大巴车 的过程一样,可以先进行计算模拟,在计算机仿真的这样一个过程中,确保没问题,再去真正的进行实验和进行实体的设计,所以在这个过程 中 其实是ai带给我们这计算模拟的一个新的可能性,而对于这样的一个可能性,结合ai带给我们的数据驱动的可能性,他们的结合之下,让我们确定 这 其实 是 一系列的新的技术的突破,将为我们微观世界的这样的工业化的设计和生产带来新的突破。 而这样的一个底层的范式,驱动一系列的微观世界,计算设计到新工具,将为我们在 药 物研发,材料研发很多行业的方面面带来核心的不同,这是我们 致力 于解决的 难 题。       接来是一些介绍,我们面临到今天的计算生物这样的一些问题,以及材料设计,化工设计,比如说像催化剂这样的设计,其实在这样的一些设计的场景当中,我们往往需要们往往要去用这个计算解决问题的是很困难,困难的原因在于,这这些问题的本质,是我们需要有效的去描述微观之间的复杂度作用,然后详细描述的时候,最终对应的其实解一些高复杂的程,也就是方程,其实我们其实很早就知道这个方程长什么样子了,在接近100多年前,我们已经有了这样的一个方程,但是我们一直以来都缺乏有效的这样的一个计算的工具和算法工具能够让我们来克服所谓的这灾难,其实就是一个方程所需要的计算复杂度。 如果解的不够准的话,指数依赖于我们的输入的个数,而当我们想要考虑一个蛋白的体系,蛋白个原则的坐标和则类型,这样的一个输入可能就是几十万,几百万。 而当计算的这个算需求如果是指出依赖于这样的的时候,看到这是完全不可解的的问题, 我 们真正的利用计算去做这个进步的计算的时候,要引入大量的 内容。 过程使得我们仿真的度难以达到我们现实的需求,这其实是我们长期来面临的一最重要的难题,而对这样的一个难题,带给我们的一个工具其实是有效的,表示原子相互作用,从而能够让我们这个 克服 这 里的困难,让我们 更高效,更准确的去进行模拟,能够真正的变得跟现实相关,真正的能够直到我们的实验,这是带我们的一个对于计算模拟,但是从概念上可能是一个两种类型的一个区别,就是把这个对应的一些行业的发展积累下来的海量的数据进行直接的模型训练,并期待他能够解决实际问题,但这里面对应的一个问题就在于数据稀缺,怎么办? 或者说其实这里面的数据对于工业这个很多行业的发展的数据往往具有一些不利于ai使用的一些特点,比如说数据样本量非常的少,比如说数据的非常的杂,以及上这些数据里面的信息给我们的目标之间的依赖关系非常的复杂,而并不只是说一个就能够给我们一个好的指示,在这样的情况下,我们其实远不只是对科学,更加深层次的一个可能性是从我们过去做的事情,从行业发展的过程中来 看 ,这个归纳相应的科学原理。   科学原理是一个最极致的方式,表述为我们熟知的一系列的物理定律,一系列的科学方程,然后ai能够带给我的可能性,其实是学习一些科学原理,或者说物理模型,从而有效的求解这样实际问题,这样就能够让我们克服很多这个数据稀缺所来的问题,问题可能在生物医药这样的个行业非常的普遍。 我们会发现 越 有价值的体系,对应稀缺程度是越高的,而同时怎样克服这一个问题,其实我们会发现计算模拟能够带给我们很多新的可能性,而ai就是让这的计算变得更快,建立这样一个带我学应用,尤其是药 物设计 方面,我们也逐步的发展一系列的新的工具,就在最开始这个解决方案推出的时候,其实是一个单点的突破,但是这里面在面向药 物 研发的需求的时候,整体的体会还是非常的深。 第一, 从药物研发的实际需求出发,需要的并不是一两个核心的计算工具,或者一两个重磅的功能,而是一个体系,一个解决方案的系并不是一个地方的模型,不一个地方用一个准确的模型就能够把所有发相关的题解决掉,而在各个环节上,我们可能解决问题的程度更多一点,进一步的,我们的流程就能够被改进一点。 同时,通过行业不断的迭代,我们才能够真正形成一个面向行业落地的一个需求的解决方案。所以,这样的一个工具不是几个接下来介绍的,也包括了一系列的这种在实际流程,一系列的磨合,另外一个非常 深刻的 感触是,无论我们提到的基础设施,还是我们的算法,还是我们行业的互动实,发展是非常非常快的。过去的这个两三年时间里面,阿里云就经历了非常快速的发展,以及非常 明 显的一个迭代,我们所面临的一个可能性和解决方案其实是在重复的升级的同时,算法层面上,就是每一个数据复级的算地方都引来了无数人的关注,所以大家在这个不同算法上有多强,这些方面永远是这样的一个原因。 我们也将自己的注意力从这个药物设计的需求出发来确保我们在这个类似于语的这样理念之下,能够保持持续的一个迭代,一个敏捷的一个研发。研发的这个项目的提升,这样的一个平台也是一个整体的时间的积累。     接来是介绍几个具体的例 子 ,第一个是关于蛋白结构结构预测,大家非常熟知的这样的一场景。其从年前带来的可能领域的巨大的突破开始,其实我们在这个领域ai这件事情上就了一新的高潮,而目前,其实我们会发现这个对于我们物设计的一系列问题来说,大多数的数据库里面足够,确实问题已经解决了,比如说一些比较丰富的的问题,对于很多我们较少的,比如说很多的一些具体 问题 ,比如说一些相的需求,以及一些实验的进展体系。 数据的丰富程度还没那么高,而数据丰富程度没那么高的体系,自然的这个模型的效果也就未必好。在这样需求之下,我们发现,一方面,需要这样一些解决,比如的模拟相结合,不只是我们重现了整个蛋结构预测的产品化的过程,取得了可能表现更好的成果,更重的是我们在不光是最开始的这个相关的训练,在这个聚合物以及很多复杂情况下所需要的训练的这个代码,以及需要的数据和相关相应的这个模型都有了这个我们的源社区,因为在这样的一个能力基础之上,我们才可能跟整个领域共来这个进步,推动这个发展。
0
0
Ali
10
AI + 分子模拟,赋能药物发现新源头(二)-阿里云开发者社区
生命科学和智能计算峰会 -AI + 分子模拟,赋能药物发现新源头 (二) 嘉宾信息: 张林峰 深势科技创始人&首席科学家 北京科学智能研究院研究员 在这里面是我们很能关心的点,尽管整体来说,从这个ai模型预测得到结果已经相当不错,但是一些局部可能还不够,需要我们结合这个模拟的手段来进步模拟。在这其实遇到的问题变化往往是需要这个很长的时间来克服变化的,这里面我就发展了一个所谓的方法,其实是用神经网络去表示这个高维的几合变量所对应的能力自由来加速的。所以,在这样的一个方案的基础职场,结合我们最开始的一个ai的预测,可以进步的对蛋白的进行得到一个更好的结构。   结构的例子是我们对于一些可能更有价值,这个设计的需求所给出的例子来说,是会发现很多的体系,在考虑要设计的时候,是需要考虑这个的,我会发现这个构象,往往是一个模型预测给我们的。紧接着我们需要一个增量来去帮助我们发现一个构的点,这样的一个例子里面,我们会发现,这个构的位点是一个在左角的这样一个点,而传统的这样一个直接的模拟的手段,由于这里面白非常的高,所以事实上我们的这个在比如说50个模拟的时间里面,大部分时候,这可能卡在这样的一个正点下的,但是结合增强采样的辅度增样的方法,我们会很快的,大范围的采集到这样的一个体系的位置上,在我们的研发的案例中,也是在这样的一个情形之下,我们发现有一个体系,有一个结合的药物,往往比较差。   其实对于那样的一个,我们找到了一个比较合适位点针对别位点所进行的一个非架的药物设计,这个数据结构预测以及进步的增加采的观理,以及可能关于这个电竞的一个奖项,除了模型的结合之外,我们发现很多时候跟这个模拟的手段相结合非常的关键,比如在这里面,当我们对于我们最后确定一个蛋白体系的结构来说,就是一个电子点的,这样之下,结合这个模拟所达到的效果,是我们的一个体系能够很好的一个任务。我们会发现,比如说一个直接的结构预测试,一个结构确定,这样的加上实验的数据,最终得到的这样的一个能够带给我们一个最理想的结构。   这时我们带来的一个确定结构的时候,就会需要大规模的虚拟筛选,而虚拟筛选其实当我们考虑方案的时候,也是觉得蛮尴尬的,这样的一个方案其实在很长的时间里面,基本上都是一个被利用的非常多,但基本上都是十几年前一个的版本。 很自然的,在我们的高性能计算的一个背景之下,我们需要对它进行及时的优化优化,就是把所有的部分都搬到到gpu上,利用gpu的一个它自身的特点,对于这样一个场景,我们可以进行进一步的调整,比如说的这样一个探索的参数更大一点,然后局的可能会更加行一些。 经过这样一系列的针对gpu特点的一个优化,我们得到了一个性能的很大的提升,就是相于个cpu,但这是一个一个比较,成本是不一样的,从成本上的差距要这个远低于我们性能上带来的提升,因为这个相比性能上提升了,在同样的精度限下提升了1000多倍,这样的一个能上的提升,再加一个弹性算利的供给,其实让我们在通过并行调度100卡,100张这个的这样一个基础之上,能够完成十多个小分子 的工作效率 ,这使得我们大规模的这个筛选这个能力得到了更大幅度的提升。 其实我们发现,比如说对于脑屏障这疾病来说,因为这个障限制其实是需要分子是比较小的,而对这样一些特定的疾病类型,我发现这个对应的这个分子的可能性已经不再需要我们的尝试,基本上可以去做这样的筛选,这个算例的算法的结合带给我们的新的可能,当我们筛选完,大部分筛选确定基本有活性的物经过一确认的时候,经过一些这个性确认的时候,下一个需求,就是对这个药物进行进一步的打造,以使得他符合一系列的性质,优化的需求。 所以,往往在这种情况下,我们是已经有了一个有活性药物,然后想要对它进行改造,这样的改造往往是最基础的,有些时候需要一些国家这样的一个调整,能够使得这个药物相应的化学性质得到的性变化太低,这样一个决方案实就是能够给我们在这个药物变化前后的一个合的改变的一个定量的计算。 目前其实已经能够达到在很大的范围内达到一个这样一个标准,所以能够在这个环节上大大的这个降低设计完合成分子所对应的这个实验的实验的成本和时间成本,在这样的一个 环境 之下,也是在这个阿里云的一个支持之下,我们已经有相当 多 的客户在使用这样解决方案。 在这个合成分子前,在优化的设计之前,用更大规模 的 app的计算,对活性下降的比较厉害 的 分子进行筛选,排除合成能够搜索范围和对应的最后的分子的质量,得到了更高的,更大的提升。   刚才这个例子,是在这个药物研发的各个环节上,从最开始的结构的确定,以我的实验数据,或者没有时间实现数据的到进一步的把点的发现是可以直接有确定的,或者说用变购的一些通过东西模拟确定的。 再进一步,这个药物的筛选和优化等各个环节上,我会发现目前其实已经形成了一套的计算的方案,而这样一个计算方案,其实往往在随着我们跟应用的一方面,随着应用场景的深入,会发现非常多的复杂的场景。比如说app,分子a和分子b它的变化,它的调整,其实它对应的情况非常的多,这样的一个场景的复杂度,是得我们在这个解决方案的一个最后的一个工业化的程度上,提到有了新的要求。 与此同时,我们基础快速的变化,我们底层的能够拿到的,以及相应的性能特点,以及我们是否选择性能优化,是否选择在一个大规模的这样一个需求之下,也会变得是一个技术的追求,变成一个成本上非常重要的考虑,所以在这样的一个解决方展进的过程中,我们也是在这一层,算 力 整个因素这一层,以及我们的场景对应一系列的合作伙伴和客户不同的成长,然后方案 是 我们在研发方面也形成了一个称之为五环的样子,其实是从这个结构到动力学,到这个药物的发现,到这个国家是非常的 有 逻辑, 非 常简单的,一种加一种国应的一系列,形成其实是需要很大的工作 量 。
0
0
Ali
11
AI + 分子模拟,赋能药物发现新源头(三)-阿里云开发者社区
生命科学和智能计算峰会 -AI + 分子模拟,赋能药物发现新源头 (三) 嘉宾信息: 张林峰 深势科技创始人&首席科学家 北京科学智能研究院研究员 最后一部分,应下何老师刚才的介绍,在我们这个形成一系列的决案的过程中,我就介绍两个特点,这 两 个特点也是使得我们 阿里 云的一个互动变得非常的关键。 第一个老师已介绍过,我们一系列方案都有一个高弹性的需求,然后在高弹性的基础之上,对于我们的不同的方案,这样的模拟方案,以及我们的这个的一个已经被很广泛的使用并且很极致的优化的个开源软件这样系列的不同到计算方,对于算 力 的需求, 对数据 的一个使用的需求是非常不一样的。比如说大部分的时候,模拟需要的是一个高率,处理它的数据也会非常的大,所以这样的一个灵活性,这样的一个弹性是我们过去的这个计算机方案很难给我们的,所以在这个基础之上,我们的这个的诉求是非常的典型的。当时在ai和科学计算结合,在这个云超算这样的一个基础设施上怎么来做? 我 想是一个探索过程,所以所以这样一个探索的经历也让我们很荣幸的 变成 一系列的解决方案。   紧接着,随着这个我们的深度的业务发展,其实就是刚才老师也介绍过计算这样的方案也是目前我们确确实实遇到了一个需求很大的场景,因为这个实际客户使用我们的平台的时候,私有化的需求非常典型,在这样的一个前基础之上,发现我们去直接做相关的事情,往往也会有很多这个新人有一系列的麻烦之处,所以在这个结合这样的一个方案,其实值得我们能够更加聚焦的去做业务需求下的一个软件解决方案,其实不只是我们的场景有需求的这样的一部分交给windows,我们发现会是更好的一种方式。 关于ai结合分子模拟对我们的研发带来一系列的新的解决方案,以及这样的一个解决方案,在软件层以及跟云上的互动战的过程中,所带动的一系列的新的可能性,最后绝大多数的物理问题和全部的化学问题,基本上有一个非常的 稳固的基础之上 ,我们需要做的其实是一系列计算方法的 发展, 能够让我们真正的有效解决解相应的方程,并从这个方 程 的解中得到更多的信息。 在眼下,我们发现,我们算计数据 算法发展的时候, 需要能够真正有效的利用规律来去带来更多的来自底层的可能性,我想这其实目前也是在快速发展的一个过程中刚才所介绍的是一个阶段性的实践,也希望在 大 家 在未来的 这个时间里,跟大家共同的推动这个领域的发展。
0
0
Ali
13
小红书如何实现高效推荐?解密背后的大数据计算平台架构-阿里云开发者社区
作者:郭一 整理:董黎明 本文整理自2019阿里云峰会·上海开发者大会开源大数据专场中小红书实时推荐团队负责人郭一先生现场分享。小红书作为生活分享类社区,目前有8500万用户,年同比增长为300%,大约每天有30亿条笔记在发现首页进行展示。推荐是小红书非常核心且重要的场景之一,本文主要分享在推荐业务场景中小红书的实时计算应用。 小红书线上推荐的流程主要可以分为三步。第一步,从小红书用户每天上传的的笔记池中选出候选集,即通过各种策略从近千万条的笔记中选出上千个侯选集进行初排。第二步,在模型排序阶段给每个笔记打分,根据小红书用户的点赞和收藏行为给平台带来的价值设计了一套权重的评估体系,通过预估用户的点击率,评估点击之后的点赞、收藏和评论等的概率进行打分。第三步,在将笔记展示给用户之前,选择分数高的笔记,通过各种策略进行多样性调整。 在此模型中最核心的点击率、点赞数、收藏、评论等都是通过机器学习模型训练对用户各项行为的预估并给出相应分数。 在小红书线上推荐过程的背后是一套完整的从线上到线下的推荐系统,下图展示了小红书推荐系统架构,红色表示实时操作,灰色则是离线操作。通过算法推荐之后,用户和笔记进行交互,产生用户的曝光、点赞和点击的信息,这些信息被收集形成用户笔记画像,也会成为模型训练的训练样本,产生分析报表。训练样本最终生成预测模型,投入线上进行算法推荐,如此就形成了一个闭环,其中分析报表则由算法工程师或策略工程师进行分析,调整推荐策略,最后再投入到线上推荐中。 离线批处理流程如下图所示,之前的处理流程是在客户端产生用户交互和打点,打点好的数据放入数仓中,以T+1模式更新用户笔记画像,生成报表并生成训练样本,最后进行模型训练和分析。小红书初级版本的离线批处理情况,整个流程都基于Hive进行处理,处理流程较慢,无法满足业务需求。 2018年开始小红书将离线的pipeline升级为实时的pipeline,用户一旦产生交互点击,系统会实时维护数据,更新用户笔记画像,实时产生训练样本,更新模型及生成报表。实时的流处理大大提高了开发效率,同时实时流处理依赖于Flink。在实时流中,首先用户的实时交互进入Kafka,借助Flink任务维护用户笔记画像,将其传给线上用户画像系统。相对来说,用户的笔记画像比较简单,不会存在过多的状态,而实时流处理中非常重要的场景是实时归因,这也是小红书最核心的业务。实时归因是一个有状态的场景,根据打点信息产生用户的行为标签,所有实时指标和训练样本都依赖行为标签,其中,实时指标放在Click House,数据分析师和策略工程师基于ClickHouse数据进行分析,训练样本仍然落到Hive中进行模型训练,同时在线学习系统中会将训练样本落到Kafka,进行实时模型训练。 实时归因将笔记推荐给用户后会产生曝光,随即产生打点信息,用户笔记的每一次曝光、点击、查看和回退都会被记录下来。如下图所示,四次曝光的用户行为会产生四个笔记曝光。如果用户点击第二篇笔记,则产生第二篇笔记的点击信息,点赞会产生点赞的打点信息;如果用户回退就会显示用户在第二篇笔记停留了20秒。实时归因会生成两份数据,第一份是点击模型的数据标签,在下图中,第一篇笔记和第三篇笔记没有点击,第二篇笔记和第四篇笔记有点击,这类数据对于训练点击模型至关重要。同样,点赞模型需要点击笔记数据,比如用户点击了第二篇笔记并发生点赞,反之点击了第四篇笔记但没有点赞,时长模型需要点击之后停留的时间数据。以上提到的数据需要与上下文关联,产生一组数据,作为模型分析和模型训练的原始数据。 小红书在处理实时归因原始数据时应用了Flink任务。从Kafka Source中读数据再写到另外一个Kafka Sink。Key(user_id和note_id)根据用户笔记和是否发生曝光和点击分为两个Session,Session使用Process Function API处理记录,每条记录都会记录曝光的Session和点击的Session。Session有20分钟的定长窗口,即在收到用户行为曝光或者点击之后,开20分钟的窗口查看是否这期间会发生曝光、点击、点赞或者停留了多少时间。Session中有状态信息,比如发生点击并点赞,系统维护用户在状态中停留的时间,检查点击是否有效等。Flink窗口结束时,需要将Session State中的内容输出到下游,进行分析和模型训练,同时清除ValueState。 在实际生产中落地Flink任务需要解决较多的问题。首先是如何对Flink进行集群管理,上了生产环境之后需要做Checkpoint,将任务持久化,尤其需要注意的一点是Backfill,持久化一旦出错,需要回到过去的某个时间,重新清除错误数据并恢复数据。 Flink集群管理:小红书选择将Flink部署在 K8s集群上,在小红书看来,K8S或许是未来的趋势之一。 Checkpoint & State持久化:Flink 的State 分为两种,FsStateBackend和RocksDBStateBackend。FsStateBackend支持较小的状态,但不支持增量的状态。在实时归因的场景中有20分钟的窗口,20分钟之内发生的所有的状态会放在内存中,定期做持久化。如果要避免这20分钟的数据丢失,RocksDBStateBackend是更好的选择,因为RocksDBStateBackend支持增量Checkpoint。 RocksDB调优:具体使用RocksDBStateBackend时依然会遇到调优问题。小红书在开始测试时,Checkpoint频率设置较短,一分钟做一次Checkpoint,而RocksDB每次做Checkpoint时都需要将数据从内存flash到磁盘中,Checkpoint频率较高时会产生非常多的小std文件,RocksDB需要花大量时间和资源去做整合,将小文件合并为大文件。State本身已经比较大,假如flash持续Compaction,磁盘I/O将会成为瓶颈,最后导致产生反压上游。 另一个问题是使用RocksDBStateBackend会有生成较多的MemTable,如果内存没有配置好,会导致out of memory,需要重新计算内存,调配MemTable,Parallelism和K8s point的内存。调优之后任务运行较为稳定,这时需要把本地磁盘换成高性能的SSD,保证内存有足够的空间。 此外,每次做Checkpoint都会产生性能损失。小红书选择将Checkpoint频率改成十分钟,同样可以满足生产需求,而且回填10分钟的数据只需要一到两分钟,需要注意的是调大RocksDB Compaction Threshold,避免频繁进行小文件的合并。 Backfill:回填是生产中常见的场景,实际生产中如果开发者写错代码导致数据错误,则需要删除错误数据,重新跑正确代码回填正确的数据;另外,如果原本只有点赞功能,会产生新的回填场景,分析用户点赞是否为有效点赞或者对其做简单的逻辑恢复都需要Backfill。Backfill非常依赖Flink对Hive的支持,小红书一直以来的数据都存放在Hive上,所以非常期待Flink 1.9版本性能的提高,尤其对Hive的支持的提升和对批的支持的加强。 小红书推荐系统是一个流计算的平台,同时涉及周边的生态。如下图所示,最右边是数据接入的模块,支持从客户端接入数据,同时后端的服务提供LogSDK的模块帮助业务直接接入实时计算的平台。红色模块是流计算平台中正在开发的模块,比如,Canal通过事务的数据库日志直接将订单流对接到数据平台,系统自动分析数据Schema,一旦Schema发生变化,自动重启相应Flink任务。左下角是基于Flink 1.8做的开发,在此基础上根据业务需要增加了Latency监控,便于分析Flink堵塞的Operator,同时将Latency监控直接接入到系统中。小红书基于Flink的SQL也进行了开发,实现了不同的connector,比如ClickHouse、Hbase、Kafka等,目前这套平台支持的业务除了实时归因的场景外,还有数据ETL、实时Spam、实时DAU,包括我们正在开发的实时RGMV大促看板都是基于此平台搭建的。 下图为系统的部分截图,左边为业务方使用小红书Flink实时流计算平台时,可以选择数据目的地,比如aws-hive和rex-clickhouse表明数据需要放到Hive和ClickHouse中。然后在Schema中输入JSON或PB格式数据,平台可以自动识别Schema,同时将数据Schema转成Flink SQL ETL的命令,自动更新Flink ETL Job的任务。此外,系统会对任务进行监控,监控任务的延迟时间、有无数据丢失,如果延迟过高或有数据丢失则产生报警及报警的级别。 上面简单介绍了小红书的实时计算平台,另外一部分就是TensorFlow和Machine Learning。2018年12月,小红书的推荐预测模型只是非常简单的Spark上的GBDT模型。后期在GBDT模型上加了LR层,后来还引入了Deep和Wide。到2019年7月,小红书推荐预测模型已经演化到了GBDT + Sparse D&W的模型。小红书主要有9个预测任务,包括click、hide、like、fav、comment、share以及follow等。其中,Click是小红书最大的模型,一天大概产生5亿的样本进行模型训练,数据量达到1T/天。 目前小红书的Red ML模型基于KubeFlow,在小红书开始做ML模型时,KubeFlow在开源社区中比较受欢迎,而且TFJob可以支持TensorFlow的分布式训练。 小红书从去年年底开始做推荐系统,系统的搭建既依赖开源社区,也拥抱开源社区。整个实时计算平台的搭建都是基于Flink,也十分期待Flink 1.9 的新功能对于Hive 和批的支持;AI是目前小红书比较强的需求,包括模型训练算力、效率等非常敏感,也会持续关注社区相关技术;后期希望能够融合Flink与AI,将流计算与机器学习无缝整合实现更智能高效的推荐。
0
0
Ali
14
如何构建批流一体数据融合平台的一致性语义保证?-阿里云开发者社区
作者:陈肃 整理:周奇,Apache Flink 社区志愿者 本文根据陈肃老师在 Apache Kafka x Flink Meetup 深圳站的分享整理而成,文章首先将从数据融合角度,谈一下 DataPipeline 对批流一体架构的看法,以及如何设计和使用一个基础框架。其次,数据的一致性是进行数据融合时最基础的问题。如果数据无法实现一致,即使同步再快,支持的功能再丰富,都没有意义。 另外,DataPipeline 目前使用的基础框架为 Kafka Connect。为实现一致性的语义保证,我们做了一些额外工作,希望对大家有一定的参考意义。 最后,会提一些我们在应用 Kafka Connect 框架时,遇到的一些现实的工程问题,以及应对方法。尽管大家的场景、环境和数据量级不同,但也有可能会遇到这些问题。希望对大家的工作有所帮助。 下图来自 Flink 官网。传统的数据融合通常基于批模式。在批的模式下,我们会通过一些周期性运行的 ETL JOB,将数据从关系型数据库、文件存储向下游的目标数据库进行同步,中间可能有各种类型的转换。 另一种是 Data Pipeline 模式。与批模式相比相比, 其最核心的区别是将批量变为实时:输入的数据不再是周期性的去获取,而是源源不断的来自于数据库的日志、消息队列的消息。进而通过一个实时计算引擎,进行各种聚合运算,产生输出结果,并且写入下游。 现代的一些处理框架,包括 Flink、Kafka Streams、Spark,或多或少都能够支持批和流两种概念。只不过像 Kafka,其原生就是为流而生,所以如果基于 Kafka Connect 做批流一体,你可能需要对批量的数据处理做一些额外工作,这是我今天重点要介绍的。 如果问题简化到你只有一张表,可能是一张 MySQL 的表,里面只有几百万行数据,你可能想将其同步到一张 Hive 表中。基于这种情况,大部分问题都不会遇到。因为结构是确定的,数据量很小,且没有所谓的并行化问题。 但在一个实际的企业场景下,如果做一个数据融合系统,就不可避免要面临几方面的挑战: 第一,“动态性” 数据源会不断地发生变化,主要归因于:表结构的变化,表的增减。针对这些情况,你需要有一些相应的策略进行处理。 第二,“可伸缩性” 任何一个分布式系统,必须要提供可伸缩性。因为你不是只同步一张表,通常会有大量数据同步任务在进行着。如何在一个集群或多个集群中进行统一的调度,保证任务并行执行的效率,这是一个要解决的基本问题。 第三,“容错性” 在任何环境里你都不能假定服务器是永远在正常运行的,网络、磁盘、内存都有可能发生故障。这种情况下一个 Job 可能会失败,之后如何进行恢复?状态能否延续?是否会产生数据的丢失和重复?这都是要考虑的问题。 第四,“异构性” 当我们做一个数据融合项目时,由于源和目的地是不一样的,比如,源是 MySQL,目的地是 Oracle,可能它们对于一个字段类型定义的标准是有差别的。在同步时,如果忽略这些差异,就会造成一系列的问题。 第五,“一致性” 一致性是数据融合中最基本的问题,即使不考虑数据同步的速度,也要保证数据一致。数据一致性的底线为:数据先不丢,如果丢了一部分,通常会导致业务无法使用;在此基础上更好的情况是:源和目的地的数据要完全一致,即所谓的端到端一致性,如何做到呢? 目前在做这样的平台时,业界比较公认的有两种架构:一种是 Lambda 架构,Lambda 架构的核心是按需使用批量和流式的处理框架,分别针对批式和流式数据提供相应的处理逻辑。最终通过一个服务层进行对外服务的输出。 为什么我们认为 Lambda 架构是批流一体化的必然要求?这好像看起来是矛盾的(与之相对,还有一种架构叫 Kappa 架构,即用一个流式处理引擎解决所有问题)。 实际上,这在很大程度来自于现实中用户的需求。DataPipeline 在刚刚成立时只有一种模式,只支持实时流同步,在我们看来这是未来的一种趋势。 但后来发现,很多客户实际上有批量同步的需求。比如,银行在每天晚上可能会有一些月结、日结,证券公司也有类似的结算服务。基于一些历史原因,或出于对性能、数据库配置的考虑,可能有的数据库本身不能开 change log。所以实际上并不是所有情况下都能从源端获取实时的流数据。 考虑到上述问题,我们认为一个产品在支撑数据融合过程中,必须能同时支撑批量和流式两种处理模式,且在产品里面出于性能和稳定性考虑提供不同的处理策略,这才是一个相对来说比较合理的基础架构。 具体到做这件事,还可以有两种基础的应用模式。假如我需要将数据从 MySQL 同步到 Hive,可以直接建立一个 ETL 的 JOB(例如基于 Flink),其中封装所有的处理逻辑,包括从源端读取数据,然后进行变换写入目的地。在将代码编译好以后,就可以放到 Flink 集群上运行,得到想要的结果。这个集群环境可以提供所需要的基础能力,刚才提到的包括分布式,容错等。 另一种模式是 ETL JOB 本身输入输出实际上都是面对消息队列的,实际上这是现在最常使用的一种模式。在这种模式下,需要通过一些独立的数据源和目的地连接器,来完成数据到消息队列的输入和输出。ETL JOB 可以用多种框架实现,包括 Flink、Kafka Streams 等,ETL JOB 只和消息队列发生数据交换。 DataPipeline 选择 MQ 模式,主要有几点考虑: 第一 ,在我们产品应用中有一个非常常见的场景:要做数据的一对多分发。数据要进行一次读取,然后分发到各种不同的目的地,这是一个非常适合消息队列使用的分发模型。 第二 ,有时会对一次读取的数据加不同的处理逻辑,我们希望这种处理不要重新对源端产生一次读取。所以在多数情况下,都需将数据先读到消息队列,然后再配置相应的处理逻辑。 第三 ,Kafka Connect 就是基于 MQ 模式的,它有大量的开源连接器。基于 Kafka Connect 框架,我们可以重用这些连接器,节省研发的投入。 第四 ,当你把数据抽取跟写入目的地,从处理逻辑中独立出来之后,便可以提供更强大的集成能力。因为你可以在消息队列上集成更多的处理逻辑,而无需考虑重新写整个 Job。 相应而言,如果你选择将 MQ 作为所有 JOB 的传输通道,就必须要克服几个缺点: 第一 ,所有数据的吞吐都经过 MQ,所以 MQ 会成为一个吞吐瓶颈。 第二 ,因为是一个完全的流式架构,所以针对批量同步,你需要引入一些边界消息来实现一些批量控制。 第三 ,Kafka 是一个有持久化能力的消息队列,这意味着数据留存是有极限的。比如,你将源端的读到 Kafka Topic 里面,Topic 不会无限的大,有可能会造成数据容量超限,导致一些数据丢失。 第四 ,当批量同步在中间因为某种原因被打断,无法做续传时,你需要进行重传。在重传过程中,首先要将数据进行清理,如果基于消息队列模式,清理过程就会带来额外的工作。你会面临两个困境:要么清空原有的消息队列,要么你创造新的消息队列。这肯定不如像直接使用一些批量同步框架那样来的直接。 先简单介绍一下用户对于数据同步方面的一些基本要求: 第一种需求,批量同步需要以一种事务性的方式完成同步 无论是同步一整块的历史数据,还是同步某一天的增量,该部分数据到目的地,必须是以事务性的方式出现的。而不是在同步一半时,数据就已经在目的地出现了,这可能会影响下游的一些计算逻辑。 第二种需求,流式数据尽可能快的完成同步 大家都希望越快越好,但相应的,同步的越快,吞吐量有可能因为你的参数设置出现相应的下降,这可能需要有一个权衡。 第三种需求,批量和流式可能共存于一个 JOB 作为一个数据融合产品,当用户在使用DataPipeline时,通常需要将存量数据同步完,后面紧接着去接增量。然后存量与增量之间需要进行一个无缝切换,中间的数据不要丢、也不要多。 **第四种需求,按需灵活选择一致性语义保证 ** DataPipeline 作为一个产品,在客户的环境中,我们无法对客户数据本身的特性提出强制要求。我们不能要求客户数据一定要有主键或者有唯一性的索引。所以在不同场景下,对于一致性语义保证,用户的要求也不一样的: 比如在有主键的场景下,一般我们做到至少有一次就够了,因为在下游如果对方也是一个类似于关系型数据库这样的目的地,其本身就有去重能力,不需要在过程中间做一个强一致的保证。但是,如果其本身没有主键,或者其下游是一个文件系统,如果不在过程中间做额外的一致性保证,就有可能在目的地产生多余的数据,这部分数据对于下游可能会造成非常严重的影响。 如果要解决端到端的数据一致性,我们要处理好几个基本环节: **第一,在源端做一个一致性抽取 ** 一致性抽取是什么含义?即当数据从通过数据连接器写入到 MQ 时,和与其对应的 offset 必须是以事务方式进入 MQ 的。 第二,一致性处理 如果大家用过 Flink,Flink 提供了一个端到端一致性处理的能力,它是内部通过 checkpoint 机制,并结合 Sink 端的二阶段提交协议,实现从数据读取处理到写入的一个端到端事务一致性。其它框架,例如 Spark Streaming 和 Kafka Streams 也有各自的机制来实现一致性处理。 第三,一致性写入 在 MQ 模式下,一致性写入,即 consumer offset 跟实际的数据写入目的时,必须是同时持久化的,要么全都成功,要么全部失败。 第四,一致性衔接 在 DataPipeline 的产品应用中,历史数据与实时数据的传输有时需要在一个任务中共同完成。所以产品本身需要有这种一致性衔接的能力,即历史数据和流式数据,必须能够在一个任务中,由程序自动完成它们之间的切换。 Kafka Connect 如何保证数据同步的一致性?就目前版本,Kafka Connect 只能支持端到端的 at least once,核心原因在于,在 Kafka Connect 里面,其 offset 的持久化与数据发送本身是异步完成的。这在很大程度上是为了提高其吞吐量考虑,但相应产生的问题是,如果使用 Kafka Connect,框架本身只能为你提供 at least once 的语义保证。 在该模式下,如果没有通过主键或下游应用进行额外地去重,同步过程当中的数据会在极端情况下出现重复,比如源端发送出一批数据已经成功,但 offset 持久化失败了,这样在任务恢复之后,之前已经发送成功的数据会再次重新发送一批,而下游对这种现象完全是不知情的。目的端也是如此,因为 consumer 的 offset 也是异步持久化,就会到导致有可能数据已经持久化到 Sink,但实际上 consumer offset 还没有推进。这是我们在应用原生的 Kafka Connect 框架里遇到最大的两个问题。 DataPipeline 如何解决上述问题?首先,需要用协议的方式保证每一步都做成事务。一旦做成事务,由于每个环节都是解耦的,其最终数据就可以保证一致性。下图为二阶段提交协议的最基础版本,接下来为大家简单介绍一下。 首先 ,在二阶段提交协议中,对于分布式事务的参与方,在 DataPipeline 的场景下为数据写入与 offset 写入,这是两个独立组件。两者之间的写入操作由 Coordinator 进行协调。第一步是一个 prepare 阶段,每一个参与方会将数据写入到自己的目的地,具体持久化的位置取决于具体应用的实现。 第二步 ,当 prepare 阶段完成之后,Coordinator 会向所有参与者发出 commit 指令,所有参与者在完成 commit 之后,会发出一个 ack,Coordinator 收到 ack 之后,事务就完成了。如果出现失败,再进行相应的回滚操作。其实在分布式数据库的设计领域中,单纯应用一个二阶段提交协议会出现非常多的问题,例如 Coordinator 本身如果不是高可用的,在过程当中就有可能出现事务不一致的问题。 所以应用二阶段提交协议,最核心的问题是如何保证 Coordinator 高可用。所幸在大家耳熟能详的各种框架里,包括 Kafka 和 Flink,都能够通过分布式一致协议实现 Coordinator 高可用,这也是为什么我们能够使用二阶段提交来保证事务性。 关于 Kafka 事务消息原理,网上有很多资料,在此简单说一下能够达到的效果。Kafka 通过二阶段提交协议,最终实现了两个最核心的功能。 第一,一致性抽取 上文提到数据要被发送进 Kafka,同时 offset 要被持久化到 Kafka,这是对两个不同 Topic 的写入。通过利用 Kafka 事务性消息,我们能够保证 offset 的写入和数据的发送是一个事务。如果 offset 没有持久化成功,下游是看不到这批数据的,这批数据实际上最终会被丢弃掉。 所以对于源端的发送,我们对 Kafka Connect 的 Source Worker 做了一些改造,让其能够提供两种模式,如果用户的数据本身是具备主键去重能力的,就可以继续使用 Kafka Connect 原生的模式。 如果用户需要强一致时,首先要开启一个源端的事务发送功能,这就实现了源端的一致性抽取。其可以保证数据进 Kafka 一端不会出现数据重复。这里有一个限制,即一旦要开启一致性抽取,根据 Kafka 必须要将 ack 设置成 all,这意味着一批数据有多少个副本,其必须能够在所有的副本所在的 broker 都已经应答的情况下,才可以开始下一批数据的写入。尽管会造成一些性能上的损失,但为了实现强一致,你必须要接受这一事实。 **第二,一致性处理 ** 事务性消息最早就是为 Kafka Streams 设计和准备的。可以写一段 Kafka Streams 应用,从 Kafka 里读取数据,然后完成转化逻辑,进而将结果再输出回 Kafka。Sink 端再从 Kafka 中消费数据,写入目的地。 之前简要谈了一下二阶段提交协议的原理,DataPipeline 实现的方式不算很深奥,基本是业界的一种统一方式。其中最核心的点是,我们将 consumer offset 管理从 Kafka Connect 框架中独立出来,实现事务一致性提交。另外,在 Sink 端封装了一个类似于 Flink 的 TwoPhaseCommitSinkFunction 方式,其定义了 Sink 若要实现一个二阶段提交所必须要实现的一些功能。 DataPipeline 将 Sink Connector 分为两类,一类是 Connector 本身具备了事务能力,比如绝大部分的关系型数据库,只需将 offset 跟数据同时持久化到目的地即可。额外的可能需要有一张 offset 表来记录提交的 offset。还有一类 Sink 不具备事务性能力,类似像 FTP、OSS 这些对象存储,我们需要去实现一个二阶段提交协议,最终才能保证 Sink 端的数据能够达到一致性写入。 关于批量数据与实时数据如何衔接的问题,主要有两个关键点: 第一 ,当开始进行一个批量数据同步时,以关系型数据库为例,你应该拿到当时一个整体数据的 Snapshot,并在一个事务中同时记录当时对应的日志起始值。以 MySQL 为例,当要获取一个 Binlog 起始偏移量时,需要开启一个 START TRANSACTION WITH CONSISTENT SNAPSHOT,这样才能保证完成全量之后,后期的读取增量日志同步不会产生重复数据。 第二 ,如果采用增量同步模式,则必须根据实际的数据业务领域,采用一种比较灵活的增量表达式,才能避免读到写到一半的数据。比如在你的数据中,其 ID 是一个完全自增,没有任何重复的可能,此时只需每次单纯的大于上一次同步的最后一条记录即可。 但如果是一个时间戳,无论精度多高,都有可能在数据库产生相同的时间戳,所以安全的做法是每次迭代时,取比当前时间稍微少一点,保证留出一个安全时间,比如五秒甚至一分钟,这样你永远不会读到一些时间戳可能会产生冲突的这部分数据,避免遗漏数据。这是一个小技巧,但如果没有注意,在使用过程中就会产生各种各样的问题。 还有一点是上面提及的,如何能够在一个流式框架实现批量同步的一致性,对于所有的流式框架,需要引入一些边界条件来标志着一次批量同步的开始和结束。DataPipeline 在每次批量发送开始和结束后,会引入一些控制量信号,然后在 Sink端进行相应处理。同样为了保证事务一致性,在 Sink 端处理这种批量同步时,依然要做一些类似于二阶段提交这样的方式,避免在一些极端情况下出现数据不一致的问题。 上文介绍的是 DataPipeline 如何基于 Kafka Connect 做事务同步一致性的方案。 DataPipeline 在使用 Kafka Connect 过程中遇到过一些问题,目前大部分已经有一些解决方案,还有少量问题,可能需要未来采用新的方法/框架才能够更好的解决。 第一,反压的问题 Kafka Connect 设计的逻辑是希望实现源端和目的端完全解耦,这种解偶本身是一个很好的特性。但也带来一些问题,源和目的地的 task 完全不知道彼此的存在。刚才我提到 Kafka 有容量限制,不能假定在一个客户环境里面,会给你无限的磁盘来做缓冲。通常我们在客户那边默认 Topic 为 100G 的容量。如果源端读的过快,大量数据会在 Kafka 里堆积,目的端没有及时消费,就有可能出现数据丢失,这是一个非常容易出现的问题。 怎么解决?DataPipeline 作为一个产品,在 Kafka Connect 之上,做了控制层,控制层中有像 Manager 这样的逻辑组件,会监控每一个 Topic 消费的 lag,当达到一定阈值时,会对源端进行限速,保证源和目的地尽可能匹配。 第二,资源隔离 Connect Worker 集群无法对 task 进行资源预留,多个 task 并行运行会相互影响。Worker 的 rest 接口是队列式的,单个集群任务过多会导致启停缓慢。 我们正在考虑利用外部的资源调度框架,例如 K8s 进行 worker 节点管理;以及通过路由规则将不同优先级任务运行在不同的 worker 集群上,实现预分配和共享资源池的灵活配置。 第三,Rebalance 在 2.3 版本以前,Kafka Connect 的 task rebalance 采用 stop-the-world 模式,牵一发动全身。在 2.3 版本之后,已经做了非常大优化,改为了具有粘性的 rebalance。所以如果使用 Kafka Connect,强烈推荐一定要升级到 2.3 以上的版本,也就是目前的最新版本。 基于 MQ 模式的架构,针对大批量数据的同步,实际上还是容易出现性能瓶颈。主要瓶颈是在 MQ 的集群,我们并不能在客户环境里无限优化 Kafka 集群的性能,因为客户提供的硬件资源有限。所以一旦客户给定了硬件资源,Kafka 吞吐的上限就变为一个固定值。所以针对批量数据的同步,可能未来会考虑用内存队列替代 MQ。 同时,会采用更加灵活的 Runtime,主要是为了解决刚才提到的预分配资源池和共享资源池的统一管理问题。 另外,关于数据质量管理,实际上金融类客户对数据质量的一致性要求非常高。所以对于一些对数据质量要求非常高的客户,我们考虑提供一些后校验功能,尤其是针对批量同步。 ▼ Apache Flink 社区推荐 ▼ Apache Flink 及大数据领域顶级盛会 Flink Forward Asia 2019 重磅开启, 大会议程精彩上线 ,了解 Flink Forward Asia 2019 的更多信息,请查看: https://developer.aliyun.com/special/ffa2019 首届 Apache Flink 极客挑战赛重磅开启,聚焦机器学习与性能优化两大热门领域,40万奖金等你拿,加入挑战请点击: https://tianchi.aliyun.com/markets/tianchi/flink2019
0
0
Ali
15
OPPO数据中台之基石:基于Flink SQL构建实数据仓库-阿里云开发者社区
作者 | 张俊 本文整理自 2019 年 4 月 13 日在深圳举行的 Flink Meetup 会议,分享嘉宾张俊,目前担任 OPPO 大数据平台研发负责人,也是 Apache Flink contributor。本文主要内容如下: 一.OPPO 实时数仓的演进思路 1.1.OPPO 业务与数据规模 大家都知道 OPPO 是做智能手机的,但并不知道 OPPO 与互联网以及大数据有什么关系,下图概要介绍了 OPPO 的业务与数据情况: OPPO 作为手机厂商,基于 Android 定制了自己的 ColorOS 系统,当前日活跃用户超过 2 亿。围绕 ColorOS,OPPO 构建了很多互联网应用,比如应用商店、浏览器、信息流等。在运营这些互联网应用的过程中,OPPO 积累了大量的数据,上图右边是整体数据规模的演进:从 2012 年开始每年都是 2~3 倍的增长速度,截至目前总数据量已经超过 100PB,日增数据量超过 200TB。 要支撑这么大的一个数据量,OPPO 研发出一整套的数据系统与服务,并逐渐形成了自己的数据中台体系。 1.2.OPPO 数据中台 今年大家都在谈数据中台,OPPO 是如何理解数据中台的呢?我们把它分成了 4 个层次: 以上就是 OPPO 数据中台的整个体系,而数据仓库在其中处于非常基础与核心的位置。 1.3. 构建 OPPO 离线数仓 过往 2、3 年,我们的重点聚焦在离线数仓的构建。上图大致描述了整个构建过程:首先,数据来源基本是手机、日志文件以及 DB 数据库,我们基于 Apache NiFi 打造了高可用、高吞吐的接入系统,将数据统一落入 HDFS,形成原始层;紧接着,基于 Hive 的小时级 ETL 与天级汇总 Hive 任务,分别负责计算生成明细层与汇总层;最后,应用层是基于 OPPO 内部研发的数据产品,主要是报表分析、用户画像以及接口服务。此外,中间的明细层还支持基于 Presto 的即席查询与自助提数。 伴随着离线数仓的逐步完善,业务对实时数仓的诉求也愈发强烈。 1.4. 数仓实时化的诉求 对于数仓实时化的诉求,大家通常都是从业务视角来看,但其实站在平台的角度,实时化也能带来切实的好处。首先,从业务侧来看,报表、标签、接口等都会有实时的应用场景,分别参见上图左边的几个案例;其次,对平台侧来说,我们可以从三个案例来看: 第一 ,OPPO 大量的批量任务都是从 0 点开始启动,都是通过 T+1 的方式去做数据处理,这会导致计算负载集中爆发,对集群的压力很大; 第二 ,标签导入也属于一种 T+1 批量任务,每次全量导入都会耗费很长的时间; 第三 ,数据质量的监控也必须是 T+1 的,导致没办法及时发现数据的一些问题。 既然业务侧和平台侧都有实时化的这个诉求,那 OPPO 是如何来构建自己的实时数仓呢? 1.5. 离线到实时的平滑迁移 无论是一个平台还是一个系统,都离不开上下两个层次的构成:上层是 API,是面向用户的编程抽象与接口;下层是 Runtime,是面向内核的执行引擎。我们希望从离线到实时的迁移是平滑的,是什么意思呢?从 API 这层来看,数仓的抽象是 Table、编程接口是 SQL+UDF,离线数仓时代用户已经习惯了这样的 API,迁移到实时数仓后最好也能保持一致。而从 Runtime 这层来看,计算引擎从 Hive 演进到了 Flink,存储引擎从 HDFS 演进到了 Kafka。 基于以上的思路,只需要把之前提到的离线数仓 pipeline 改造下,就得到了实时数仓 pipeline。 1.6. 构建 OPPO 实时数仓 从上图可以看到,整个 pipeline 与离线数仓基本相似,只是把 Hive 替换为 Flink,把 HDFS 替换为 Kafka。从总体流程来看,基本模型是不变的,还是由原始层、明细层、汇总层、应用层的级联计算来构成。 因此,这里的核心问题是如何基于 Flink 构建出这个 pipeline,下面就介绍下我们基于 Flink SQL 所做的一些工作。 二. 基于 Flink SQL 的扩展工作 2.1.Why Flink SQL 首先,为什么要用 Flink SQL? 下图展示了 Flink 框架的基本结构,最下面是 Runtime,这个执行引擎我们认为最核心的优势是四个:第一,低延迟,高吞吐;第二,端到端的 Exactly-once;第三,可容错的状态管理;第四,Window & Event time 的支持。基于 Runtime 抽象出 3 个层次的 API,SQL 处于最上层。 Flink SQL API 有哪些优势呢?我们也从四个方面去看: 第一 ,支持 ANSI SQL 的标准; 第二 ,支持丰富的数据类型与内置函数,包括常见的算术运算与统计聚合; 第三 ,可自定义 Source/Sink,基于此可以灵活地扩展上下游; 第四 ,批流统一,同样的 SQL,既可以跑离线也可以跑实时。 那么,基于 Flink SQL API 如何编程呢?下面是一个简单的演示: 首先是定义与注册输入 / 输出表,这里创建了 2 张 Kakfa 的表,指定 kafka 版本是什么、对应哪个 topic;接下来是注册 UDF,篇幅原因这里没有列出 UDF 的定义;最后是才是执行真正的 SQL。可以看到,为了执行 SQL,需要做这么多的编码工作,这并不是我们希望暴露给用户的接口。 2.2. 基于 WEB 的开发 IDE 前面提到过,数仓的抽象是 Table,编程接口是 SQL+UDF。对于用户来说,平台提供的编程界面应该是类似上图的那种,有用过 HUE 做交互查询的应该很熟悉。左边的菜单是 Table 列表,右边是 SQL 编辑器,可以在上面直接写 SQL,然后提交执行。要实现这样一种交互方式,Flink SQL 默认是无法实现的,中间存在 gap,总结下来就 2 点: 第一 ,元数据的管理,怎么去创建库表,怎么去上传 UDF,使得之后在 SQL 中可直接引用; 第二 ,SQL 作业的管理,怎么去编译 SQL,怎么去提交作业。 在技术调研过程中,我们发现了 Uber 在 2017 年开源的 AthenaX 框架。 2.3.AthenaX:基于 REST 的 SQL 管理器 AthenaX 可以看作是一个基于 REST 的 SQL 管理器,它是怎么实现 SQL 作业与元数据管理的呢? 对于 SQL 作业提交,AthenaX 中有一个 Job 的抽象,封装了要执行的 SQL 以及作业资源等信息。所有的 Job 由一个 JobStore 来托管,它定期跟 YARN 当中处于 Running 状态的 App 做一个匹配。如果不一致,就会向 YARN 提交对应的 Job。 对于元数据管理,核心的问题是如何将外部创建的库表注入 Flink,使得 SQL 中可以识别到。实际上,Flink 本身就预留了与外部元数据对接的能力,分别提供了 ExternalCatalog 和 ExternalCatalogTable 这两个抽象。AthenaX 在此基础上再封装出一个 TableCatalog,在接口层面做了一定的扩展。在提交 SQL 作业的阶段,AthenaX 会自动将 TableCatalog 注册到 Flink,再调用 Flink SQL 的接口将 SQL 编译为 Flink 的可执行单元 JobGraph,并最终提交到 YARN 生成新的 App。 AthenaX 虽然定义好了 TableCatalog 接口,但并没有提供可直接使用的实现。那么,我们怎么来实现,以便对接到我们已有的元数据系统呢? 2.4.Flink SQL 注册库表的过程 首先,我们得搞清楚 Flink SQL 内部是如何注册库表的。整个过程涉及到三个基本的抽象:TableDescriptor、TableFactory 以及 TableEnvironment。 TableDescriptor 顾名思义,是对表的描述,它由三个子描述符构成:第一是 Connector,描述数据的来源,比如 Kafka、ES 等;第二是 Format,描述数据的格式,比如 csv、json、avro 等;第三是 Schema,描述每个字段的名称与类型。TableDescriptor 有两个基本的实现——ConnectTableDescriptor 用于描述内部表,也就是编程方式创建的表;ExternalCatalogTable 用于描述外部表。 有了 TableDescriptor,接下来需要 TableFactory 根据描述信息来实例化 Table。不同的描述信息需要不同的 TableFactory 来处理,Flink 如何找到匹配的 TableFactory 实现呢?实际上,为了保证框架的可扩展性,Flink 采用了 Java SPI 机制来加载所有声明过的 TableFactory,通过遍历的方式去寻找哪个 TableFactory 是匹配该 TableDescriptor 的。TableDescriptor 在传递给 TableFactory 前,被转换成一个 map,所有的描述信息都用 key-value 形式来表达。TableFactory 定义了两个用于过滤匹配的方法——一个是 requiredContext(),用于检测某些特定 key 的 value 是否匹配,比如 connector.type 是否为 kakfa;另一个是 supportedProperties(),用于检测 key 是否能识别,如果出现不识别的 key,说明无法匹配。 匹配到了正确的 TableFactory,接下来就是创建真正的 Table,然后将其通过 TableEnvironment 注册。最终注册成功的 Table,才能在 SQL 中引用。 2.5.Flink SQL 对接外部数据源 搞清楚了 Flink SQL 注册库表的过程,给我们带来这样一个思路:如果外部元数据创建的表也能被转换成 TableFactory 可识别的 map,那么就能被无缝地注册到 TableEnvironment。基于这个思路,我们实现了 Flink SQL 与已有元数据中心的对接,大致过程参见下图: 通过元数据中心创建的表,都会将元数据信息存储到 MySQL,我们用一张表来记录 Table 的基本信息,然后另外三张表分别记录 Connector、Format、Schema 转换成 key-value 后的描述信息。之所以拆开成三张表,是为了能够能独立的更新这三种描述信息。接下来是定制实现的 ExternalCatalog,能够读取 MySQL 这四张表,并转换成 map 结构。 2.6. 实时表 - 维表关联 到目前为止,我们的平台已经具备了元数据管理与 SQL 作业管理的能力,但是要真正开放给用户使用,还有一点基本特性存在缺失。通过我们去构建数仓,星型模型是无法避免的。这里有一个比较简单的案例:中间的事实表记录了广告点击流,周边是关于用户、广告、产品、渠道的维度表。 假定我们有一个 SQL 分析,需要将点击流表与用户维表进行关联,这个目前在 Flink SQL 中应该怎么来实现?我们有两种实现方式,一个基于 UDF,一个基于 SQL 转换,下面分别展开来讲一下。 2.7. 基于 UDF 的维表关联 首先是基于 UDF 的实现,需要用户将原始 SQL 改写为带 UDF 调用的 SQL,这里是 userDimFunc,上图右边是它的代码实现。UserDimFunc 继承了 Flink SQL 抽象的 TableFunction,它是其中一种 UDF 类型,可以将任意一行数据转换成一行或多行数据。为了实现维表关联,在 UDF 初始化时需要从 MySQL 全量加载维表的数据,缓存在内存 cache 中。后续对每行数据的处理,TableFunction 会调用 eval() 方法,在 eval() 中根据 user_id 去查找 cache,从而实现关联。当然,这里是假定维表数据比较小,如果数据量很大,不适合全量的加载与缓存,这里不做展开了。 基于 UDF 的实现,对用户和平台来说都不太友好:用户需要写奇怪的 SQL 语句,比如图中的 LATERAL TABLE;平台需要为每个关联场景定制特定的 UDF,维护成本太高。有没有更好的方式呢?下面我们来看看基于 SQL 转换的实现。 2.8. 基于 SQL 转换的维表关联 我们希望解决基于 UDF 实现所带来的问题,用户不需要改写原始 SQL,平台不需要开发很多 UDF。有一种思路是,是否可以在 SQL 交给 Flink 编译之前,加一层 SQL 的解析与改写,自动实现维表的关联?经过一定的技术调研与 POC,我们发现是行得通的,所以称之为基于 SQL 转换的实现。下面将该思路展开解释下。 首先,增加的 SQL 解析是为了识别 SQL 中是否存在预先定义的维度表,比如上图中的 user_dim。一旦识别到维表,将触发 SQL 改写的流程,将红框标注的 join 语句改写成新的 Table,这个 Table 怎么得到呢?我们知道,流计算领域近年来发展出“流表二象性”的理念,Flink 也是该理念的践行者。这意味着,在 Flink 中 Stream 与 Table 之间是可以相互转换的。我们把 ad_clicks 对应的 Table 转换成 Stream,再调用 flatmap 形成另一个 Stream,最后再转换回 Table,就得到了 ad_clicks_user。最后的问题是,flatmap 是如何实现维表关联的? Flink 中对于 Stream 的 flatmap 操作,实际上是执行一个 RichFlatmapFunciton,每来一行数据就调用其 flatmap() 方法做转换。那么,我们可以定制一个 RichFlatmapFunction,来实现维表数据的加载、缓存、查找以及关联,功能与基于 UDF 的 TableFunction 实现类似。 既然 RichFlatmapFunciton 的实现逻辑与 TableFunction 相似,那为什么相比基于 UDF 的方式,这种实现能更加通用呢?核心的点在于多了一层 SQL 解析,可以将维表的信息获取出来(比如维表名、关联字段、select 字段等),再封装成 JoinContext 传递给 RichFlatmapFunciton,使得的表达能力就具备通用性了。 二.构建实时数仓的应用案例 下面分享几个典型的应用案例,都是在我们的平台上用 Flink SQL 来实现的。 3.1. 实时 ETL 拆分 这里是一个典型的实时 ETL 链路,从大表中拆分出各业务对应的小表: OPPO 的最大数据来源是手机端埋点,从手机 APP 过来的数据有一个特点,所有的数据是通过统一的几个通道上报过来。因为不可能每一次业务有新的埋点,都要去升级客户端,去增加新的通道。比如我们有个 sdk_log 通道,所有 APP 应用的埋点都往这个通道上报数据,导致这个通道对应的原始层表巨大,一天几十个 TB。但实际上,每个业务只关心它自身的那部分数据,这就要求我们在原始层进行 ETL 拆分。 这个 SQL 逻辑比较简单,无非是根据某些业务字段做筛选,插入到不同的业务表中去。它的特点是,多行 SQL 最终合并成一个 SQL 提交给 Flink 执行。大家担心的是,包含了 4 个 SQL,会不会对同一份数据重复读取 4 次?其实,在 Flink 编译 SQL 的阶段是会做一些优化的,因为最终指向的是同一个 kafka topic,所以只会读取 1 次数据。 另外,同样的 Flink SQL,我们同时用于离线与实时数仓的 ETL 拆分,分别落入 HDFS 与 Kafka。Flink 中本身支持写入 HDFS 的 Sink,比如 RollingFileSink。 3.2. 实时指标统计 这里是一个典型的计算信息流 CTR 的这个案例,分别计算一定时间段内的曝光与点击次数,相除得到点击率导入 Mysql,然后通过我们内部的报表系统来可视化。这个 SQL 的特点是它用到了窗口 (Tumbling Window) 以及子查询。 3.3. 实时标签导入 这里是一个实时标签导入的案例,手机端实时感知到当前用户的经纬度,转换成具体 POI 后导入 ES,最终在标签系统上做用户定向。 这个 SQL 的特点是用了 AggregateFunction,在 5 分钟的窗口内,我们只关心用户最新一次上报的经纬度。AggregateFunction 是一种 UDF 类型,通常是用于聚合指标的统计,比如计算 sum 或者 average。在这个示例中,由于我们只关心最新的经纬度,所以每次都替换老的数据即可。 四. 未来工作的思考和展望 最后,给大家分享一下关于未来工作,我们的一些思考与规划,还不是太成熟,抛出来和大家探讨一下。 4.1. 端到端的实时流处理 什么是端到端?一端是采集到的原始数据,另一端是报表 / 标签 / 接口这些对数据的呈现与应用,连接两端的是中间实时流。当前我们基于 SQL 的实时流处理,源表是 Kafka,目标表也是 Kafka,统一经过 Kafka 后再导入到 Druid/ES/HBase。这样设计的目的是提高整体流程的稳定性与可用性:首先,kafka 作为下游系统的缓冲,可以避免下游系统的异常影响实时流的计算(一个系统保持稳定,比起多个系统同时稳定,概率上更高点);其次,kafka 到 kafka 的实时流,exactly-once 语义是比较成熟的,一致性上有保证。 然后,上述的端到端其实是由割裂的三个步骤来完成的,每一步可能需要由不同角色人去负责处理:数据处理需要数据开发人员,数据导入需要引擎开发人员,数据资产化需要产品开发人员。 我们的平台能否把端到端给自动化起来,只需要一次 SQL 提交就能打通处理、导入、资产化这三步?在这个思路下,数据开发中看到的不再是 Kafka Table,而应该是面向场景的展示表 / 标签表 / 接口表。比如对于展示表,创建表的时候只要指定维度、指标等字段,平台会将实时流结果数据从 Kafka 自动导入 Druid,再在报表系统自动导入 Druid 数据源,甚至自动生成报表模板。 4.2. 实时流的血缘分析 关于血缘分析,做过离线数仓的朋友都很清楚它的重要性,它在数据治理中都起着不可或缺的关键作用。对于实时数仓来说也莫不如此。我们希望构建端到端的血缘关系,从采集系统的接入通道开始,到中间流经的实时表与实时作业,再到消费数据的产品,都能很清晰地展现出来。基于血缘关系的分析,我们才能评估数据的应用价值,核算数据的计算成本。 4.3. 离线 - 实时数仓一体化 最后提一个方向是离线实时数仓的一体化。我们认为短期内,实时数仓无法替代离线数仓,两者并存是新常态。在离线数仓时代,我们积累的工具体系,如何去适配实时数仓,如何实现离线与实时数仓的一体化管理?理论上来讲,它们的数据来源是一致的,上层抽象也都是 Table 与 SQL,但本质上也有不同的点,比如时间粒度以及计算模式。对于数据工具与产品来说,需要做哪些改造来实现完全的一体化,这也是我们在探索和思考的。
0
0
Ali
5
AI制药工业落地的痛点与前进方向(三)-阿里云开发者社区
生命科学和智能计算峰会-AI制药工业落地的痛点与前进方向(三) 嘉宾信息 潘麓蓉 圆壹智慧创始人兼CEO 对于指标是很有影响的,一个电信等点就会有巨大的反差,你看起来是非常相似的,从一个2D的角度,一个人的角度,但实际上就有巨大的变化,实际上用ai来学的时候,是可以分开的,它分开的原理说它实际上学到了二维以外的一些维度,它能够识别的一个微小的区别,第二个一个多目标问题,传统的专家,只能够在一个维度上一次优化一个问题,过去要1000个分子2000个分子才可以,如果采取就人工智能里面最典型的的一个方式,实际上它也是可以很快出来的,a i比人做得好的。在过去的实践当中,基本上用ai,比如说在30个维度里面同时去打分,再去做实验,已经在实践当中验证了,像刚才郭博士也在阿里云面提到过了。   实际上过程就是我比较坚信ai是能够比专家更好的。第二个是真正的在制药环节里面不是基于靶点的这种,往往每个项目已经非常后期了,一定不是一个非常新的项目,非常新的项目往往是从表情筛选开始的。也就说它一个黑盒子,一个细胞,或者是一个病人的一个表情,你怎么样能够能够从表情直接预测一个人? 实际上就涉及一个黑盒子的问题。实际上也是ai擅长的,里面也是统计了过去大部分原创新药都是属于这儿出来的,但大部分已经知道了,基本上从发达论的角度就是ai的,过去也尝试过常多。就可以举例说明,比如说在这儿的时候,当时对于3000个人,每个进行了一个ai模型的建立,进行了两种大规模的验证。 研究验证发现,过去30年的数据里面只有5%的数据,它能够基本上接近真实的,实际上已经很好,就说明实际上它有这趋势,在过去的这两三年,数据更多的增长,我相信数字可能会更多一些。另外核心问题一直是一个小分子的瓶颈,基本上去年已经说天路径都已经可以预测,但合成问题的瓶颈并不是在路线上的预测, 在条件预测这块,大家都很关注了,到底怎么用?我们可以说它是一个化时代壮举。首先要提出一个问题,在制药的情况下,到底需不需要知道结构,正常的话,直接在细胞上筛,或者是直接是一个纯化的蛋白筛就可以了,不需要过程问题的,但是过程问题的好处是让知道哪一些关键的点可以改造。 第二个问题,发现预测的结果和传统的这种同元建模实际上,传统的同元建模在有已知的的情况下会更好,实际上里面就涉及到深层次的一个算法,它是借用其所有物种的所有蛋白质发力的信息,来去预测一个高等生物的信息,实际上它在有很多的核心区域上,实际上就应该这么说,如果是传统的同学建模,它基本上在一个已知的,直接就预测了。 在真实的制药的过程当中,发现是传统的建模,它的就执信度会更高一些,但如果是真的没有模板的蛋白,基本上就需要采取其他的办法,最后采取的办法直接从一级结构去预测它的生物性。2013年的时候,我的一个研究生当时也是调用了大概1000,用了两个月,才拿到差不多一个机会,一个跟零蛋白,还有小分子三元体的一个内容。基本上个那个时候到现在,我重新算了一下现在的计算机,十年后它可以从一个月变到一天,但也就30倍的增长,所以要去真正的系统性的算这种动态过程还非难。 最后就提到要用好ai的模型,实际上也是一个很好的。也是行业的一个很有意思的事情,这里面就有一些非常好用的方法来解决里面的问题,怎么去建模,怎么去时间关系,可以分享给大家。这里面最有用的是怎么去,怎么样的方法去提醒,我们都知道,生物大数据的内容非常多,组织干净的数据集,里面有非常多的方法论层面的,工程层面的方法,以及从算法层面,怎么去在里面去找一些东西,以及最后用用提到的,很有用的方法。当你在一个尺度,一个很少数据量的时候,你就需要上去迁移。在同一个问题上,它是一个很好办法,或者是我对一个白点的数据很少,我就去把它所有的数据都找来去做一个建议学习,实际上就可以补充其他的数据。而且最有用的ai模型,它一定是个泛化能力很强的模型,我一定是在我已知的当中能够找到一个位置的事物,才是最有意义的。这种方法是放在门头里是有用的,如果你要做一个内容的话,刚才提到的,你的专家只需要反馈一点点的结果,你只要对于新的问题有这么几个几十个的数据你就可以去做。一你找出来,你可能一轮,两轮,三轮,但是我觉得一般是在五轮以内,你一定可以,过去这种盲赛大规模的筛选会更好,另外你怎么去筛选数据?我觉得从过去我的经验里面有三种方法。第一种,你在现有里面挖,包括基本上所有商业数据库,100多个数据库,基本上最后调汰到咱们95,非常得体的对历史的一个重新的审视;第二个,你需要去自己做实验,有针对性的去补足一些数据,你就不需要知道你数据的化学生空间的分布,怎么样以最小的数据点,最高的模型的分子;第三个数据,知道哪一类的物理,它能够达到什么样的知度,就先去通物理的这种底层去采样,最后用这些数据去换你已经耗费的算利,就不需要再重算了,放在模里面,这三个方法都是有用的。现在的一个一体化的这种解决方案,之后就比较抽象了,因为所有东西都放在个平台上,从一个序列开始,基本上在几个小时的时间内,基本通过几10个模型同时打分,10到20个新的分子,基本上两到三轮,在100个分内就能拿到目标化合物.   基本上是针对了做了非常多的数据和算法的迭代,另外在算率方面也是基本上做了关于所谓抢单机时的行为时的一个。 从一直调用一级到gpu和cpu的分配,非常灵活的方案。 平台基本上也是一个非常自动化的的一个平台,现在说今年到六月份是在生活国际大会有元智慧的,多目标的i模型对于生物药,化学药以及核酸药,现在都有自动化设计的能力,并且也跟全全世界各地,一直到药企都有了非常多的合作。 现在一年大概有300万美金的的订单,我还是比较坚信方法论能够改变行业,可能这边没有太多技术细节,但是我从宏观的方向讲一下过去的一些经验。
0
0
Ali
3
用于 DNA 测序的机器学习模型,理论上可以解码任何测序读数中所编码的数据值-阿里云开发者社区
大规模并行 DNA 测序导致生物学中高度多重实验的快速增长。这些实验产生独特的测序结果,需要特定的分析管道来解码高度结构化的读数。然而,尚未开发出解释测序读数以提取其编码信息用于下游生物分析的多功能框架。 在这里,不列颠哥伦比亚大学和东京大学的研究人员报告了  INTERSTELLAR(interpretation, scalable transformation, and emulation of large-scale sequencing reads,大规模测序读数的解释、可扩展转换和仿真);理论上,它可以解码任何类型的测序读数中编码的数据值,并将它们转化为另一种选择结构的测序读数。 INTERSTELLAR 成功地从一系列短读长和长读长测序读数中提取了信息,并翻译了单细胞 (sc)RNA-seq、scATAC-seq 和空间转录组学的那些数据,从而方便研究人员用不同软件工具进行分析。INTERSTELLAR 将极大地促进基于测序的实验的开发和数据分析管道的共享。 该研究以「 A universal sequencing read interpreter 」为题,于 2023 年 1 月 4 日发布在《 Science Advances 》。 在过去的几十年里,利用微阵列和高通量 DNA 测序,DNA 条形码的概念使一系列汇集的生物筛选成为可能。早期的例子包括建立酵母缺失集合,其中每个菌株都被构建为在缺失位点具有两个独特的 DNA 条形码。可以汇集条形码酵母菌株并进行单一生长竞争测定,其个体相对生长变化可以通过竞争前后微阵列或高通量测序测量的条形码数量读出。该策略开创了化学基因组学领域筛选药物靶基因的先河。 不久之后,同样的概念也被应用于基于哺乳动物细胞培养的全基因组基因敲除和敲除分析。在这些测定中,细胞由编码短发夹 (sh) RNA 或 CRISPR-Cas9 引导 (g) RNA 的慢病毒文库转导。由不同扰动引起的细胞生长可以通过聚合酶链反应 (PCR) 扩增和小 shRNA 或 gRNA 编码 DNA 片段的测序来大量量化。 此外,产生远端基因组区域和与不同因素相关的 DNA 条形码的嵌合融合的实验系统,使得研究人员能够大规模探索染色质构象、蛋白质相互作用、遗传相互作用和单分子 RNA 的空间细胞分布。在单细胞和空间基因组学中,单细胞标识符 (ID)、空间 ID 和唯一分子 ID (UMI) 用于唯一标记相应的转录组或基因组 DNA 片段,这导致了单细胞 RNA 测序(scRNA-seq)、scATAC-seq、空间转录组学和空间基因组技术的发展。 上述方法中的每一种都可以同时进行多个实验并生成测序文库。来自不同检测的测序文库也可以通过将额外的文库特异性、独特的 DNA 条形码融合到每个测序文库 DNA 中,进一步复用用于单次测序运行。这些实验的输出 DNA 分子具有一系列复杂性,其中一些编码多个信息片段,其组合有时被设计为通过多个读取(例如,配对末端读取和索引读取)读取。 然而,存在一些共同的问题——这些基于测序的实验中的大多数方法,都是使用它们自己专有的软件工具针对特定的序列读取结构开发的。虽然许多此类工具具有先进的下游数据分析功能,但它们通常不能重复用于概念上相同类型的实验系统产生的测序读数。对于具有改进的性能和不同读取结构的概念相同的分析,已经反复提出新的实验方法,并且已经为它们各自的读取结构开发了处理基本相同信息的数据分析工具。 在 scRNA-seq 领域尤其观察到这些轮子的再发明。这些软件工具不能交换不同的 scRNA-seq 库结构,也不能通过将它们应用于相同的 scRNA-seq 数据集来进行交叉验证。已经做出多项努力来开发能够分析特定类别实验的不同读取结构的灵活软件工具,例如 UMI-tools、zUMIs、scumi(用于基于 UMI 的 RNA-seq 和 scRNA-seq)和 SnapATAC(对于 scATAC-seq),但它们对于正在进行的产生独特读取结构的新实验的开发无效。 任何测序数据分析都遵循每次读取中序列片段的识别(例如,在 scRNA-seq reads 中识别细胞 ID、UMI 和 cDNA 编码区域)以及提取的序列片段和值(例如,映射到参考基因组和 scRNA-seq 中每个 RNA 种类的 UMI 计数)的下游分析。 因此,不列颠哥伦比亚大学和东京大学的研究人员提出了两种解决方案:(i) sequencing read interpreter 和数据分析工具的开发——如果一个 read interpreter 只提取在 sequencing reads 中编码的数据值,那么它的数据分析 pipeline 应该适用于产生相同数据结构的其他实验的 sequencing reads;(ii) read translator 的开发——如果可以将某种格式的测序 reads 翻译成另一种 reads 结构,则可以使用为特定 reads 结构开发的现有数据分析管道来分析其他 reads 结构。基于这两个方案,研究人员开发了称为 INTERSTELLAR 的单一通用工具。 图示:INTERSTELLAR 的概述。(来源:论文) 任何测序文库的结构都是通过用序列片段的位置规定在DNA序列中编码的信息或使用恒定标记序列对其进行切片来设计的(否则测序后无法分析文库)。在对文库进行测序之后进行任何测定后,提取序列片段并进行错误校正以用于下游分析。INTERSTELLAR 完全有能力使用灵活的正则表达式系统和序列段中编码的值的亲本关联来解码任何这些读取。 研究人员使用不同的软件工具对 scATAC-seq、scRNA-seq 和空间转录组学读数进行读数翻译和数据分析,并将结果与原始专有软件工具分析的原始读数进行比较。尽管原始结果和仿真结果的总体结果非常相似,但观察到的差异程度不同。 图示:不同 scRNA-seq 读数和软件工具的交叉评估。(来源:论文) 结果的差异可以通过三个潜在来源来解释:(i) 读取解释过程,(ii) 目标段分配过程,以及 (iii) 不同软件工具之间价值分析过程的差异,其中 INTERSTELLAR 负责前两个。从 scRNA-seq 读取翻译演示中,读取解释过程的纠错步骤被认为是所见差异的潜在主要来源,其中读取解释的纠错很可能使在不同软件工具中实施的纠错步骤无效(即,通过 INTERSTELLAR 覆盖纠错策略)。 图示:多模式 scRNA-seq 读取的翻译。(来源:论文) 虽然 Levenshtein 距离度量是 INTERSTELLAR 的基于非许可名单的纠错的默认值,并且对于大多数测序读取数据分析来说这实际上不是问题,但它可以用 Bartender 或用户开发的插件代替。当目标片段的信息容量(或代表性)小于相应源片段的信息容量(或代表性)时,目标片段序列分配过程是源读取中编码信息丢失的唯一潜在来源。 为了解决这个问题,研究人员在理论上实施了最佳价值空间优化策略,该策略使用亲本段分配的用户定义信息,并成功地证明了读取翻译的信息损失可以最小化,同时降低了序列代表性。 在过去的几十年里,除了临床样本和各种物种的(表观)基因组学和转录组学分析之外,大规模并行短读长测序技术的应用使得广泛的生物检测得以发展,并且该领域继续迅速扩大。虽然开发专有测序读数解释器和数据分析管道并将其与新的基于测序的分析方法的开发结合起来是一种实践,但该团队的研究人员建议应开发下一种形式,即社区可使用通用的测序读数解释和翻译平台, 如 INTERSTELLAR,只开发数据分析部分,单独共享,以最大限度地利用数据处理资源。 论文链接: https://www.science.org/doi/10.1126/sciadv.add2793
0
0
Ali
README.md exists but content is empty. Use the Edit dataset card button to edit it.
Downloads last month
0
Edit dataset card