拿一个上午阅读了一篇文章,感觉很不错,推一下。文章发表于今年的 4 月左右,还很新。
作者 Anastasiia V. Sadybekov 是做高通量筛选的专家,我最近看的有关她的文章是 2022 年的基于 Synthon 进行百亿级别的药物筛选。我之前也写过相关的推文:
列在下方
这是 Geogle scholar 的检索结果:
计算辅助药物发现(CADD)已经存在了几十年,在此期间学术界和制药界都发生了翻天覆地的变化。变化主要集中于:配体属性信息,靶点的 binding 信息,蛋白质 3D 结构信息的爆发,计算资源的拓展,小分子筛选空间的拓展等等方面。
本文主要回顾了:
尽管在基础生命科学和生物技术方面取得了惊人的进展,药物的发现和开发(drug discovery and development ,DDD)仍然非常耗时且昂贵,平均需要大约 15 年和大约 20 亿美元来开发一种小分子药物。
我记得之前是 10 年 10 亿刀 10% 成功率,现在感觉研发越发昂贵了。
计算机辅助药物研发(computer-aided drug discovery,CADD)的概念在 20 世纪 70 年代提出并且逐步发现。1981 年时,由《财富》(Fortune)杂志广泛传播,此后经历了几轮炒作和幻灭。总体上,计算辅助方法已经成为药物发现过程中一个不可或缺但相对平稳的部分。然而,在过去的几年里,一些科学和技术突破导致了计算方法重新登上了浪头。制药和生物技术公司正在扩大其计算药物的能力。许多新老药物研发公司通过基于物理的分子建模与深度学习(DL)和人工智能(AI)相结合的商业模型,筹集了(捞了)数十亿美元。现在期望计算驱动中获取一款 FDA approved 的药物还是为时过早,但是不可忽略的是计算正在产生越来越多的临床候选药物。一些项目宣称 target-to-lead 的时间低至 1-2 个月,或者 target-to-clinic 时间不到 1 年。
这些迹象是计算方法在药物领域扮演角色发生重大变化的前兆?还是又一轮炒作的开始?
Hhh 我想起了一句话:我们距离真正的直接计算药物研发落地还有好几个 Alphafold2 的距离。各位资本大佬可以尝试一下,毕竟股票是主观的,无法建立一个真正的 AI model,但是科学研究是客观的存在的。🐶
先看一下影响近期变化的关键因素:
长期以来,筛选库的大小和多样性一直是整个药物发现过程的瓶颈。
一个 “经济适用型” 的高通量筛选库(HTS)通常是约 50,000 至 500,000 个化合物,并且预计在初期验证后只能产生很少的 hits。而产生的这些 hits 通常相当弱,非选择性,且具有未知的结合模式以及药理属性。因此通常需要多年的艰苦试错优化工作,才能产生满足临床需求的药物。而将将 HTS 扩展到百万级化合物库,仅有大型制药公司中才能负担得起,在 hits 的质量方面却没有太大的区别。同样,使用虚拟库通常仅限于供应商现有库存,大概一般不到 1 千万个独特化合物,因此与 HTS 相比,规模上的优势较小。
尽管追求庞大的类药化学空间(估计超过 1063 个化合物),目前来说基本是徒劳的。但是将化学空间拓展到数十亿乃至更多,这样量级的化学空间会改变药物研发模式。
最近已经发展了一些方法来推动高通量筛选(HTS)中的用于筛选的库限制,例如:组合化学和大规模混合化合物以进行并行测定。例如,可以应用亲和选择质谱技术,在不需要标记的情况下,直接在数千个化合物的混合物中识别结合物;也可以使用 DNA 编码库(DNA-encoded libraries,DELs),这一经济高效的生成和筛选方法,在单个试管中可以处理多达约 1010 个化合物。但是这些方法各有其局限性,由于 DELs 是通过连接物质与唯一的 DNA 序列标记而创建的,DELs 可能通过 DNA 标签的非特异性结合产生大量的假阴性,因此需要进行验证(比较昂贵)。
长期以来,构建虚拟库并进行筛选,一直被认为是一种经济有效的探索药物库空间的方式。然而,直到最近以来,基于合成化学和化学信息学方法的发展,我们才得以突破限制,构建虚拟 on-demond library,用于探索更大的化学空间,详细见文献。在 2017 年,Enamine 开发的 REAL(Readily Accessible)数据库是 首个基于 reation principle 的商业上可获取的 on-demond library,而美国国立卫生研究院开发了合成可及虚拟库(synthetically accessible virtual inventory,SAVI),该库也使用 Enamine 的 building block。
REAL 库可以保证在短时间内(不到 4 周)快速、可靠(80% 成功率)且经济实惠地合成一系列化合物。在新的反应和多样的构建单元的推动下,REAL 数据库的完全枚举已经从 2017 年的约 1.7 亿个化合物增长到 2022 年的超过 55 亿个,构成了 ZINC20 虚拟筛选数据库的大部分。REAL 库的实用性已经得到了验证,一些研究产生纳摩尔配体,而无需进行定制合成。类似的超大型 virtual library(例如 GalaXi(http://www.wuxiapptec.com)和 CHEMriya(http://chemriya.com))也可以在商业上获得,但是它们的合成成功率尚未公布。
随着添加反应以及 building block 的不断添加,on-demond 虚拟库的的规模不断增加。然而,构建、维护和搜索包含数十亿以上化合物的完全枚举化学库变得缓慢且不切实际。因此,这类巨大规模的虚拟库通常存储为非完全枚举的化学空间,其由一组特定的 building blocks 和反应所定义。
在商业上可获得的化学空间中,WuXi 的 GalaXi Space(约 80 亿化合物)、Otava 的 CHEMriya(118 亿化合物)和 Enamine 的 REAL Space(360 亿化合物)是最大且最为成熟的化学库。并且除了其非常庞大之外,这些化学空间非常新颖和多样,彼此之间的重叠很小(不到 10%)。
目前,最大的商业库,Enamine REAL Space 涵盖了超过 170 个反应和超过 137,000 个 building block。其中大部分反应是二组分或三组分的,但也正在探索更多的四组分甚至五组分反应,实现更高阶的组合。这个库可以根据可用的 reactions 和 building block 轻松扩展到 1015 个化合物。
另一种构建化学空间的替代方法是根据合成可行性和化学稳定性的简单规则生成假设可合成的化合物。因此,生成的数据库(GDB)预测可以由特定数量的原子构成的化合物;例如,GDB-17 包含了最多含有 17 个 C、N、O、S 和卤素原子的 166.4 亿个分子,而由 18 个原子组成的 GDB-18 则估计可达到 1013 个化合物。基于对化学空间更狭义定义的其他生成方法如今被用于基于深度学习的生成化学设计。
一些商业 on-demond 化学空间(例如 Enamine REAL Space)的合成成功率已经经过充分验证,其他化学空间的合成可及性和成功率仍未公开。
十亿和万亿的化学空间,只要这个空间保持高度的类药性和多样性,那么对于任何靶标来说,这个化学空间将包含数百万潜在的 hits 和成千上万个潜在的 lead 系列。此外,这个化学空间的高度可操作性(合成)简化了下游的药物化学工作。
当然,处理这样级别的虚拟库需要新的计算方法。
筛选蛋白质靶点寻找潜在配体的主要计算方法总结在表 2 中。在下文中,我们将讨论一些新兴技术以及它们如何最好地融入整体的 DDD 流程,以充分利用不断增长的按需化学空间。
略
从早期药物发现的年代起,从分子片段库中选取最优片段以填充受体结合口袋的想法就已经存在,例如在 LUDI 算法。然而,所设计出的化合物的定制合成仍然是这类方法的主要瓶颈。最近开发的虚拟合成子分层枚举筛选(V-SYNTHES)技术将基于片段的设计应用于 on-demond 化学空间,从而避免了定制合成的困难。
从 REAL Space 反应和 building block(合成子)开始,
在 V-SYNTHES 算法中将合成子与支架结合,并使用虚拟最小团封顶是获得最佳片段的关键,因为 building block 和支架的反应性基团通常会创建非常强但错误的相互作用,这在完整分子中是不存在的。算法的另一个重要部分是在靶标中评估片段结合位姿,该评估优先考虑那些最小封顶指向口袋区域的 hits(因为该区域有空间进行生长)。
除了支持丰富性、化学多样性的优点外,基于结构的模块方法在识别化学新颖性的 hits 方面尤为有效,因为它们(1)不依赖于现有配体的信息,(2)存在非常多的之前从未合成过的配体。这是确保从十亿尺度筛选出 hits 和 leads 重要因素。
在基于 AI 的人脸识别、ChatGPT 和 AlphaFold 等技术的时代,数据驱动的深度学习方法在药物发现的各个阶段也存在着巨大的场景。
数据驱动方法在药物发现中有着悠久的历史,其中机器学习算法,如支持向量机、随机森林和神经网络,尽管效果参差不齐,但已被广泛用于预测配体性质和靶点活性。
药物发现的关键愿景是开发出通用性的 AI 模型。其中一个方向是从已知配体活性和蛋白质 - 配体 3D 结构数据中提取结合亲和力的通用模型,例如在 PDBbind 数据库中收集的数据或从对接中获得。然而,最近的一项研究发现,无论神经网络架构如何,PDBbind 复合物中非共价分子间相互作用的详细描述与仅包含配体或只包含受体省略相互作用的简单逼近相比,并未显示出任何统计优势。因此,基于 PDBbind 的深度学习模型的良好性能依赖于其记忆了相似的配体和受体,而不是捕捉通用结合信息。对于这种现象的一个可能解释是,PDBbind 数据库没有充分呈现 “负空间”,即具有次优相互作用模式的配体,以强化训练。
正如前文所讨论的,基于物理和数据驱动的方法在预测配体效力方面都具有明显的优势和局限性。基于结构的对接预测天然适用于任何具有 3D 结构的靶点,并且可以更准确。相反,数据驱动方法可以在没有结构的情况下工作,尤其在使用 GPU 加速的情况下速度更快。
但是对于那些缺乏实验结构的靶点,尤其是对于在结合口袋中缺乏明显结构同源性的靶点类型,AlphaFold2 模型性能令人失望(针对 GPCR 和抗菌靶点的评估)。
无论模型有多么准确,它们也远无法确保所有的预测都是正确的。实际上,最好的虚拟筛选通常会在实验验证中确认 10% 到 40% 的 hits,而在优化中使用的最佳亲和力预测准确性很少能达到比 1kcal mol-1 均方根误差。因此,计算预测始终需要在管道的每个阶段进行牢固的体外和体内验证。同时,体内体外的数据也可以返回给计算模型进行调优。