3 个月前

Chemformer:面向计算化学的预训练Transformer

Chemformer:面向计算化学的预训练Transformer

摘要

近年来,基于Transformer架构并结合简化分子线性输入规范(SMILES)的分子表示方法,在解决化学信息学领域挑战方面展现出强大潜力。然而,这类模型通常针对单一应用场景专门设计,且训练过程往往资源消耗巨大。本文提出Chemformer模型——一种基于Transformer的通用型模型,可快速应用于序列到序列及判别型化学信息学任务。此外,我们证明了自监督预训练能够显著提升模型性能,并大幅加速下游任务的收敛速度。在直接合成与逆合成预测的基准数据集上,Chemformer在Top-1准确率方面取得了当前最优(state-of-the-art)的结果。同时,我们在分子优化任务上也超越了现有方法,并进一步验证了Chemformer能够同时优化多个判别性任务的能力。模型、数据集及代码将在论文发表后公开发布。

基准测试

基准方法指标
single-step-retrosynthesis-on-uspto-50kChemformer-Large (reaction class unknown)
Top-1 accuracy: 54.3
Top-10 accuracy: 63.0
Top-5 accuracy: 62.3

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Chemformer:面向计算化学的预训练Transformer | 论文 | HyperAI超神经