作者 | 王宇哲 编辑 | 龙文韬
论文题目
Self-Supervised Molecular Pretraining Strategy for Low-Resource Reaction Prediction Scenarios
论文摘要
针对低资源的反应训练样本,我们构建了一个解决小规模反应预测问题的化学平台。使用一种称为MAsked Sequence to Sequence (MASS)的自监督预训练策略,Transformer模型可以吸收大约10亿个分子的化学信息,然后对小规模反应预测进行微调。为了进一步增强模型的预测性能,我们将MASS与反应迁移学习策略相结合。结果表明,Transformer模型在预测Baeyer-Villiger、Heck、C-C键形成和官能团间转换反应数据集方面的平均准确率分别达到14.07、24.26、40.31和57.69%,标志着该模型在预测低资源反应数据集方面迈出了重要一步。
论文链接
https://pubs.acs.org/doi/10.1021/acs.jcim.2c00588
github链接
https://github.com/hongliangduan/Self-supervised-molecular-pretraining-strategy-for-low-resource-reaction-prediction-scenarios