[JCIM | 论文简读] 低资源反应预测场景的自监督分子预训练策略

2022-12-29 16:59:45 浏览数 (1)

作者 | 王宇哲 编辑 | 龙文韬

论文题目

Self-Supervised Molecular Pretraining Strategy for Low-Resource Reaction Prediction Scenarios

论文摘要

针对低资源的反应训练样本,我们构建了一个解决小规模反应预测问题的化学平台。使用一种称为MAsked Sequence to Sequence (MASS)的自监督预训练策略,Transformer模型可以吸收大约10亿个分子的化学信息,然后对小规模反应预测进行微调。为了进一步增强模型的预测性能,我们将MASS与反应迁移学习策略相结合。结果表明,Transformer模型在预测Baeyer-Villiger、Heck、C-C键形成和官能团间转换反应数据集方面的平均准确率分别达到14.07、24.26、40.31和57.69%,标志着该模型在预测低资源反应数据集方面迈出了重要一步。

论文链接

https://pubs.acs.org/doi/10.1021/acs.jcim.2c00588

github链接

https://github.com/hongliangduan/Self-supervised-molecular-pretraining-strategy-for-low-resource-reaction-prediction-scenarios

0 人点赞