今天给大家介绍的是来自华为诺亚和麦吉尔大学的Can(Sam) Chen发表在NeurIPS2022的文章《Bidirectional Learning for Offline Infinite-width Model-based Optimization》。这篇文章提出双向学习解决黑盒优化中出现的OOD问题,并基于无限宽网络的神经正切核给出了loss的解析解,在protein/dna/material 设计任务上取得了不错的结果。
研究背景
找到满足特定性质的设计,比如protein/dna/material,是科学领域一个非常重要的问题并且具有广泛的应用前景。这个过程经常涉及到和环境的互动,比如protein上的湿实验。然而,现实场景中,这种互动是非常昂贵的,更为合理的一种假设是只利用离线数据集。
一种常见的方法是利用神经网络f拟合x(protein/dna/material)和特定性质y的函数:
基于此,在现有的x上做梯度上升,得到预测分数更高的x:
这类方法的缺点在于拟合的f在OOD的场景下并不准确。现有的方法通过假设f具有某些性质,比如平滑性,来得到更准确的f。
方法框架
双向学习
我们的方法从另一个角度出发:假设生成的Xh能预测离线数据集,从而缓解OOD问题。
用离线数据集预测Xh,我们称为forward mapping loss,这本质上是传统的gradient ascent:
这里的yh是对应于Xh的分数,一般远大于离线数据集最大值,我们这里统一设置成10。
用Xh预测离线数据集,我们称为backward mapping loss,这本质上是data distillation:
这个方法整体称之为Bidirectional learning(双向学习):
通过minimize这个loss,我们希望找到和yh对应的Xh。
从有限到无限:基于神经正切核的解析解
对于有限宽的神经网络f,我们只能通过如下近似来计算backward mapping loss:
我们发现这种近似使得结果变得很差,尤其是高维任务。因此我们采用无限宽的神经网络,并借助对应的神经正切核来给出backward mapping loss的解析解:
因此,整个Bidirectional learning的loss可以写成,
我们采用Adam来更新Xh,这也是整个过程唯一可以更新的参数。
主要结果
我们在design-bench上验证了我们方法BDI的有效性。
总结
在这篇文章里, 我们提出双向学习,来缓解黑盒优化中的OOD问题, 并且引入无限宽网络对应的神经正切核给出loss的解析解。design-bench上的结果验证了我们方法的有效性。
参考资料
文章link:https://openreview.net/forum?id=_j8yVIyp27Q