NeurIPS2022 | 基于无限宽网络的双向学习

2022-11-28 17:47:26 浏览数 (1)

今天给大家介绍的是来自华为诺亚和麦吉尔大学的Can(Sam) Chen发表在NeurIPS2022的文章《Bidirectional Learning for Offline Infinite-width Model-based Optimization》。这篇文章提出双向学习解决黑盒优化中出现的OOD问题,并基于无限宽网络的神经正切核给出了loss的解析解,在protein/dna/material 设计任务上取得了不错的结果。

研究背景

找到满足特定性质的设计,比如protein/dna/material,是科学领域一个非常重要的问题并且具有广泛的应用前景。这个过程经常涉及到和环境的互动,比如protein上的湿实验。然而,现实场景中,这种互动是非常昂贵的,更为合理的一种假设是只利用离线数据集。

一种常见的方法是利用神经网络f拟合x(protein/dna/material)和特定性质y的函数:

基于此,在现有的x上做梯度上升,得到预测分数更高的x:

这类方法的缺点在于拟合的f在OOD的场景下并不准确。现有的方法通过假设f具有某些性质,比如平滑性,来得到更准确的f。

方法框架

双向学习

我们的方法从另一个角度出发:假设生成的Xh能预测离线数据集,从而缓解OOD问题。

用离线数据集预测Xh,我们称为forward mapping loss,这本质上是传统的gradient ascent:

这里的yh是对应于Xh的分数,一般远大于离线数据集最大值,我们这里统一设置成10。

用Xh预测离线数据集,我们称为backward mapping loss,这本质上是data distillation:

这个方法整体称之为Bidirectional learning(双向学习):

通过minimize这个loss,我们希望找到和yh对应的Xh。

从有限到无限:基于神经正切核的解析解

对于有限宽的神经网络f,我们只能通过如下近似来计算backward mapping loss:

我们发现这种近似使得结果变得很差,尤其是高维任务。因此我们采用无限宽的神经网络,并借助对应的神经正切核来给出backward mapping loss的解析解:

因此,整个Bidirectional learning的loss可以写成,

我们采用Adam来更新Xh,这也是整个过程唯一可以更新的参数。

主要结果

我们在design-bench上验证了我们方法BDI的有效性。

总结

在这篇文章里, 我们提出双向学习,来缓解黑盒优化中的OOD问题, 并且引入无限宽网络对应的神经正切核给出loss的解析解。design-bench上的结果验证了我们方法的有效性。

参考资料

文章link:https://openreview.net/forum?id=_j8yVIyp27Q

0 人点赞