TensorFlow被曝存在严重bug,搭配Keras可能丢失权重,用户反映一个月仍未修复

2020-07-16 17:03:48 浏览数 (1)

晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI

最近,一位从事NLP工程师Gupta发现了TensorFlow存在的一个严重bug:

每个在自定义层中使用Keras函数式API的用户都要注意了!使用用Keras的Functional API创建的权重,可能会丢失。

这一话题在Reddit机器学习板块上被热议,引起不少TensorFlow用户共鸣。

具体来说,就是在API中使用自定义层,会导致trainable_variables中的权重无法更新。而且这些权重也不会放入non_trainable_variables中。

也就是说,原本需要训练的权重现在被冻结了。

让这位工程师感到不满的是,他大约一个月前在GitHub中把这个bug报告给谷歌,结果谷歌官方到现在还没有修复

解决办法

如何检验自己的代码是否会出现类似问题呢?请调用model.trainable_variables来检测自己的模型:

代码语言:javascript复制
for i, var in enumerate(model.trainable_variables):
    print(model.trainable_variables[i].name)

看看你所有的可变权重是否正确,如果权重缺失或者未发生变化,说明你也中招了。

Gupta还自己用Transformer库创建模型的bug在Colab笔记本中复现了,有兴趣的读者可以前去观看。

https://colab.research.google.com/gist/Santosh-Gupta/40c54e5b76e3f522fa78da6a248b6826/missingtrainablevarsinference_var.ipynb

对此问题,Gupta给出的一种解决方法是:改为使用Keras子类创建模型。改用此方法后,所有的权重都将出现在trainable_variables中。

为了绝对确保用函数式API和子类方法创建的模型完全相同,Gupta在每个Colab笔记本底部使用相同的输入对它们进行了推理,模型的输出完全相同。

但是,使用函数式API模型进行训练会将许多权重视为冻结,而且这些权重也没有出现在non_trainable_variables中,因此无法为这些权重解冻。

为了检查谷歌最近是否修复了该漏洞,Gupta还安装了Nightly版的TF 2.3.0-rc1,保持框架处于最新状态,但如今bug依然存在。

网友:还是用PyTorch吧

刚刚,Keras创始人在Twitter上回复,这不是Keras的bug,并建议程序员使用单元测试。

对于Gupta所说的bug,有网友说,他在TensorFlow和Keras之间传递权重的时候,出现了类似的错误,从此转而使用PyTorch。

另外还有不少网友也反映,谷歌的框架不太完善,管理方式一团糟,是在让用户帮他们测试TensorFlow的bug。

反观PyTorch,说明文档通俗易懂,最近官方还出了免费电子书,难道用PyTorch不香吗?

你现在在使用哪种深度学习框架,你也遇到过类似的严重bug吗?

原帖链接: https://www.reddit.com/r/MachineLearning/comments/hrawam/d_theres_a_flawbug_in_tensorflow_thats_preventing/

0 人点赞