晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI
最近,一位从事NLP工程师Gupta发现了TensorFlow存在的一个严重bug:
每个在自定义层中使用Keras函数式API的用户都要注意了!使用用Keras的Functional API创建的权重,可能会丢失。
这一话题在Reddit机器学习板块上被热议,引起不少TensorFlow用户共鸣。
具体来说,就是在API中使用自定义层,会导致trainable_variables中的权重无法更新。而且这些权重也不会放入non_trainable_variables中。
也就是说,原本需要训练的权重现在被冻结了。
让这位工程师感到不满的是,他大约一个月前在GitHub中把这个bug报告给谷歌,结果谷歌官方到现在还没有修复。
解决办法
如何检验自己的代码是否会出现类似问题呢?请调用model.trainable_variables来检测自己的模型:
代码语言:javascript复制for i, var in enumerate(model.trainable_variables):
print(model.trainable_variables[i].name)
看看你所有的可变权重是否正确,如果权重缺失或者未发生变化,说明你也中招了。
Gupta还自己用Transformer库创建模型的bug在Colab笔记本中复现了,有兴趣的读者可以前去观看。
https://colab.research.google.com/gist/Santosh-Gupta/40c54e5b76e3f522fa78da6a248b6826/missingtrainablevarsinference_var.ipynb
对此问题,Gupta给出的一种解决方法是:改为使用Keras子类创建模型。改用此方法后,所有的权重都将出现在trainable_variables中。
为了绝对确保用函数式API和子类方法创建的模型完全相同,Gupta在每个Colab笔记本底部使用相同的输入对它们进行了推理,模型的输出完全相同。
但是,使用函数式API模型进行训练会将许多权重视为冻结,而且这些权重也没有出现在non_trainable_variables中,因此无法为这些权重解冻。
为了检查谷歌最近是否修复了该漏洞,Gupta还安装了Nightly版的TF 2.3.0-rc1,保持框架处于最新状态,但如今bug依然存在。
网友:还是用PyTorch吧
刚刚,Keras创始人在Twitter上回复,这不是Keras的bug,并建议程序员使用单元测试。
对于Gupta所说的bug,有网友说,他在TensorFlow和Keras之间传递权重的时候,出现了类似的错误,从此转而使用PyTorch。
另外还有不少网友也反映,谷歌的框架不太完善,管理方式一团糟,是在让用户帮他们测试TensorFlow的bug。
反观PyTorch,说明文档通俗易懂,最近官方还出了免费电子书,难道用PyTorch不香吗?
你现在在使用哪种深度学习框架,你也遇到过类似的严重bug吗?
原帖链接: https://www.reddit.com/r/MachineLearning/comments/hrawam/d_theres_a_flawbug_in_tensorflow_thats_preventing/
— 完 —