上一篇我介绍了Tensorflow是符号操作运算,并结合例子来验证。这一篇我也会结合一些例子来深刻理解Tensorflow中张量的静态和动态特性。
1、Tensorflow张量的静态和动态相关操作
TensorFlow中的张量具有静态大小属性,该属性在图形构建期间确定。有时静态大小可能没有指定。例如,我们可以定义一个大小的张量[None,128]:
这意味着第一个维度可以是任意大小,并将在Session.run()中动态确定。可以按如下方式查询张量的静态大小:
为了得到张量的动态大小,可以调用tf.shape操作,它返回一个表示给定张量大小的张量:
张量的静态大小可以用Tensor.set_shape()方法设置:
可以使用tf.reshape函数动态重塑给定的张量:
2、返回张量大小的通用函数
我们定义这么一个函数,它可以很方便地返回可用的静态大小,当不可用时则返回动态大小。以下get_shap()函数可以做到这一点:
在实际很多情况中,我们需要将张量的不同维度通道进行合并,比如我们想要将第二维和第三维进行合并,也就是将三维张量转换为二维张量。我们可以使用上面定义好的get_shape()函数来做到这一点:
无论这些大小是否为静态指定,这都是有效的。
3、通用重塑函数
实际上,我们可以编写一个通用重塑函数来折叠任何维度列表:
然后折叠第二维变得非常简单:
以上结果我就不展示了,自己动手去试一试,看看结果如何。