定义 add_layer()
在 Tensorflow 里定义一个添加层的函数可以很容易的添加神经层,为之后的添加省下不少时间.
神经层里常见的参数通常有weights
、biases
和激励函数。
首先,我们需要导入tensorflow
模块。
import tensorflow as tf
然后定义添加神经层的函数def add_layer()
,它有四个参数:输入值、输入的大小、输出的大小和激励函数,我们设定默认的激励函数是None
。
def add_layer(inputs, in_size, out_size, activation_function=None):
接下来,我们开始定义weights
和biases
。
因为在生成初始参数时,随机变量(normal distribution)会比全部为0要好很多,所以我们这里的weights
为一个in_size
行, out_size
列的随机变量矩阵。
Weights = tf.Variable(tf.random_normal([in_size, out_size]))
在机器学习中,biases
的推荐值不为0,所以我们这里是在0向量的基础上又加了0.1
。
biases = tf.Variable(tf.zeros([1, out_size]) 0.1)
下面,我们定义Wx_plus_b
, 即神经网络未激活的值。其中,tf.matmul()
是矩阵的乘法。
Wx_plus_b = tf.matmul(inputs, Weights) biases
当activation_function
——激励函数为None
时,输出就是当前的预测值——Wx_plus_b
,不为None
时,就把Wx_plus_b
传到activation_function()
函数中得到输出。
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
最后,返回输出,添加一个神经层的函数——def add_layer()
就定义好了。
return outputs
完整的代码实例如下:
代码语言:javascript复制import tensorflow as tf
def add_layer(inputs, in_size, out_size, activation_function=None):
Weights = tf.Variable(tf.random_normal([in_size, out_size]))
biases = tf.Variable(tf.zeros([1, out_size]) 0.1)
Wx_plus_b = tf.matmul(inputs, Weights) biases
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs
if __name__ == '__main__':
add_layer()