注:这篇文章的内容来自课程[Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization]的编程练习。coursera上的编程练习设计得非常贴心,一步步引导学员完成练习,对于编程基础薄弱的同学尤为友好。
到目前为止,您一直使用numpy来构建神经网络。现在我们将引导您使用一个深度学习框架,让您可以更轻松地构建神经网络。TensorFlow、PaddlePaddle、Torch、Caffe、Keras等机器学习框架可显著加速机器学习开发。在此作业中,您将学习在TensorFlow中执行以下操作:
- 初始化变量
- 开始会话
- 训练算法
- 实施神经网络
编程框架不仅可以缩短编码时间,而且有时还可以执行优化来加速代码。
1 - 探索Tensorflow程序库
首先,请导入相关库:
代码语言:javascript复制import math
import numpy as np
import h5py
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.python.framework import ops
from tf_utils import load_dataset, random_mini_batches, convert_to_one_hot, predict%matplotlib inline
np.random.seed(1)
现在您已经导入了该库,我们将引导您完成不同的应用程序。您将从一个例子开始,在这里我们为您计算一个训练样例的损失。
代码语言:javascript复制y_hat = tf.constant(36, name='y_hat') # 定义y_hat常量,值为36.
y = tf.constant(39, name='y') # 定义y,值为39loss = tf.Variable((y - y_hat)**2, name='loss') # 为损失创建一个变量init = tf.global_variables_initializer() # init将在后面运行 (session.run(init)),
# loss变量将被初始化,准备计算
with tf.Session() as session: # 创建一个会话并打印输出
session.run(init) # 初始化变量
print(session.run(loss)) # 打印loss值
在TensorFlow中编写和运行程序有以下步骤:
- 创建尚未执行/评估的张量(变量)。
- 在这些张量之间写入操作。
- 初始化张量。
- 创建一个会话。
- 运行会话,它将运行您上面写的操作。
因此,当我们为损失创建一个变量时,我们简单地将损失定义为其他数的函数,但没有评估它的值。为了评估它,我们必须运行init=tf.global_variables_initializer()。它初始化损失变量,并在最后一行代码中,评估损失的值并打印其值。
现在让我们看一个简单的例子:
代码语言:javascript复制a = tf.constant(2)
b = tf.constant(10)
c = tf.multiply(a,b)
print(c)
输出为 Tensor(“Mul:0”, shape=(), dtype=int32)
正如所料,您不会看到20!而是得到一个张量,结果是一个没有shape属性的张量,它的类型是”int32”。您所做的只是放在’计算图’中,但您还没有运行这个计算。为了真正相加这两个数字,您将不得不创建一个会话并运行它。
代码语言:javascript复制sess = tf.Session()
print(sess.run(c))
输出为 20
很棒! 总结一下,记得初始化变量,创建一个会话并在会话中运行这些操作。
接下来,您还必须了解占位符。占位符是一个对象,其值只能在稍后指定。要指定占位符的值,可以使用”馈送字典”(feed_dict变量)传入值。下面,我们为x创建了一个占位符,这允许我们稍后在运行会话时传入一个数字。
代码语言:javascript复制# 在feed_dict中改变x的值x = tf.placeholder(tf.int64, name = 'x')
print(sess.run(2 * x, feed_dict = {x: 3}))
sess.close()
输出为 6
当您第一次定义x时,您不必为它指定一个值。占位符只是一个变量,您将仅在以后运行会话时分配数据。也就是说您在运行会话时向这些占位符提供数据。
以下是所发生的事情:当您指定计算所需的操作时,也就是告诉TensorFlow如何构建计算图。计算图可以有一些占位符,其值将在稍后指定。最后,当您运行会话时,告诉TensorFlow执行计算图。
1.1 - 线性函数
让我们通过计算以下等式来开始编程练习:Y = WX bY,其中W和X是随机矩阵,b是随机向量。
练习:计算WX b,其中W,X和b符合随机正态分布。W的形状是(4,3),X为(3,1),b是(4,1)。作为一个示例,下面代码是如何定义一个具有shape(3,1)的常量X:
代码语言:javascript复制X = tf.constant(np.random.randn(3,1),name ="X")
您可能会发现以下函数很有用:
- tf.matmul(…, …)做一个矩阵乘法
- tf.add(…, …)做一个加法
- np.random.randn(…)随机初始化
# GRADED FUNCTION: linear_functiondef linear_function():
"""
实现一个线性函数:
初始化W为一个形状为(4,3)的随机张量
初始化X为一个形状为(3,1)的随机张量
初始化b为一个形状为(4,1)的随机张量
返回:
result -- 运行Y = WX b会话的结果
""" np.random.seed(1) ### START CODE HERE ### (4 lines of code)
X = tf.constant(np.random.randn(3, 1), name = "X")
W = tf.constant(np.random.randn(4, 3), name = "W")
b = tf.constant(np.random.randn(4, 1), name = "b")
Y = tf.add(tf.matmul(W, X), b)
### END CODE HERE ### # 使用tf.Session()创建会话,并用sess.run运行您要计算的变量 ### START CODE HERE ###
sess = tf.Session()
result = sess.run(Y)
### END CODE HERE ### # 关闭会话
sess.close() return result
1.2 - 计算sigmoid
非常棒! 您刚刚实现了一个线性函数。Tensorflow提供了各种常用的神经网络函数,如tf.sigmoid和tf.softmax。对于这个练习,我们计算一个输入的sigmoid函数。
您将使用占位符变量x执行此练习。运行会话时,应该使用馈送字典传入z。在本练习中,您需要(1) 创建一个占位符x,(2) 使用tf.sigmoid定义计算sigmoid值,然后(3) 运行会话。
练习:实现下面的sigmoid函数,参考使用以下代码:
代码语言:javascript复制tf.placeholder(tf.float32,name ="...")
tf.sigmoid(...)
sess.run(..., feed_dict = {x: z})
请注意,有两种典型的方式来创建和使用tensorflow中的会话:
方法1:
代码语言:javascript复制sess = tf.Session()
# Run the variables initialization (if needed), run the operations
result = sess.run(..., feed_dict = {...})
sess.close() # Close the session
方法2:
代码语言:javascript复制with tf.Session() as sess:
# run the variables initialization (if needed), run the operations
result = sess.run(..., feed_dict = {...})
# This takes care of closing the session for you :)
代码语言:javascript复制# GRADED FUNCTION: sigmoiddef sigmoid(z):
"""
计算z的sigmoid值 参数:
z -- 输入值,标量或向量 返回:
results -- z的sigmoid值
""" ### START CODE HERE ### ( approx. 4 lines of code)
# 为x创建一个占位符,命名为'x'.
x = tf.placeholder(tf.float32, name = "x") # 计算sigmoid(x)
sigmoid = tf.sigmoid(x) # 创建一个会话,运行之。请使用上面提到的方法2。
# 您应该使用一个feed_dic将z的值传递给x。
with tf.Session() as sess:
# 运行会话并输出结果给"result"
result = sess.run(sigmoid, feed_dict = {x:z}) ### END CODE HERE ### return result
总结一下,您现在知道如何:
- 创建占位符
- 指定计算对应的计算图
- 创建会话
- 运行会话,必要时使用馈送字典来指定占位符变量的值。
1.3 - 计算代价(cost)
您也可以使用内置函数来计算神经网络的代价。因此,您大可不必编写代码计算函数:
在tensorflow中只需一行代码即可完成!
练习:实现交叉熵损失,您将使用的函数是:
代码语言:javascript复制tf.nn.sigmoid_cross_entropy_with_logits(logits = ..., labels = ...)
您的代码应该输入z,计算sigmoid(得到a),然后计算交叉熵代价J。所有这些都可以通过一次调用tf.nn.sigmoid_cross_entropy_with_logits来完成,它将计算:
代码语言:javascript复制# GRADED FUNCTION: costdef cost(logits, labels):
"""
使用交叉熵计算代价 参数:
logits -- 包含z的向量,最后一个线性单元的输出(在sigmoid激活之前)
labels -- 标签向量y(1或0) 注意: 在本类中我们叫做"z"和"y"的,在TensorFlow文档中分别称作"logits"和"labels"。所以logits将传入z, 而labels传入y. 返回:
cost -- 运行会话计算出的成本(根据公式(2))
""" ### START CODE HERE ### # 为"logits" (z) 和 "labels" (y)创建占位符
z = tf.placeholder(tf.float32, shape = logits.shape, name = "logits")
y = tf.placeholder(tf.float32, shape = labels.shape, name = "labels") # 使用损失函数
cost = tf.nn.sigmoid_cross_entropy_with_logits(logits = z, labels = y) # 创建会话,参考上面的方法1
sess = tf.Session() # 运行会话
cost = sess.run(cost, feed_dict={z: logits, y: labels}) # 关闭会话
sess.close() ### END CODE HERE ### return cost
1.4 - 使用一位有效编码(One Hot encoding)
在很多深度学习里,您会得到一个y向量,数字范围从0到C-1,其中C是类的数量。比如C为4,那么您可能得到以下的y矢量,您需要按如下方式进行转换:
这通常称为”一位有效(one hot)”编码,因为在转换的表示中,每列的对应元素是”有效位(hot)”(意思是设置为1)。要在numpy中进行这种转换,您可能需要编写好几行代码。在tensorflow中,只需一行代码:
代码语言:javascript复制tf.one_hot(labels, depth, axis)
练习:运行下面的函数,取一个标签向量和类别总数C,返回one hot编码。请使用tf.one_hot()来实现。
代码语言:javascript复制# GRADED FUNCTION: one_hot_matrixdef one_hot_matrix(labels, C):
"""
创建一个矩阵,其第i行对应第i个类别,且第j列对应第j个训练样本,也即如果样本j的标签为i,则矩阵(i,j)的元素值为1。 参数:
labels -- 包含标签的向量
C -- 类别的数量,也是one hot维度值 返回:
one_hot -- one hot矩阵
""" ### START CODE HERE ### # 创建等于C的常量,命名为'C'.
C = tf.constant(C) # 使用tf.one_hot, 请注意axis参数值
one_hot_matrix = tf.one_hot(labels, C, axis = 0) # 创建会话
sess = tf.Session() # 运行会话
one_hot = sess.run(one_hot_matrix) # 关闭会话
sess.close() ### END CODE HERE ### return one_hot
1.5 - 使用零和一初始化
现在您将学习如何初始化一个零和一的向量。你要调用的函数是tf.ones()。要用零初始化,你可以使用tf.zeros()来代替。这些函数传入一个shape,分别返回一个全部元素为0和1的且维数等于shape的数组。
练习:实现下面的函数,传入shape并返回一个数组(维数和shape相同)。
代码语言:javascript复制tf.ones(shape)
代码语言:javascript复制# GRADED FUNCTION: onesdef ones(shape):
"""
创建一个维度为shape的全1数组 参数:
shape -- 您要创建的数组的维度shape 返回:
ones -- 全1数组
""" ### START CODE HERE ### # 使用tf.ones(...)创建"ones"张量
ones = tf.ones(shape) # 创建会话
sess = tf.Session() # 运行会话,计算'ones'
ones = sess.run(ones) # 关闭会话
sess.close() ### END CODE HERE ###
return ones
2 - 在tensorflow中构建您的第一个神经网络
在这部分任务中,您将使用tensorflow建立一个神经网络。请记住,实现tensorflow模型分为两部分:
- 创建计算图
- 运行图
让我们深入探讨您要解决的问题!
2.0 - 问题陈述:SIGNS数据集
有一天下午,和一些朋友一起,我们决定教电脑破译手语。我们花了几个小时在白墙前拍摄照片,得到了以下数据集。现在您的工作是构建一个算法,以便帮助语言障碍人士与不懂手语的人进行沟通。
- 训练数据集:1080个图片(64×64像素),代表从0到5的手势(每个数字180张图片)。
- 测试数据集:120张图片(64×64像素),代表从0到5的手势(每个数字20张图片)。
请注意,这是SIGNS数据集的一个子集。完整的数据集包含更多的手势。
以下是每个数字的示例,以及我们如何表示标签。这些是在我们将图像解像度降低到64×64像素之前的原始图片。
运行以下代码以加载数据集。
代码语言:javascript复制X_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_dataset()
通常,我们需要将图像数据集压平(flatten),然后除以255将其归一化。最重要的是,将每个标签转换为one hot矢量。运行下面的代码以执行此操作。
代码语言:javascript复制# 压平训练和测试图片
X_train_flatten = X_train_orig.reshape(X_train_orig.shape[0], -1).T
X_test_flatten = X_test_orig.reshape(X_test_orig.shape[0], -1).T
# 归一化图像向量
X_train = X_train_flatten/255.
X_test = X_test_flatten/255.
# 将训练和测试标签转换为one hot矩阵
Y_train = convert_to_one_hot(Y_train_orig, 6)
Y_test = convert_to_one_hot(Y_test_orig, 6)print ("number of training examples = " str(X_train.shape[1]))
print ("number of test examples = " str(X_test.shape[1]))
print ("X_train shape: " str(X_train.shape))
print ("Y_train shape: " str(Y_train.shape))
print ("X_test shape: " str(X_test.shape))
print ("Y_test shape: " str(Y_test.shape))
number of training examples = 1080 number of test examples = 120 X_train shape: (12288, 1080) Y_train shape: (6, 1080) X_test shape: (12288, 120) Y_test shape: (6, 120)
请注意,12288来自64×64×364×64×3。每个图像是方形的,64×64像素,3是RGB颜色。在继续任务之前,请确保您了解所有这些形状的含义。
您的目标是构建能够高准确度识别手势的算法。要做到这一点,您要建立一个tensorflow模型,这个模型几乎和您之前使用numpy构建的猫识别模型一样(但现在使用softmax输出)。将您的numpy实现与tensorflow实现进行比较是一个不错的点子。
模型定义为LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX。SIGMOID输出层替换为SOFTMAX。当超过两个类别时,SOFTMAX层比SIGMOID更通用。
2.1 - 创建占位符
您的第一项任务是为X和Y创建占位符,可以稍后在运行会话时传递训练数据。
练习:执行下面的函数以创建tensorflow中的占位符。
代码语言:javascript复制# GRADED FUNCTION: create_placeholdersdef create_placeholders(n_x, n_y):
"""
为tensorflow会话创建占位符. 参数:
n_x -- 标量, 图像向量的大小(num_px * num_px = 64 * 64 * 3 = 12288)
n_y -- 标量, 类别的数量(从0到5, 所以 -> 6) 返回:
X -- 数据输入占位符,形状为[n_x, None],数据类型"float"
Y -- 输入标签的占位符,形状[n_y, None],数据类型"float" 提示:
- 您将使用None,因为它使我们能够灵活处理占位符所代表的样本的数量.
事实上,测试/训练阶段样本的数量是不同的.
""" ### START CODE HERE ### (approx. 2 lines)
X = tf.placeholder(dtype = tf.float32, shape = (n_x, None), name = "X")
Y = tf.placeholder(dtype = tf.float32, shape = (n_y, None), name = "Y")
### END CODE HERE ### return X, Y
2.2 - 初始化参数
您的第二个任务是在tensorflow中初始化参数。
练习:执行下面的函数来初始化tensorflow中的参数。您将使用Xavier来初始化权重,使用零初始化偏置,其形状如下所示。作为一个示范,对于W1和b1您可以使用:
代码语言:javascript复制W1 = tf.get_variable("W1", [25,12288], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b1 = tf.get_variable("b1", [25,1], initializer = tf.zeros_initializer())
请使用seed = 1来确保您的结果与我们的结果相符。
代码语言:javascript复制# GRADED FUNCTION: initialize_parametersdef initialize_parameters():
"""
Initializes parameters to build a neural network with tensorflow. The shapes are:
W1 : [25, 12288]
b1 : [25, 1]
W2 : [12, 25]
b2 : [12, 1]
W3 : [6, 12]
b3 : [6, 1] Returns:
parameters -- a dictionary of tensors containing W1, b1, W2, b2, W3, b3
""" tf.set_random_seed(1) # so that your "random" numbers match ours ### START CODE HERE ### (approx. 6 lines of code)
W1 = tf.get_variable("W1", [25, 12288], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b1 = tf.get_variable("b1", [25, 1], initializer = tf.zeros_initializer())
W2 = tf.get_variable("W2", [12, 25], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b2 = tf.get_variable("b2", [12, 1], initializer = tf.zeros_initializer())
W3 = tf.get_variable("W3", [6, 12], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b3 = tf.get_variable("b3", [6, 1], initializer = tf.zeros_initializer())
### END CODE HERE ### parameters = {"W1": W1,
"b1": b1,
"W2": W2,
"b2": b2,
"W3": W3,
"b3": b3} return parameters
2.3 - Tensorflow中的前向传播
您现在将实现tensorflow中的前向传播模块。该函数将接收参数字典并完成前向传递。您将使用的函数有:
- tf.add(…, …)做一个加法
- tf.matmul(…, …)做一个矩阵乘法
- tf.nn.relu(…)应用ReLU激活
问题:实现神经网络的前向传递。我们为您添加了numpy等价代码注释,以便您可以将tensorflow实现与numpy进行比较。重要的是要注意前向传播在z3处停止。原因在于,在tensorflow中,最后的线性层输出作为输入给计算损失的函数。因此,您不需要a3!
代码语言:javascript复制# GRADED FUNCTION: forward_propagationdef forward_propagation(X, parameters):
"""
Implements the forward propagation for the model: LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX Arguments:
X -- input dataset placeholder, of shape (input size, number of examples)
parameters -- python dictionary containing your parameters "W1", "b1", "W2", "b2", "W3", "b3"
the shapes are given in initialize_parameters Returns:
Z3 -- the output of the last LINEAR unit
""" # Retrieve the parameters from the dictionary "parameters"
W1 = parameters['W1']
b1 = parameters['b1']
W2 = parameters['W2']
b2 = parameters['b2']
W3 = parameters['W3']
b3 = parameters['b3'] ### START CODE HERE ### (approx. 5 lines) # Numpy Equivalents:
Z1 = tf.add(tf.matmul(W1, X), b1) # Z1 = np.dot(W1, X) b1
A1 = tf.nn.relu(Z1) # A1 = relu(Z1)
Z2 = tf.add(tf.matmul(W2, A1), b2) # Z2 = np.dot(W2, a1) b2
A2 = tf.nn.relu(Z2) # A2 = relu(Z2)
Z3 = tf.add(tf.matmul(W3, A2), b3) # Z3 = np.dot(W3,Z2) b3
### END CODE HERE ### return Z3
2.4 - 计算代价
如前所见,使用以下方法计算代价非常简单:
代码语言:javascript复制tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = ..., labels = ...))
问题:实现如下代价函数。
- 重的一点,tf.nn.softmax_cross_entropy_with_logits的“logits”和“labels”输入形状为(样本数量, 类别数目)。 我们已经为您转换了Z3和Y.
- 另外,tf.reduce_mean是对样本进行求和的。
# GRADED FUNCTION: compute_costdef compute_cost(Z3, Y):
"""
Computes the cost Arguments:
Z3 -- output of forward propagation (output of the last LINEAR unit), of shape (6, number of examples)
Y -- "true" labels vector placeholder, same shape as Z3 Returns:
cost - Tensor of the cost function
""" # to fit the tensorflow requirement for tf.nn.softmax_cross_entropy_with_logits(...,...)
logits = tf.transpose(Z3)
labels = tf.transpose(Y) ### START CODE HERE ### (1 line of code)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = logits, labels = labels))
### END CODE HERE ### return cost
2.5 - 反向传播 & 参数更新
这里您要感谢编程框架。所有反向传播和参数更新都在1行代码里处理,模型中加入这行代码非常容易。
计算代价函数后,您将创建一个“优化器”对象。运行tf.session时,必须一起调用此对象与代价。当被调用时,它将使用所选择的方法和学习速率对给定代价进行优化。
例如,梯度下降优化器:
代码语言:javascript复制optimizer = tf.train.GradientDescentOptimizer(learning_rate = learning_rate).minimize(cost)
要进行优化,您应该这样做:
代码语言:javascript复制_ , c = sess.run([optimizer, cost], feed_dict={X: minibatch_X, Y: minibatch_Y})
通过tensorflow图以相反顺序来计算反向传播,从代价到输入。
注意编码时,我们经常使用_作为“一次性”变量来存储我们稍后不需要使用的值。这里,_返回我们不需要的优化器的评估值(c取值代价变量)。
2.6 - 构建模型
现在,将把它们组合在一起!
练习:实现模型。您将会调用之前实现的功能。
代码语言:javascript复制def model(X_train, Y_train, X_test, Y_test, learning_rate = 0.0001,
num_epochs = 1500, minibatch_size = 32, print_cost = True):
"""
Implements a three-layer tensorflow neural network: LINEAR->RELU->LINEAR->RELU->LINEAR->SOFTMAX. Arguments:
X_train -- training set, of shape (input size = 12288, number of training examples = 1080)
Y_train -- test set, of shape (output size = 6, number of training examples = 1080)
X_test -- training set, of shape (input size = 12288, number of training examples = 120)
Y_test -- test set, of shape (output size = 6, number of test examples = 120)
learning_rate -- learning rate of the optimization
num_epochs -- number of epochs of the optimization loop
minibatch_size -- size of a minibatch
print_cost -- True to print the cost every 100 epochs Returns:
parameters -- parameters learnt by the model. They can then be used to predict.
""" ops.reset_default_graph() # to be able to rerun the model without overwriting tf variables
tf.set_random_seed(1) # to keep consistent results
seed = 3 # to keep consistent results
(n_x, m) = X_train.shape # (n_x: input size, m : number of examples in the train set)
n_y = Y_train.shape[0] # n_y : output size
costs = [] # To keep track of the cost # Create Placeholders of shape (n_x, n_y)
### START CODE HERE ### (1 line)
X, Y = tf.placeholder(dtype=tf.float32, shape=(n_x, None), name = "X"), tf.placeholder(dtype=tf.float32, shape=(n_y, None), name = "Y")
### END CODE HERE ### # Initialize parameters
### START CODE HERE ### (1 line)
parameters = initialize_parameters()
### END CODE HERE ### # Forward propagation: Build the forward propagation in the tensorflow graph
### START CODE HERE ### (1 line)
Z3 = forward_propagation(X, parameters)
### END CODE HERE ### # Cost function: Add cost function to tensorflow graph
### START CODE HERE ### (1 line)
cost = compute_cost(Z3, Y)
### END CODE HERE ### # Backpropagation: Define the tensorflow optimizer. Use an AdamOptimizer.
### START CODE HERE ### (1 line)
optimizer = tf.train.GradientDescentOptimizer(learning_rate = learning_rate).minimize(cost)
### END CODE HERE ### # Initialize all the variables
init = tf.global_variables_initializer() # Start the session to compute the tensorflow graph
with tf.Session() as sess: # Run the initialization
sess.run(init) # Do the training loop
for epoch in range(num_epochs): epoch_cost = 0. # Defines a cost related to an epoch
num_minibatches = int(m / minibatch_size) # number of minibatches of size minibatch_size in the train set
seed = seed 1
minibatches = random_mini_batches(X_train, Y_train, minibatch_size, seed) for minibatch in minibatches: # Select a minibatch
(minibatch_X, minibatch_Y) = minibatch # IMPORTANT: The line that runs the graph on a minibatch.
# Run the session to execute the "optimizer" and the "cost", the feedict should contain a minibatch for (X,Y).
### START CODE HERE ### (1 line)
_ , minibatch_cost = sess.run([optimizer, cost], feed_dict={X: minibatch_X, Y: minibatch_Y})
### END CODE HERE ### epoch_cost = minibatch_cost / num_minibatches # Print the cost every epoch
if print_cost == True and epoch % 100 == 0:
print ("Cost after epoch %i: %f" % (epoch, epoch_cost))
if print_cost == True and epoch % 5 == 0:
costs.append(epoch_cost) # plot the cost
plt.plot(np.squeeze(costs))
plt.ylabel('cost')
plt.xlabel('iterations (per tens)')
plt.title("Learning rate =" str(learning_rate))
plt.show() # lets save the parameters in a variable
parameters = sess.run(parameters)
print ("Parameters have been trained!") # Calculate the correct predictions
correct_prediction = tf.equal(tf.argmax(Z3), tf.argmax(Y)) # Calculate accuracy on the test set
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) print ("Train Accuracy:", accuracy.eval({X: X_train, Y: Y_train}))
print ("Test Accuracy:", accuracy.eval({X: X_test, Y: Y_test})) return parameters
运行下面的代码来训练您的模型!在我们的机器上大约需要5分钟。
代码语言:javascript复制parameters = model(X_train, Y_train, X_test, Y_test)
令人惊讶的是,您的算法可以识别代表0到5之间的数字的手势,精确度为71.7%。
总结:
- 您的模型看起来足够大,足以适应训练集。但是,考虑到训练和测试之间的精度差异,您可以尝试添加L2或dropout正则化来减少过拟合。
- 将会话视为一组代码来训练模型。每次在小批次上运行会话时,都会训练参数。总的来说,您已经运行了很多次(1500个epoch)的会话,直到您获得训练好的参数。
2.7 - 使用自己的图片进行测试
祝贺您完成这项任务。现在可以拍摄您的手势,并查看模型的输出:
代码语言:javascript复制import scipy
from PIL import Image
from scipy import ndimage## START CODE HERE ## (PUT YOUR IMAGE NAME)
my_image = "thumbs_up.jpg"
## END CODE HERE ### We preprocess your image to fit your algorithm.
fname = "images/" my_image
image = np.array(ndimage.imread(fname, flatten=False))
my_image = scipy.misc.imresize(image, size=(64,64)).reshape((1, 64*64*3)).T
my_image_prediction = predict(my_image, parameters)plt.imshow(image)
print("Your algorithm predicts: y = " str(np.squeeze(my_image_prediction)))
Your algorithm predicts: y = 3
尽管您可以看到算法似乎对其进行了错误分类,但您还是值得表扬。原因在于训练集不包含任何“竖起大拇指”手势,所以模型不知道如何处理它!我们称之为“不匹配的数据分布”,它是下一门课程“构建机器学习项目”将会研究的内容。
您应该记住的是:
- Tensorflow是用于深度学习的编程框架
- Tensorflow中的两个主要对象类是张量和操作符。
- 在tensorflow中编码时,您必须采取以下步骤:
- 创建一个包含张量(变量,占位符…)和操作(tf.matmul,tf.add,…)的图
- 创建一个会话
- 初始化会话
- 运行会话以执行图
- 您可以像在model()中看到的那样多次执行图
- 在“优化器”对象上运行会话时,会自动完成反向传播和优化。