? 前情回顾
MLK | 那些常见的特征工程
MLK | 模型评估的一些事
MLK | 机器学习的降维”打击“
MLK | 非监督学习最强攻略
MLK | 机器学习采样方法大全
MLK | 一文理清 深度学习前馈神经网络
? Index
- Keras的简易安装——Window版
- Keras 的“Hello World”
01 Keras的简易安装——Window版
Keras作为深度学习工具,对于 初学者还是蛮友好的,在安装前,我们要知道Keras 是一个用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。因此我们安装Keras前,就必须安装相关的依赖包。
Step1:安装Numpy/Scipy/Theano
如果是安装了anaconda,则默认拥有了前两项,我们只需要关注Theano,它的安装也需要一些依赖包,打开终端输出:
代码语言:javascript复制conda install mingw libpython
安装成功的提示:
当你安装成功后,再接着安装:
代码语言:javascript复制pip install theano
安装成功的提示:
如果想进一步测试Theano是否安装成功,可以进行Python终端,输入:
代码语言:javascript复制import theano
theano.test()
安装成功的提示:
Step2:安装TensorFlow/Keras
先安装下TensorFlow,再安装Keras,在终端输入:
代码语言:javascript复制pip install tensorflow
pip install keras
安装成功的提示:
Step3:终极测试
假设我们都完成了以上的内容且没有报错,就可以进行一下实际代码的调用看看是否真的成功,这里我们采用了 MNIST数据集,也就是常用的手写数字识别的数据集。
我们还是打开终端,依次输入以下的代码:
代码语言:javascript复制conda install git
git clone https://github.com/fchollet/keras.git
cd keras/examples/
python mnist_mlp.py
安装成功的提示:
02 Keras 的“Hello World”
既然我们安装完了Keras,那么我们必须得实操一下,顺便了解下深度学习的基础知识。我们还是采用 MNIST数据集,也就是常用的手写数字识别的数据集,我们的目标就是识别出图片中的数字,评估模型的指标为accuracy(准确度)。
Step1:数据集获取
数据我们可以直接通过 load_data 来获取,在获取前我们得先导入相关库,参考代码如下:
代码语言:javascript复制'''
这里我们训练一个简单的深度神经网络来玩玩,用 MNIST 数据集(手写数字识别)
'''
from __future__ import print_function
import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout
from keras.optimizers import RMSprop
# 导入数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
print(x_train.shape)
print(x_test.shape)
# 转换为二进制
x_train = x_train.reshape(60000, 784)
x_test = x_test.reshape(10000, 784)
x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train /= 255
x_test /= 255
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')
因为我们的target是一个0至9的数字,也就是一个多分类问题,我们在这里通过调用Keras的 to_categorical 方法转换为二进制来表示(独热编码),参考代码如下:
代码语言:javascript复制# 把target转换为二进制表示
print(y_train)
print('---------------------')
y_train = keras.utils.to_categorical(y_train, 10)
y_test = keras.utils.to_categorical(y_test, 10)
print(y_train)
输出的样子(图像可视化)如下:
Step2:定义模型
这里的意思就是需要我们去定义神经网络模型的样子,据我们了解,神经网络有比较经典的几个结构:分别是输入层、隐含层、输出层,以及中间的节点个数、激活函数等等,具体可以参考先前的文章(MLK | 一文理清 深度学习前馈神经网络)。下图是李宏毅教授的授课PPT上截图下来的:
从图上,我们可以大致看出这个神经网络有两个隐含层,分别有500个节点,输出层有10个节点,激活函数是Softmax函数,因此可以大致写出下面代码:
代码语言:javascript复制# 初始化network的模样
model = Sequential()
# 定义网络第 1 个隐含层的节点个数
model.add(Dense(input_dim = 28*28,
output_dim = 500,
activation = 'sigmoid'))
# 定义网络第 2 个隐含层的节点个数
model.add(Dense(output_dim = 500,
activation = 'sigmoid'))
# 定义网络输出层的节点个数
model.add(Dense(output_dim = 10, activation='softmax'))
# 模型样貌
model.summary()
Step3:模型评估
我们这道题是预测识别数字,因此模型评估的指标设置为accuracy就最合适了。然后我们的损失函数可以采用 cateqorical crossentropy ,这个loss function的中文名叫做分类交叉熵,适用于多分类问题,并且使用softmax作为输出层激活函数的神经网络。
评估模型,Keras这里用的方法叫 compile ,里面常用的参数有 loss(损失函数)、optimizer(优化器)和metrics(评估指标)。
代码语言:javascript复制# 模型评估定义
model.compile(loss='categorical_crossentropy', # 损失函数
optimizer=RMSprop(), # 优化器
metrics=['accuracy']) # 评估指标
Step4:训练模型
训练模型,和我们以前传统机器学习的方法类似,也是用 fit 来训练,输入为 x_train, y_train ,此外还有一些其他参数,比如 batch_size和epochs,batch_size指的是每次批量处理的个数,epochs指的是模型迭代的次数。
代码语言:javascript复制# 训练模型
history = model.fit(x_train, y_train,
batch_size=100,
epochs=20,
verbose=1,
validation_data=(x_test, y_test))
score = model.evaluate(x_test, y_test, verbose=0)
# 训练结果
print('Test loss:', score[0])
print('Test accuracy:', score[1])
结果输出为:
References
[1] windows下安装Keras(CPU版)
https://blog.csdn.net/u012735708/article/details/82689281
[2] Keras example(mnist_mlp.py)
https://github.com/keras-team/keras/blob/master/examples/mnist_mlp.py
[3] 台大 李宏毅机器学习 15节