MLK | Keras 入门深度学习逢看必会

2019-08-09 17:17:32 浏览数 (1)

MLK,即Machine Learning Knowledge,本专栏在于对机器学习的重点知识做一次梳理,便于日后温习,这次主要讲下Keras的入门。

? 前情回顾

MLK | 那些常见的特征工程

MLK | 模型评估的一些事

MLK | 机器学习的降维”打击“

MLK | 非监督学习最强攻略

MLK | 机器学习采样方法大全

MLK | 一文理清 深度学习前馈神经网络

? Index

  • Keras的简易安装——Window版
  • Keras 的“Hello World”

01 Keras的简易安装——Window版

Keras作为深度学习工具,对于 初学者还是蛮友好的,在安装前,我们要知道Keras 是一个用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。因此我们安装Keras前,就必须安装相关的依赖包。

Step1:安装Numpy/Scipy/Theano

如果是安装了anaconda,则默认拥有了前两项,我们只需要关注Theano,它的安装也需要一些依赖包,打开终端输出:

代码语言:javascript复制
conda install mingw libpython

安装成功的提示:

当你安装成功后,再接着安装:

代码语言:javascript复制
pip install theano

安装成功的提示:

如果想进一步测试Theano是否安装成功,可以进行Python终端,输入:

代码语言:javascript复制
import theano
theano.test()

安装成功的提示:

Step2:安装TensorFlow/Keras

先安装下TensorFlow,再安装Keras,在终端输入:

代码语言:javascript复制
pip install tensorflow
pip install keras

安装成功的提示:

Step3:终极测试

假设我们都完成了以上的内容且没有报错,就可以进行一下实际代码的调用看看是否真的成功,这里我们采用了 MNIST数据集,也就是常用的手写数字识别的数据集。

我们还是打开终端,依次输入以下的代码:

代码语言:javascript复制
conda install git
git clone https://github.com/fchollet/keras.git
cd keras/examples/
python mnist_mlp.py

安装成功的提示:

02 Keras 的“Hello World”

既然我们安装完了Keras,那么我们必须得实操一下,顺便了解下深度学习的基础知识。我们还是采用 MNIST数据集,也就是常用的手写数字识别的数据集,我们的目标就是识别出图片中的数字,评估模型的指标为accuracy(准确度)。

Step1:数据集获取

数据我们可以直接通过 load_data 来获取,在获取前我们得先导入相关库,参考代码如下:

代码语言:javascript复制
'''
这里我们训练一个简单的深度神经网络来玩玩,用 MNIST 数据集(手写数字识别)
'''
from __future__ import print_function

import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout
from keras.optimizers import RMSprop

# 导入数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
print(x_train.shape)
print(x_test.shape)

# 转换为二进制
x_train = x_train.reshape(60000, 784)
x_test = x_test.reshape(10000, 784)
x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train /= 255
x_test /= 255
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')

因为我们的target是一个0至9的数字,也就是一个多分类问题,我们在这里通过调用Keras的 to_categorical 方法转换为二进制来表示(独热编码),参考代码如下:

代码语言:javascript复制
# 把target转换为二进制表示
print(y_train)
print('---------------------')
y_train = keras.utils.to_categorical(y_train, 10)
y_test = keras.utils.to_categorical(y_test, 10)
print(y_train)

输出的样子(图像可视化)如下:

Step2:定义模型

这里的意思就是需要我们去定义神经网络模型的样子,据我们了解,神经网络有比较经典的几个结构:分别是输入层、隐含层、输出层,以及中间的节点个数、激活函数等等,具体可以参考先前的文章(MLK | 一文理清 深度学习前馈神经网络)。下图是李宏毅教授的授课PPT上截图下来的:

从图上,我们可以大致看出这个神经网络有两个隐含层,分别有500个节点,输出层有10个节点,激活函数是Softmax函数,因此可以大致写出下面代码:

代码语言:javascript复制
# 初始化network的模样
model = Sequential()

# 定义网络第 1 个隐含层的节点个数
model.add(Dense(input_dim = 28*28,
                output_dim = 500,
                activation = 'sigmoid'))

# 定义网络第 2 个隐含层的节点个数
model.add(Dense(output_dim = 500,
                activation = 'sigmoid'))

# 定义网络输出层的节点个数
model.add(Dense(output_dim = 10, activation='softmax'))

# 模型样貌
model.summary()

Step3:模型评估

我们这道题是预测识别数字,因此模型评估的指标设置为accuracy就最合适了。然后我们的损失函数可以采用 cateqorical crossentropy ,这个loss function的中文名叫做分类交叉熵,适用于多分类问题,并且使用softmax作为输出层激活函数的神经网络。

评估模型,Keras这里用的方法叫 compile ,里面常用的参数有 loss(损失函数)、optimizer(优化器)和metrics(评估指标)。

代码语言:javascript复制
# 模型评估定义
model.compile(loss='categorical_crossentropy', # 损失函数
              optimizer=RMSprop(), # 优化器
              metrics=['accuracy']) # 评估指标

Step4:训练模型

训练模型,和我们以前传统机器学习的方法类似,也是用 fit 来训练,输入为 x_train, y_train ,此外还有一些其他参数,比如 batch_size和epochs,batch_size指的是每次批量处理的个数,epochs指的是模型迭代的次数。

代码语言:javascript复制
# 训练模型
history = model.fit(x_train, y_train,
                    batch_size=100,
                    epochs=20,
                    verbose=1,
                    validation_data=(x_test, y_test))
score = model.evaluate(x_test, y_test, verbose=0)

# 训练结果
print('Test loss:', score[0])
print('Test accuracy:', score[1])

结果输出为:

References

[1] windows下安装Keras(CPU版)

https://blog.csdn.net/u012735708/article/details/82689281

[2] Keras example(mnist_mlp.py)

https://github.com/keras-team/keras/blob/master/examples/mnist_mlp.py

[3] 台大 李宏毅机器学习 15节

0 人点赞