正文共600个字,1张图,预计阅读时间5分钟。
编写训练的python文件
代码语言:javascript复制 1# -*- coding: UTF-8 -*-
2"""
3训练 DCGAN
4"""
5import os
6import glob
7import numpy as np
8from scipy import misc
9import keras as tf.keras
10from network import *
11def train():
12if __name__ == "__main__":
13train()
获取训练数据
代码语言:javascript复制1# 获取训练数据
2data = []
3for image in glob.glob("images/*"):
4# 读取图片,返回一个数组对象
5image_data = misc.imread(image) # imread 利用 PIL 来读取图片数据
6data.append(image_data)
7input_data = np.array(data)
将数据进行标准化
代码语言:javascript复制1# 将数据标准化成 [-1, 1] 的取值, 这也是 Tanh 激活函数的输出范围
2input_data = (input_data.astype(np.float32) - 127.5) / 127.5
tanh的取值范围是-1 到 1
像素值最大255 减去一半127.5 再除以 127.5 被限制到-1到1之间。
构造生成器和判别器
代码语言:javascript复制1# 构造 生成器 和 判别器
2g = generator_model()
3d = discriminator_model()
构建生成器和判别器组成的网络模型
代码语言:javascript复制1# 构建 生成器 和 判别器 组成的网络模型
2d_on_g = generator_containing_discriminator(g, d)
里面的参数传入g和d
优化器使用Adam optimizers
代码语言:javascript复制1# 优化器用 Adam Optimizer
2g_optimizer = tf.keras.optimizers.Adam(lr=LEARNING_RATE, beta_1=BETA_1)
3d_optimizer = tf.keras.optimizers.Adam(lr=LEARNING_RATE, beta_1=BETA_1)
学习率是我们之前定义的学习率。beta_1 参数。
使用compile方法对于神经网络进行配置 生成器 和 判别器
代码语言:javascript复制1# 配置 生成器 和 判别器
2g.compile(loss="binary_crossentropy", optimizer=g_optimizer)
3d_on_g.compile(loss="binary_crossentropy", optimizer=g_optimizer)
4d.trainable = True
5d.compile(loss="binary_crossentropy", optimizer=d_optimizer)
交叉熵损失函数。固定住判别器去优化生成器。相反固定一方优化另一方。
开始训练
代码语言:javascript复制 1# 开始训练
2for epoch in range(EPOCHS):
3# 每经过一个batchsize大小训练一下
4for index in range(int(input_data.shape[0] / BATCH_SIZE)):
5 # 数据切片
6 input_batch = input_data[index * BATCH_SIZE : (index 1) * BATCH_SIZE]
7
8 # 连续型均匀分布的随机数据(噪声)
9 random_data = np.random.uniform(-1, 1, size=(BATCH_SIZE, 100))
10 # 生成器 生成的图片数据
11 generated_images = g.predict(random_data, verbose=0)
12 # 首尾相连,输入自身以及产生的图片
13 input_batch = np.concatenate((input_batch, generated_images))
14 # 输出的数据要么是0 要么是 1。1就是通过检测,跟真实图片一致。
15 output_batch = [1] * BATCH_SIZE [0] * BATCH_SIZE
16
17 # 训练 判别器,让它具备识别不合格生成图片的能力
18 d_loss = d.train_on_batch(input_batch, output_batch)
19
20 # 当训练 生成器 时,让 判别器 不可被训练
21 d.trainable = False
22
23 # 重新生成随机数据。很关键
24 random_data = np.random.uniform(-1, 1, size=(BATCH_SIZE, 100))
25
26 # 训练 生成器,并通过不可被训练的 判别器 去判别
27 g_loss = d_on_g.train_on_batch(random_data, [1] * BATCH_SIZE)
28
29 # 恢复 判别器 可被训练
30 d.trainable = True
31
32 # 打印损失
33 print("Epoch {}, 第 {} 步, 生成器的损失: {:.3f}, 判别器的损失: {:.3f}".format(epoch, index, g_loss, d_loss))
保存生成器和判别器的参数
代码语言:javascript复制1# 保存 生成器 和 判别器 的参数
2# 大家也可以设置保存时名称不同(比如后接 epoch 的数字),参数文件就不会被覆盖了
3if epoch % 10 == 9:
4 g.save_weights("generator_weight", True)
5 d.save_weights("discriminator_weight", True)
当我们训练完成,会生成一个generator_weight文件.
它是一个h5py的文件。
代码语言:javascript复制1pip install h5py
编写神经网络生成图片的方法
代码语言:javascript复制
1 # -*- coding: UTF-8 -*-
2 """
3 用 DCGAN 的生成器模型 和 训练得到的生成器参数文件 来生成图片
4 """
5 import numpy as np
6 from PIL import Image
7 import keras as tf.keras
8 from network import *
9 def generate():
10 # 构造生成器
11 g = generator_model()
12# 配置 生成器
13g.compile(loss="binary_crossentropy", optimizer=tf.keras.optimizers.Adam(lr=LEARNING_RATE, beta_1=BETA_1))
14# 加载训练好的 生成器 参数
15g.load_weights("generator_weight")
16
17# 连续型均匀分布的随机数据(噪声)
18random_data = np.random.uniform(-1, 1, size=(BATCH_SIZE, 100))
19# 用随机数据作为输入,生成器 生成图片数据
20images = g.predict(random_data, verbose=1)
21
22# 用生成的图片数据生成 PNG 图片
23for i in range(BATCH_SIZE):
24# 将被限制到-1到1之间的数据进行还原
25image = images[i] * 127.5 127.5
26Image.fromarray(image.astype(np.uint8)).save("image-%s.png" % i)
27 if __name__ == "__main__":
28generate()
代码完成与测试模型
一个错误的个人使用,因为我的TensorFlow版本较老。keras并没有被集成进来。
我以为可以
代码语言:javascript复制1import keras as tf.keras
但是测试失败了,直接把全部的tf.keras全部替换为keras。
新的风暴
代码语言:javascript复制1throws OOM when allocating tensor with shape
又是穷人才会遇到的问题。
将batch_size大小从128改为64可以正常训练。
然后使用generator.py生成图片。
代码语言:javascript复制1# 配置 生成器 和 判别器
2g.compile(loss="binary_crossentropy", optimizer=g_optimizer)
3d_on_g.compile(loss="binary_crossentropy", optimizer=g_optimizer)
4d.trainable = True
5d.compile(loss="binary_crossentropy", optimizer=d_optimizer)
让判别器先可以训练,再设置。我们训练生成器的随机数据不应该和训练整个dong的一样,不然不够随机化。
基本都得训练好几个小时。
原文链接:https://www.jianshu.com/p/fdac1cdae92d
查阅更为简洁方便的分类文章以及最新的课程、产品信息,请移步至全新呈现的“LeadAI学院官网”: www.leadai.org
请关注人工智能LeadAI公众号,查看更多专业文章
大家都在看
LSTM模型在问答系统中的应用
基于TensorFlow的神经网络解决用户流失概览问题
最全常见算法工程师面试题目整理(一)
最全常见算法工程师面试题目整理(二)
TensorFlow从1到2 | 第三章 深度学习革命的开端:卷积神经网络
装饰器 | Python高级编程
今天不如来复习下Python基础