回顾——keras电影评价预测

2019-10-12 15:57:32 浏览数 (1)

学习一时爽,一直学习一直爽

回顾以前的笔记 (于3月份记录的)

在keras中,内置了imdb电影评分数据集,来进行评价预测

安装keras

代码语言:javascript复制
conda install keras

conda就帮依赖全部搞定,记得加源

导入imdb

代码语言:javascript复制
from keras.datasets import imdb

数据集简要说明

  • 一个长长的英文句子,有的有几千单词,有的有几十,分类成好的评价和不好的评价

在数据中不是单词,而是单词的索引 一共就5万句子

代码语言:javascript复制
import keras
from keras import layers
import matplotlib.pyplot as plt
%matplotlib inline
data = keras.datasets.imdb
max_word = 10000
# 加载前10000个单词 最大不超过10000
(x_train, y_train), (x_test, y_test) = data.load_data(num_words=max_word)

查看数据

代码语言:javascript复制
x_train.shape, y_train.shape
OUT:
((25000,), (25000,))
x_train[0]
y_train[0]
OUT:
输出的是
词汇的index
输出的是 
array([1, 0, 0, ..., 0, 1, 0], dtype=int64)
1 代表 正面评价 0 代表负面怕评价

加载index和词汇的对应关系

代码语言:javascript复制
#加载词汇
word_index = data.get_word_index()
#将index和value 互换
index_word = dict((value, key) for key,value in word_index.items())

在这里插入图片描述 打印第一个评论

代码语言:javascript复制
# 在index_word中前三个不是需要的单词 ,去除
[index_word.get(index-3, '?') for index in x_train[0]]
OUT:
['?','this','film','was','just','brilliant','casting','location','scenery','story','direction',"everyone's", 'really', ……]

查看数据的长度

代码语言:javascript复制
[len(seq) for seq in x_train]
max([max(seq) for seq in x_train])
OUT:
[218,189,141,550,147,……] #每条评论的单词量为这么多
9999

果然最长的不超过10000

文本的向量化(下次用pad_sequences)

代码语言:javascript复制
# 将x_train 中的25000条评论 25000*10000的矩阵
# 该词出现为1 ,不出现为0 
def k_hot(seqs, dim=10000):
    result = np.zeros((len(seqs), dim))
    for i, seq in enumerate(seqs):
        result[i, seq] = 1
    return result
x_train = k_hot(x_train)

可以看下x_train 和y_train 数据

在这里插入图片描述

模型的训练

补充模型

  • input_dim 就是x_trian 的数量10000
  • relu激活
  • 二分类sigmoid
  • 优化adam
  • 损失函数二分类binary_crossentropy
代码语言:javascript复制
model = keras.Sequential()
model.add(layers.Dense(32, input_dim=10000, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))
model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['acc']
)
history = model.fit(x_train, y_train, epochs=15, batch_size=256, validation_data=(x_test, y_test))
plt.plot(history.epoch, history.history.get('loss'), c='r', label='loss')
plt.plot(history.epoch, history.history.get('val_loss'), c='b', label='val_loss')
plt.legend()
plt.plot(history.epoch, history.history.get('acc'), c='r', label='acc')
plt.plot(history.epoch, history.history.get('val_acc'), c='b', label='val_acc')
plt.legend()

在这里插入图片描述

不用看了过拟合,加dropout,下文继续

0 人点赞