本文介绍基于Python语言,实现机器学习、深度学习等模型训练时,数据集打乱的具体操作。
1 为什么要打乱数据集
在机器学习中,如果不进行数据集的打乱,则可能导致模型在训练过程中出现具有“偏见”的情况,降低其泛化能力,从而降低训练精度。例如,如果我们做深度学习的分类,其中初始数据的前80%都是第一类,后20%都是第二类,那么如果我们不打乱数据,模型按照数据顺序依次加以训练,则在前面大部分数据中训练出来的结果都是第一类(即形成了惯性,模型认为这些数据只对应着第一类);而到后20%数据进行训练时,所得结果也往往全都为第一类;所以要打乱。
2 如何打乱
首先引入random
。
import random
2.1 数据特征与标签均为一维
代码语言:javascript复制DataIndex=[i for i in range(len(TrainX))]
random.shuffle(DataIndex)
TrainX=TrainX[DataIndex]
TrainY=TrainY[DataIndex]
其中,TrainX
为一维的训练数据特征,TrainY
为一维的训练数据标签。
2.2 数据特征为多维而标签为一维
代码语言:javascript复制Datasets=tf.data.Dataset.from_tensor_slices((dict(TrainX),TrainY))
Datasets=Datasets.shuffle(1000)
其中,TrainX
需要为多维DataFrame
格式的训练数据特征,TrainY
为一维Series
格式的训练数据标签。但是经过这种方法,我们得到的Datasets
为Dataset
类的数据,若是接下来需要带入input_fn
还可以,如果想单独取出TrainX
和TrainY
的话就比较麻烦。
因此,我们还可以直接在初始数据划分训练集与测试集时直接将数据打乱:
代码语言:javascript复制TrainData=MyData.sample(frac=TrainFrac,random_state=RandomSeed)
TestData=MyData.drop(TrainData.index)
其中,MyData
为初始全部数据,TrainData
与TestData
分别为划分后的训练集与测试集数据。
经过.sample()
这一步骤,与原始数据的Index
相比,实际上已经实现了TrainData
与TestData
的随机排列。
至此,大功告成。