主要内容
本文主要的内容包含机器学习中的几个常见问题,模型选择和泛化能力:
- 模型评估选择
- 训练误差和测试误差
- 过拟合问题
- 正则化
- 交叉验证
- 泛化能力
- 泛化误差
- 泛化误差上界
模型评估和选择
训练误差和测试误差
其中N是训练样本的容量
训练误差是关于数据集的平均损失:
其中
当损失函数是0-1损失时,测试误差就变成了常见的测试数据集上的误差率error rate
I是指示函数,即时为1,否则为0;相应的测试集上的准确率为
明显的:
总结
- 测试误差反应了学习方法对未知的测试数据集的预测能力
- 通过学习方法对未知数据的预测能力称为泛化能力
过拟合与模型选择
过拟合:一味地追求提高对训练数据的预测能力,所选模型的复杂度会比真实模型高,这种现象称之为过拟合
。
- 过拟合是指学习时选择的参数过多
- 过拟合对已知数据能够很好的判断,但是对未知数据预测的效果很差
- 模型选择的目的在于避免过拟合并且提高模型的预测能力
栗子:对M次多项式进行拟合
解决办法:
- 确定模型的复杂度,即多项式的次数
- 在给定的模型复杂度下,根据经验风险最小的策略,求解参数,即多项式的系数
- 经验风险最小化
- 损失函数是平方损失,系数frac{1}{2}是为了后续的求导计算。
- 在多项式拟合中,训练误差随着多项式系数即模型复杂度的增加而减小
- 测试误差随着模型复杂度的增加先减小后增加
- 优化的目的:使得测试误差达到最小
- 当模型的复杂度过大,就会出现过拟合的现象,使用
正则化和交叉验证
来解决
正则化
模型选择的典型方法是正则化。正则化是结构风险最小化策略的实现,在经验风险的基础上加上了一个正则项regularrizer或者罚项penalty term。正则化的一般形式
- 第一项是经验风险
- 第二项是正则化项
- 两者构成了结构风险
- lambda是正则化系数
- 范数或
者表示成参数向量的范数
正则化作用:选择经验风险和模型复杂度同时较小的模型
交叉验证
普通模型选择方法
进行模型选择的一般做法
是指将数据集分成三个部分:
- 训练集
training set
- 作用是训练模型
- 验证集
validation set
- 作用是用于模型的选择;一般数据足够多
- 测试集
test set
- 对学习方法的评估
在学习到不同复杂度的模型中,选择对验证集有最小预测误差的模型
简单交叉验证
交叉验证cross validation
的做法是数据分成两部分:
- 训练集
70%
- 测试集
30%
通过训练集在不同的条件下进行模型的训练,从而得到模型,再把测试集数据放入模型进行评估,选择出测试误差最小的模型
S折交叉验证
S-fold cross validation
的做法是:
- 将数据随机分成
S
个互不相交、大小相同的子集 - 利用
S-1
个子集进行训练 - 利用剩下的子集进行测试
- 对
S
中选择重复进行 - 最后选择
S
次评测中测试误差最小的模型
留一交叉验证
S
折交叉验证的特殊情形是S=N
,变成留一交叉验证 leave-ont-out cross validation
,往往是在数据缺乏的情况下使用
泛化能力
什么是泛化误差
学习方法的泛化能力是指由学习方法得到的模型对未知数据的预测能力,是学习方法重要的性质。通常是采用**通过测试误差来评估学习方法的泛化能力。**缺陷是
- 过于依赖于测试数据
- 测试数据是有限的,评估结果未必可靠
如果学到的模型是hat{f},用该模型对未知数据预测的误差称为泛化误差generalization error,通过泛化误差来反映学习的泛化能力:
泛化误差上界GEB
泛化能力分析往往是通过研究比较泛化误差的概率上界来实现的,称之为泛化误差上界
generalization error bound
。泛化误差两个特质:
- GEB是样本容量的函数,样本容量增减,GEB趋于0;
- GEB是假设空间容量的函数,假设空间容量越大,模型越难学,GEB越大
二分类问题的GEB
讨论
- 已知训练集:
N是样本容量,T是从联合概率分布
- 假设空间是函数的集合Gamma = {f_1, f_2, …, f_d},d是函数的个数。
- 损失函数是
0-1
损失 - 中选择出来,则f的 期望风险是
经验风险是
经验风险最小化函数是
泛化能力
使得如下式子成立:
,其中
- 等式的左边是泛化误差,右端是泛化误差上界
- 在泛化误差上界中第一项是训练误差,训练误差越小,泛化误差越小
- 第二项中epsilon (d,N,delta)是样本容量N的单调递减函数,当N趋于无穷大时delta趋于0
- 同时第二项也和假设函数个数d相关;假设空间Gamma包含的函数越多,其值越大
Stay Foolish Stay Hungry