AI4ESS 2020:机器和统计学习基础:通用框架,推断与预测

2020-07-22 16:27:41 浏览数 (1)

本文翻译自 AI4ESS 2020 课程,并有部分修改

Artificial Intelligence for Earth System Science (AI4ESS) Summer School

Machine and Statistical Learning Fundamentals

Dorit Hammerling - CSM / NCAR

通用框架,推理与预测

有用的参考书

免费,并且写得很好,都有良好的代码示例

An Introduction to Statistical Learning with Applications in R

http://faculty.marshall.usc.edu/gareth-james/ISL/

数学内容较少。

The Elements of Statistical Learning

https://web.stanford.edu/~hastie/ElemStatLearn/

更偏向于数学。

面向初学者的一些定义

统计学习(Statistical learning):大量可从数据中获取见解的工具

监督 vs 非监督:输出 一个或更多的输入

  • 分类
  • 回归
  • 。。。

监督学习:只有输入,对这些输入的结构更感兴趣

  • 聚类
  • 相关分析
  • 降维,例如主成分分析

本讲座将聚焦监督学习。

基本模型方程

监督模型的最简单形式

Y=f(X) ε

模型构成:

Y:我们感兴趣的一些变量,输出

f :关于 X 的某种固定但未知的函数

X:变量 X1,..., Xp,我们相信可能与 Y 有某种关联,输入

ε:随机误差项

机器学习的主要目标:

估计 f

回归 vs 分类

监督学习的场景可以分成回归(regression)和分类(classification)两类问题:

  • 如果输出 Y 是定量变量 => 回归
  • 如果输出 Y 是定性(类别)变量 => 分类

上述类别不依赖于输入变量,输入变量即可以是定量变量,也可以是定性变量。

还有一个灰色区域,例如在逻辑或多项式回归的情况下,输出是分类的。

为什么想要估计 f

两个主要的原因:

  • 预测:如果我们获得一个新的 X,想要得到对应的 Y
  • 推理:X 和 Y 之间的关系是什么

我们的动机会影响我们选择模型 f 的方法!

在预测准确性和模型可解释性之间进行权衡:

更简单,更不灵活的模型通常更易于解释,但可能不如更灵活的模型准确。

预测

预测等式的简单形式

Y^ = f^(X)

如果我们的目标仅仅是预测结果,那么可以将 f^ 当成一个黑箱。

这意味着我们不关心 f^ 的精确形式,也不关心 Xs 是如何与 Ys 关联的。

我们关心的是 准确 的预测。

预测精度

我们预测的 Y^ 与真实值 Y 有多接近?

通常表示为 Y 的预测值和真实值之间的平方差,它取决于两个误差分量。

可减少的误差和不可减少的误差的分解:

解释不可减少的误差

Figure credit: Introduction to Statistical Learning, Figure 2.2

预测精度(续)

统计学习的重点在于最小化可减少的误差。根据定义,这对于不可减少的误差是无法做到的,这为预测精度提供了一个界限。不幸的是,在实践中这种界限几乎总是未知的。

为什么会有不可减少的误差?

  • 对于预测 Y 可能有用的变量没有测量,或不是 X 的组成部分。
  • 在建模的系统中存在固有的可变性

推断

我们想要理解 X 和 Y 之间的关系,特别是 Y 如何以 X1,...,Xp 的函数形式进行变化。

在这种情况下,我们 不能 将 f 作为黑箱,我们更关注它的确切形式。

推断领域中出现的典型问题:

  • 哪些预测因素与响应有关?=> 变量选择
  • 预测变量与响应之间的关系的本质是什么?=> 模型选择

在某些情况下,我们对预测和推断都感兴趣。

参考

https://www2.cisl.ucar.edu/events/summer-school/ai4ess/2020/artificial-intelligence-earth-system-science-ai4ess-summer-school

https://github.com/NCAR/ai4ess-hackathon-2020

0 人点赞