吴恩达机器学习笔记9-代价函数直观理解之二

2020-08-14 10:21:07 浏览数 (1)

本文是吴恩达《机器学习》视频笔记第9篇,对应第1周第9个视频。

Model and Cost Function_Cost Function - Intuition II”

01

视频

02

笔记

继续看下面关于线性模型的一般假设公式。包括了:(1)假设函数;(2)俩参数;(3)代价函数;(4)优化目标。

与前面一个视频中将两个参数简化成一个不同,本视频将两个参数

都保留。那代价函数的取值就和这两个参数有关了,也就是说代价函数变成了一个三维立体空间的面。下图右边的代价函数的图形就不能很好的反应代价函数和模型假设的参数取值之间的关系了。

取而代之的是:

上面这个图就是一个碗状的一个面。注意了,此图中每一对 对应一个假设模型的具体函数。而能让代价函数取值在碗底的 才是我们要找的东西,就是这一对让我们的假设函数有了具体的样子,能最好的反应我们测试数据中自变量和因变量之间的关系。

让三维的图简单一点,我们把它映射到一个面上,就变成了等高线图(下图右半边),下图右边的每个圈圈都是对应一组参数的,而每一组参数有对应一个假设函数的具体形式,也就是下图左边的一条直线。

我们看出来,这里两个参数确定的误差函数图像它很像是一个盆地,就像买房子我们希望买在房价最低的点上,那我们也希望找到能让代价函数取值最小的那一对 .

想想,如果我们用一盆水泼到这个代价函数的面上,最后这些水都会流到那个地势最低的地方去。

那,在数学上有没有办法帮我们找到这个最低点?有没有办法用程序实现这个事呢?且听下回。

0 人点赞