机器学习(3)再说监督学习的套路

2020-06-02 17:03:35 浏览数 (1)

前面说过了监督学习的重要性,这里我们再来说说监督学习的套路。

让我们再回到问题的本质,不管是监督学习还是非监督学习,都是为了找到特征。

什么是特征?电视机是长方形的,球是圆形的,这就是特征。

1像铅笔能写字,2像鸭子水中游,3像耳朵能听话,4像红旗迎风飘,5像鱼钩把鱼钓,6像哨子能吹响,7像镰刀能割草,8像葫芦上下圆,9像勺子能盛饭。 这些都是特征。

当我们辨别一个东西的时候,实际上我们是在比较特征,它跟那些特征相似,我们就认为它是啥?对吧。

在监督学习中,训练的目的是为了得到数据的特征。我们怎么来确定这个特征是真的特征,同样用的是相似性。

这个相似性在数学表达上,通俗的讲,就是距离最近,距离最近的那个特征就是我们要找的特征。

这在机器学习中有一个专业术语叫损失函数(Loss function)或代价函数(Cost function),我们要做的就是让这个函数值(也就是距离)最小,那么对应的特征就是我们要找的特征。

我们后面还会说到欠拟合(Underfit)和过拟合(Overfitting),目前为了理解,我们假设我们已知特征的性质。

在数学上,要找到最小值,高等数学的方式就是求导;怂一点的方法就是梯度下降,不断尝试,直到满意为止。


这次就到这里,监督学习找特征的套路:定义代价函数,让它最小,搞定。

0 人点赞