李航《统计学习方法》全套视频讲解来了!

2021-12-02 14:17:52 浏览数 (1)

事半功倍的啃书姿势内容分以下六个部分:

一、我的学习历程(不喜欢听啰嗦的可以从第二部分开始) 二、学习《统计学习方法》遇到的困难 三、 在学习过程中碰过的壁 四、最后解决问题的方法 五、学习心得以及对后来的学习者的建议 六、学习社群以及福利

01我的学习历程

简单介绍一下我的学习路程,一开始入门机器学习,觉得大多数入门的通病都是漫天的去网上找贴吧找资源,然后网盘保存了一大堆资料,每个吃一点不断的遴选符合自己口味,但又茫然不确定自己选的资料好不好,这段时间费时费神,后来也是看多了发现基本机器学习入门绕不开的两本书就是李航的《统计学习方法》和周志华的《机器学习》,一本小蓝书和一本西瓜书。

我觉得两本是相互补充的,西瓜书概括性比价好,但是公式推导稍微缺一点,统计学习方法有比较详尽的公式,但有些内容也不够全面,两本总得先看一本,就看个人选择。不过还得有时间去“磨”了。

为什么用“磨”这个字,因为这种基础性的理论和公式推导只能磨,没什么取巧,其实相对于现在编程生态库,大把数据科学的计算库可以直接计算,学习基本的调用接口和一些基础概念,对于数据科学的大多数方法的确是可以使用的了。

那为什么这么费力从基础理论去熟悉这些公式呢?那就见仁见智了,个人观点,暂时也不讲职场、课题需要啊之类,公式理论不过一遍,你不虚吗?

李航的《统计学习方法》作为机器学习的入门书籍,第一版是2012年出版的,只是包含了主要的监督学习算法, 2019年出了第二版,增加了无监督学习的主要算法,每一个算法模型背后都有深刻的理论和不同的应用场景,但有时候不经意之间又发现他们相通的地方,可能这就是数学有意思的地方吧。

02学习《统计学习方法》遇到的困难

1.知识涉及面

高等数学、线性代数那些不谈,统计学习方法基本都会涉及到相关知识和概念,还会涉及到数值分析、凸优化理论以及矩阵论部分知识,当然不指望具备所有的知识储备,大部分人还是在学习过程中,缺啥补啥,而这个缺啥补啥的过程,有时候可能都忘记一开始本来要解决的问题。

打个比方,例如在学习支持向量机的时候遇到的小场景。

在推导支持向量机的间隔最大化问题时,其实就相当于求解约束最优化问题,而常常这类问题采用拉格朗日对偶性来将原始问题转换为对偶问题,引入广义拉格朗日函数并加以条件约束才能等价于原始问题。

等整理笔记,弄清楚了什么是约束优化问题,什么是对偶问题,什么是广义拉格朗日函数后,得到了最后原始问题的对偶问题,我发现仍然并没有知道怎么求解对偶问题,有点尴尬。进一步,为了搞明白原始问题和对偶问题的关系,就需要补充最优化方法的知识,所以继续……

到最后大致理解KKT条件后,算是对凸优化的求解过程有了初步的了解,那回到原本的原始问题,我本来要干啥来着……

所以如果有提前的知识储备,那么学习小蓝书是相对水到渠成的过程,若功课欠缺,那么知识的广度就需要花一定时间去补课了。不幸的是,个人知识储备也一般,也是在缝缝补补中过来的,这个过程的确比较头疼。

2.公式推导

公式推导是小蓝书的一大“特色”,基本第一次翻小蓝书都容易被冗长的公式劝退,并且在书本上很多公式并没有提供很详尽的推导公式,稍微省略一下就找不到北,有时候每个小标识符号代表涵义也易弄混,简单看一下多元正态分布参数的极大似然估计。

公式推导有时候消除或者合并就直接变形了,看不出来就卡住,不懂的时候疯狂查,才能理顺整个过程。大部分公式推导在深度之眼的课程老师还是都推了一遍,这的确是省了很多时间,不过具体推导过程还是得自己过一遍。

个人认为公式多是多,但有别以前的应试模式,我们不需要把公式背下来,最主要是通过推导公式的过程,理解和掌握算法的基本原理,以此巩固对算法的印象。虽然不可否认,要推导的公式还是挺多的。

3.学以致用

学习统计学习方法还有一个很重要的问题,就是怎么转换为工程能力,毕竟理论是理论的,弄懂了理论问题,主要是为了解决应用问题,实现代码复现。一般的基础公式还能进行直接代码复现,但是有些复杂的公式就很考验代码复现能力了。举个代表的例子,感知机模型。

感知机模型是二分类的线性分类模型,公式也相对简单,写好代价和损失函数基本就可以直接迭代计算。但是感知机是神经网络的基础,如果拓展到了BP算法上,就会显得复杂。

梳理清楚理论的过程,才能明白传播的过程,不然光是一层层的小标点符号,写了几个for循环,人也蒙圈了,更遑论对计算过程向量化,提高计算速度之类的优化。所以学习过程中,怎么学以致用实现代码复现也是很重要的一点。

03在学习过程中碰过的壁

所谓的“壁”就是一堵墙,明知道自己走不对还死磕,钻牛角尖。在学习过程中,碰得最多的壁就是钻牛角尖,可是于个人而言,真没办法,并不是人人都是一点通,有一些概念没接触过,一开始没法消化,一知半解然后对公式进行推导,就容易觉得矛盾,可是本质上还是对概念的理解不深。还是以SVM支持向量机作为例子,当初有个问题就是纠结老长时间。

课本上也是一带而过,也有找课程讲解,但是绕进思维的死胡同,就比较难跳出来,因为还没引入新的概念,依然采用的是原有知识概念,资料也查了,可是并不妨碍我依然是一知半解。后来还是继续查资料,依然一知半解就还没找到点醒自己的那个点,重新对超平面的知识点查询和支持向量的理解。

理清楚函数间隔和几何间隔的关系,同时结合约束问题的理解,才最后明白:函数间隔的取值并不影响最优化问题的解,它的改变对最优化问题的不等式约束没有影响,对目标函数的优化也没有影响,也就是说它产生了一个等价的最优化问题。(仅作说明用,不理解没关系,举例举例)

包括这样的碰壁事情,在我学习过程中见怪不怪,如果想比较透彻理解一些原理,包括它的基础知识理论,有时候还是不可忽略的,总的来说,个人认为系统性的学习和整理认为是必要的,有助于获得比较清晰的模型建立流程。

总结下来啊,主要原因:

1、知识储备还太少,以前知识不够扎实

2、看得多,写得少

04如何解决遇到的问题

1、对于问题的解决,我认为就是针对上面总结自身原因来入手。

对于没办法解决的问题,钻牛角尖是非常费事费力而且没效率的事情,所以遇到难以解决的问题,还是得灵活一点,多咨询一下大佬肯定是最好的。

其次还是知识储备太少,知识储备太少,知识储备太少,重要事情说三遍。这个太少意思是理解吸收少,并不是说看到少,就自己而言,有些知识概念囫囵吞枣,看了到脑子了就没多少,显得知识储备比较少,对于不理解问题往往都是我对问题里面某些概念问题还不透彻,所以我对解决问题最直接的方法就是查漏补缺,有时间还是比较推荐的。

其次就是算法的相通性,有些问题一时的一知半解是没办法,需要等到引入某个新概念的时候才会恍然大悟。可是如果你提前去学习这些,又容易加大对现有学习模型的难度,并且吃力不讨好,毕竟有些算法就是为了后面更复杂的算法铺垫的,后面学习可能会显得更容易。有点像调参过程,你引入些参数改良,必定又带来新的浮动,所以需要一点经验之谈和平衡。

学习的过程中,我习惯做笔记记录学习过程,有利于自己梳理,对于不懂和不理解的也会记录下来,在学习感知机的时候,就对对偶算法一头雾水,干脆就先放着并记录下来。

在后面系统对拉格朗日对偶性学习后,再来对感知机的对偶形式补课,其实基本也是一点通,乃至后面模型的对偶形式也是重新按班就步的推一遍,不会出现很难的理解问题。所以现在的难题,还是有别于应试的难题模式,应试思考的是解题模式,现在思考的是模型的逻辑模式。

2、最后提到的解决问题的办法,也是个人方法吧。

对于问题的不理解,书本上的例题多做几遍,以及课后练习,问题都不难,按步骤计算一遍,在这个过程中会不断对正确答案作推理,最后结果正确,说明思路正确,我遇到的一些问题就是在解题的过程中得到解答。

多写一点也有助于巩固,好记性不如烂笔头。虽然有段时间没看后还是遗忘很多,不过再一次去翻阅,都容易有一定印象,按一定思路可以快速复习。

05学习心得以及对后来者的建议

1.多查多看多记录

统计学习方法正如之前提的知识面问题,是大部分人首先要面对的问题,所以在学习过程中还是得多查多看,建立完善的理论流程。

在学习小蓝书前,还提前过了一遍吴恩达老师的机器学习,不过学习小蓝书过程中,就发现自己的许多问题,到后来的看完小蓝书后,刷西瓜书还是能继续发现许多遗留问题,光是逻辑回归的推导版本都更新了三次笔记。

可以应用极大似然估计得到逻辑斯蒂回归模型。

也可以通过广义线性模型推导。

所以模型之间可能有相通性,以及相关概念,有时候的确很容易混淆的,但是每弄清楚一点后,就能对模型有更深的理解,所以多看多查是很有必要的,当某个模型不熟悉不理解时,不妨多找些资料去对同个多写的话。就因人而已,个人喜欢作笔记主要是可以不断记录自己学习模型的迭代过程。

2.代码复现多琢磨

在学习过程中,比较重要的另一个点还是代码复现的练习,代码复现的过程不仅考验对算法的理解,也考验工程能力,前期一些简单模型还能靠自己手打,后面就放弃了,主要看代码抄代码为主了,抄着敲一遍,都可以对模型流程有更深的印象。

代码复现,网上有很多资源,Github上大佬都写得挺详细的,可以找个喜欢风格的去学习,代码能力个人以为还是最重要的,理论都是打基础,没有人是手算一大堆数据的吧。

3.坚持

机器学习的入门对于小白而言并不是一蹴而就的事情,最大的心得就是坚持,因为过程的确比较枯燥。

可是要是说有意思的,你可以学习到很多有趣的算法,在实现模型的过程中,每天进步一点,一周学习一个模型,订个小目标去完成它就是最好的鼓励。多的话不说,坚持是学习的最大利器。

0 人点赞