这是一条通往 AI 的路...... 和 AI 路上,第一步这么走下去... 谈到花一定时间研究基础算法的重要性。它们帮助我们夯实算法地基,领略到算法思想的魅力。如果不注重这方面的培养,容易陷入靠直觉去解决问题而效率不高的境地。它们是入门AI的前奏。
从某种角度讲,AI 是一门预测的学问,既然是预测,就会有不确定性。比如,基于大数据,预测休斯顿火箭队战胜金州勇士队的概率为56%。然而,你是一个狂热的火箭迷,预测火箭80%赢球。如果你是局外人,更愿意相信哪个?大多数会选第一个吧。因为它的预测是基于过往的各项比赛数据统计得出的结论。
56%火箭胜,这就是火箭输赢这件事的一种不确定性预测,能做出这种预测的技术就可以称为 AI. 同时,这种描述也是一个基本的概率论表达。AI和概率论几乎密不可分。
概率论有两种思想学派主导。频率派认为,随机事件发生的频次才能刻画概率。比如,过去10个赛季,火箭vs勇士一共交手30次,火箭胜出10次,据此认为火箭胜的概率为1/3.
另一派认为,概率应该表示事件发生的不确定性大小,这就是贝叶斯派。在贝爷看来,不仅需要描述事件的不确定性,还要考虑选择模型的不确定性。贝叶斯理论希望确定最佳模型下参数的不确定性。贝叶斯学派建立的概率理论更适用于机器学习。
下面总结一些基本概念,帮助大家接下来更好地理解AI算法。
将火箭获胜情况描述为事件 X 的话,它的取值有两个:获胜,失败。这是一个离散变量;如果将火箭获胜概率描述为事件 X 的话,它的取值是连续的从0~1. 离散变量和连续变量,就如同离散数学和高等数学中微积分相似。
期望指在某个概率下变量X取某个值与这个概率的乘积;如果两个事件发生是独立的,称为独立事件。如果它们存在一定的耦合关系,如何量化?协方差。它描述的是两个及以上变量间的变化关系。
如果是连续性变量,它还会有一条概率密度函数。
30次交手,火箭胜出10次,火箭获胜的概率称为先验概率。假如库里受伤,火箭胜出的概率为20%,这个概率被称为后验概率,它是在已知某些数据后,重新计算这个事件发生的概率。还有一个似然概率,指的是模型参数已知情况下的数据(库里伤还是未伤)出现的概率,不要与后验概率混淆了。
概率分布对于连续性变量而言,是对密度函数的积分。常见比如高斯分布,一维高斯分布那幅图就不多说了。它有什么卵用?举个简单例子,一维线性回归中,假定 f(x) 的误差项 e(f(x)) 满足高斯分布,直接将它代入高斯分布公式,便可得到误差项的概率。之后,最大似然求分布参数。换句话说,如果误差项不满足高斯分布,回归的预测精度可能就得不到保证。
以上精简总结了概率论用于AI的核心概念,如有遗漏,欢迎大家补充。另外,之前公众号中,推荐过12页总结AI算法需要知道的概率理论。后台回复 “math" 下载。
大家有没有这种感觉,资料满天飞,下载或收藏后就能掌握?
- 资料太多,收藏太多,最后不知道到底该看哪个?
- 一个人学习时常孤单,想看的东西一再拖延?