最新 最热

机器学习系列8:逻辑回归的代价函数

如果我们在逻辑回归中也用这个代价函数去拟合参数行不行呢?答案是不行。因为这个代价函数在逻辑回归中的图像是这个样子的:

2019-09-26
0

机器学习系列 5:特征缩放

首先我们应该了解一下多元线性回归。相比于单变量线性回归,该函数拥有多个变量值,那么他所拥有的参数就不仅仅是一个或者两个,而是多个。例如下面这个函数:...

2019-09-26
0

机器学习系列 4:线性回归的梯度下降算法

之前我们已经学过了线性回归、代价函数和梯度下降,但是他们就像一个人的胳膊和腿,只有组合在一起才会成为一个「完整的人」,这个「完整的人」就是一个机器学习算法,让我们一起来学习第一个机器学习算法吧。...

2019-09-26
0

R语言数据分析与挖掘(第一章):数据预处理(2)——缺失值常用的处理方法

上一篇文章(缺失值处理)介绍了缺失值处理的判断方法,这一讲接着介绍缺失值常用的几种处理方法:删除法,替换法和插补法。不同的方法对应不同类型的缺失值。...

2019-09-25
0

不确定性:用贝叶斯线性回归通向更好的模型选择之路

关注过Mathematica Stack Exchange(我强烈推荐给各位Wolfram语言的用户)的读者们可能最近看过这篇博文内容了,在那篇博文里我展示了一个我所编写的函数,可以使得贝叶斯线性回归的操作更加简单。在完成了那个函数之后,我一...

2019-09-24
0

工作中我常用的分析算法

统计性描述更为侧重单变量的描述,即描述X、X与X之间的关系,在通过X去描述Y的时候,我更关心X与Y间存在何种关系,此时便需要借助散点图去印证X与Y相关的内在一致性,并通过方差、协方差过渡到统计相关的本质。...

2019-09-24
0

通过支持向量回归和LSTM进行股票价格预测

人工智能(AI)无处不在。机器学习和人工智能正在彻底改变现代问题的解决方式。应用机器学习的一种很酷的方法是使用财务数据。财务数据是机器学习的一个游乐场。...

2019-09-23
0

机器学习篇(六)

当把模型训练好以后就不会再使用训练集来预测,而是要实际去预测。这就涉及到模型的加载和保存。

2019-09-23
0

机器学习篇(五)

分类算法:是一种对离散型随机变量建模或预测的监督学习算法。使用案例包括邮件过滤、金融欺诈和预测雇员异动等输出为类别的任务。许多回归算法都有与其相对应的分类算法,分类算法通常适用于预测一个类别(或类别的概率)而...

2019-09-23
0

TensorFlow线性回归与逻辑回归实战

Huber loss是为了增强平方误差损失函数(squared loss function)对噪声(或叫离群点,outliers)的鲁棒性提出的。

2019-09-20
0