最新 最热

卷积神经网络工作原理直观解释

其实我们在做线性回归也好,分类(逻辑斯蒂回归)也好,本质上来讲,就是把数据进行映射,要么映射到一个多个离散的标签上,或者是连续的空间里面,一般简单的数据而言,我们很好拟合,只要线性变化一下,然后学习出最好的W就可以了,但是对...

2018-04-03
0

逻辑回归(LR)算法

一、算法介绍 Logistic regression (逻辑回归)是一种非线性回归模型,特征数据可以是连续的,也可以是分类变量和哑变量,是当前业界比较常用的机器学习方法,用于估计某种事物的可能性,主要的用途:分类问题:如,反垃圾系统判别,通过...

2018-04-03
0

机器学习之线性回归:OLS 无偏估计及相关性python分析

0 回顾在最近的推送中,先后总结了最小二乘法的原理,两个求解方法:直接法和梯度下降,最后利用这两种思路进行了python实战。在用直接法求出权重参数时,有一个假设是某个矩阵不能为奇异矩阵。在实战中,我们发现如果它近似为奇...

2018-04-02
0

案例实战|泰坦尼克号船员获救预测(XGBoost提交结果)

01—回顾泰坦尼克号的案例系列已经推送了2个,分别解决了数据预处理:特征工程,数据清洗等,包括模型的BaseLine阶段的求解,关于这两篇文章,请参考:案例实战|泰坦尼克号船员获救预测(数据预...

2018-04-02
0

Tensorflow笔记|tensorflow做线性回归

本系列推送主要参考: Stanford University CS20SI: Tensorflow for Deep Learning Research.01—Tensorflow做线性回归前面实现过最小二乘法的线性回归算法,梯度下降求解过程,详见文章:机器学习之线性回归:算法兑现为pytho...

2018-04-02
0

算法channel 2017回顾

1算法channel公众号才成立两个月,在这段日子,每天推送一篇算法,机器学习,深度学习相关的文章,包括:算法的基本思想算法的实例分析有些算法的源代码的实现案例实战2原创文章整理1机器学习:不得不知的概念(1)2 机器学习:不得不知...

2018-04-02
0

以色列理工暑期学习-机器学习中Loss函数的小结

机器学习作为一种优化方法,最重要的一点是找到优化的目标函数——损失函数和正则项的组合;有了目标函数的“正确的打开方式”,才能通过合适的机器学习算法求解优化。通俗来讲Loss函数是一种关于fitness的测度(关于数据是...

2018-04-02
0

常见的七种回归技术

介绍 根据受欢迎程度,线性回归和逻辑回归经常是我们做预测模型时,且第一个学习的算法。但是如果认为回归就两个算法,就大错特错了。事实上我们有许多类型的回归方法可以去建模。每一个算法都有其重要性和特殊性。内...

2018-04-02
0

机器学习储备(3):似然函数例子解析

似然函数是个什么函数,它的意义是什么?它与概率相比,有什么不同吗?1似然函数似然函数是一种关于统计模型中的参数的函数,表示模型参数中的似然性。给定输出 x 时,关于参数 θ 的似然函数 L(...

2018-04-02
0

机器学习线性回归:谈谈多重共线性问题及相关算法

前面几天阐述了线性回归的最小二乘法(OLS)在做回归时,一致地看待每一个样本点,是典型的无偏估计,会得到一个使得残差最小的权重参数。然而,在面对一堆数据集存在多重共线性时,OLS 就变得对样本点的误差...

2018-04-02
0