最新 最热

多重共线性:python中利用statsmodels计算VIF和相关系数消除共线性

本文将讨论多重共线性的相关概念及利用python自动化消除多重共线性的方法,以供参考,欢迎拍砖

2022-09-05
0

目标检测的定义

目标检测与识别是指从一幅场景(图片)中找出目标,包括检测(where)和识别(what)两个过程。任务的难点在于待检测区域候选的提取与识别,所以,任务的大框架为:...

2022-09-04
0

深度学习中的正则化

没有免费午餐定理暗示我们必须在特定任务上设计性能良好的机器学习算法。我们建立一组学习算法的偏好来达到这个要求。当这些偏好和我们希望算法解决的学习问题吻合时,性能会更好。至此我们具体讨论修改学习算法的方法...

2022-09-04
0

构建机器学习算法

激活所有的深度学习算法都可以被描述为一个相当简单的配方:特定的数据集、代价函数、优化过程和模型。例如,线性回归算法由以下部分组成, 和 构成的数据集,代价函数:...

2022-09-04
0

深度前馈网络(一)、神经网络学习XOR

XOR函数("异或"逻辑)是两个二进制值 和 的运算。当这些二进制值中恰好有一个为1时,XOR函数提供了我们想要学习的目标函数 。我们的模型给出了一个函数 ,并且我们的学习算法会不断调整参数 来使得f尽可能接近 ...

2022-09-03
0

Huber Loss

Huber Loss 是一个用于回归问题的带参损失函数, 优点是能增强平方误差损失函数(MSE, mean square error)对离群点的鲁棒性。

2022-09-03
1

用 VIF 方法消除多维数据中的多重共线性

多元线性回归是我们在数据分析中经常用到的一个方法,很多人在遇到多维数据时基本上无脑使用该方法,而在用多元线性回归之后所得到的结果又并不总是完美的,其问题实际上并不出在方法上,而是出在数据上。当数据涉及的维度过...

2022-09-03
0

Huber Loss

Huber Loss 是一个用于回归问题的带参损失函数, 优点是能增强平方误差损失函数(MSE, mean square error)对离群点的鲁棒性。

2022-09-02
1

Lasso回归总结

由于直接套用线性回归可能产生过拟合,我们需要加入正则化项,如果加入的是L2正则化项,就是Ridge回归,有时也翻译为岭回归。它和一般线性回归的区别是在损失函数上增加了一个L2正则化的项,和一个调节线性回归项和正则化项权...

2022-09-02
0