本文主要讲解关于5.机器学习-十大算法之一岭回归(Ridge)算法原理讲解相关内容,让我们来一起学习下吧!
5.机器学习-十大算法之一岭回归(Ridge)算法原理讲解
- 一·摘要
- 二·个人简介
- 三·前言
- 四·岭回归详细讲解
- 五·范数
- 六·原理
- 七·代码实现
- 八·第三方库实现
一·摘要
岭回归是一种改良的最小二乘估计法,它通过引入L2范数惩罚项来处理多重共线性问题,并提高模型的稳定性和泛化能力。
在机器学习和统计学中,回归分析是研究变量间关系的重要方法。当自变量之间存在高度相关性时,普通最小二乘法可能导致系数估计值不稳定,影响模型的泛化能力。为了解决这个问题,岭回归被提出。它在最小二乘法的基础上,对系数向量添加了一个L2范数惩罚项,这个惩罚项等于所有回归系数平方和的λ倍(λ为惩罚系数)。这样做的目的是约束模型的复杂度,避免过拟合,同时保持模型的解释力。
二·个人简介
?️?️个人主页:以山河作礼。 ?️?️:Python领域新星创作者,CSDN实力新星认证,CSDN内容合伙人,阿里云社区专家博主,新星计划导师,在职数据分析师。
??悲索之人烈焰加身,堕落者不可饶恕。永恒燃烧的羽翼,带我脱离凡间的沉沦。
? 希望大家能持续支持,共同向前迈进!?
如果您觉得文章有价值,
欢迎留言?,点赞?,收藏?并关注我们➕?。
????????热门专栏????????
类型 | 专栏 |
---|---|
Python基础 | Python基础入门—详解版 |
Python进阶 | Python基础入门—模块版 |
Python高级 | Python网络爬虫从入门到精通??? |
Web全栈开发 | Django基础入门 |
Web全栈开发 | HTML与CSS基础入门 |
Web全栈开发 | JavaScript基础入门 |
Python数据分析 | Python数据分析项目?? |
机器学习 | 机器学习算法?? |
人工智能 | 人工智能 |
三·前言
岭回归是一种改良的最小二乘估计法,它通过引入L2范数惩罚项来处理多重共线性问题,并提高模型的稳定性和泛化能力。
在机器学习和统计学中,回归分析是研究变量间关系的重要方法。当自变量之间存在高度相关性时,普通最小二乘法可能导致系数估计值不稳定,影响模型的泛化能力。为了解决这个问题,岭回归被提出。它在最小二乘法的基础上,对系数向量添加了一个L2范数惩罚项,这个惩罚项等于所有回归系数平方和的λ倍(λ为惩罚系数)。这样做的目的是约束模型的复杂度,避免过拟合,同时保持模型的解释力。
四·岭回归详细讲解
普通线性回归采用最小二乘法,损失函数为误差平方和,使其最小化,可以使用正规方程求回归系数,但是,必须保证 是一个可逆的矩阵。
- 岭回归(ridge regression)又称脊回归或吉洪诺夫正则化(Tikhonovregularization),实质上是对最小二乘法的改良,因加入了惩罚系数,故放弃了最小二乘法的无偏性,所以岭回归是以损失部分信息、降低精度为代价来解决病态矩阵问题的回归方法。
- 岭回归通过加入惩罚项,能够过滤不太重要的特征,在统计学称为缩减。相比普通线性回归,岭回归能够获得更好的预测效果,除了能够解决特征数多于样本数的问题,还能够解决过拟合严重和特征之间存在共线性的问题。
五·范数
六·原理
七·代码实现
import numpy as np
def ridge(X, y, lambdas=0.1):
"""
岭回归
args:
X - 训练数据集
y - 目标标签值
lambdas - 惩罚项系数
return:
w - 权重系数
"""
return np.linalg.inv(X.T.dot(X) + lambdas * np.eye(X.shape[1])).dot(X.T).dot(y)
八·第三方库实现
from sklearn.linear_model import Ridge
# 初始化岭回归器
reg = Ridge(alpha=0.1, fit_intercept=False)
# 拟合线性模型
reg.fit(X, y)
# 权重系数
w = reg.coef_
以上就是关于5.机器学习-十大算法之一岭回归(Ridge)算法原理讲解相关的全部内容,希望对你有帮助。欢迎持续关注程序员导航网,学习愉快哦!