你应该掌握的7种回归分析模型

了解机器学习中的不同回归类型,包括线性回归和逻辑回归;每种回归技术都有自己的回归方程和回归系数;我们在本文中介绍了 7 种不同的回归类型。

线性回归和逻辑回归通常是人们在数据科学中学习的第一个算法。由于它们的受欢迎程度,许多分析师甚至最终认为它们是回归的唯一形式。稍微多一些的人认为他们是所有形式的回归分析中最重要的。

事实是,有无数种回归形式可以执行。每种形式都有自己的重要性和最适合申请的特定条件。在本文中,我以简单的方式解释了数据科学中最常用的 7 种回归类型。

通过这篇文章,我也希望人们对回归的广度有一个概念,而不是仅仅将线性/逻辑回归应用于他们遇到的每个机器学习问题,并希望它们适合!

回归类型、回归、回归模型

目录:

  • 什么是回归分析?
  • 为什么使用回归分析?
  • 有哪些回归类型?
  • 线性回归(Linear Regression)
    • 逻辑回归(Logistic Regression)
    • 多项式回归(Polynomial Regression)
    • 逐步回归(Stepwise Regression)
    • 岭回归(Ridge Regression)
    • 套索回归(Lasso Regression)
    • 弹性回归(ElasticNet Regression)
  • 如何选择合适的回归模型?

1. 什么是回归分析?

回归分析是一种预测建模技术的方法,研究因变量(目标)和自变量(预测器)之前的关系。这一技术被用在预测、时间序列模型和寻找变量之间因果关系。例如研究驾驶员鲁莽驾驶与交通事故发生频率之间的关系,就可以通过回归分析来解决。

回归分析是进行数据建模、分析的重要工具。下面这张图反映的是使用一条曲线来拟合离散数据点。其中,所有离散数据点与拟合曲线对应位置的差值之和是被最小化了的,更多细节我们会慢慢介绍。

你应该掌握的7种回归分析模型

2. 为什么使用回归分析?

如上面所说,回归分析能估计两个或者多个变量之间的关系。下面我们通过一个简单的例子来理解:

比如说,你想根据当前的经济状况来估计一家公司的销售额增长。你有最近的公司数据,数据表明销售增长大约是经济增长的 2.5 倍。利用这种洞察力,我们就可以根据当前和过去的信息预测公司未来的销售情况。

使用回归模型有很多好处,例如:

  1. 揭示了因变量和自变量之间的显著关系
  2. 揭示了多个自变量对一个因变量的影响程度大小

回归分析还允许我们比较在不同尺度上测量的变量的影响,例如价格变化的影响和促销活动的数量的影响。这样的好处是可以帮助市场研究者 / 数据分析家 / 数据科学家评估选择最佳的变量集,用于建立预测模型。

3. 有哪些回归类型?

有许多回归技术可以用来做预测。这些回归技术主要由三个度量(独立变量的数量、度量变量的类型和回归线的形状)驱动。我们将在下面的章节中详细讨论。

你应该掌握的7种回归分析模型

对于有创造力的人来说,可以对上面的参数进行组合,甚至创造出新的回归。但是在此之前,让我们来看一看最常见的几种回归。

1) 线性回归(Linear Regression)

线性回归是最为人熟知的建模技术,是人们学习如何预测模型时的首选之一。在此技术中,因变量是连续的,自变量可以是连续的也可以是离散的。回归的本质是线性的。

线性回归通过使用最佳的拟合直线(又被称为回归线),建立因变量(Y)和一个或多个自变量(X)之间的关系。

它的表达式为:Y=a+b*X+e,其中 a 为直线截距,b 为直线斜率,e 为误差项。如果给出了自变量 X,就能通过这个线性回归表达式计算出预测值,即因变量 Y。

你应该掌握的7种回归分析模型

一元线性回归和多元线性回归的区别在于,多元线性回归有大于 1 个自变量,而一元线性回归只有 1 个自变量。接下来的问题是“如何获得最佳拟合直线?”

如何获得最佳拟合直线(确定 a 和 b 值)?

这个问题可以使用最小二乘法(Least Square Method)轻松解决。最小二乘法是一种拟合回归线的常用算法。它通过最小化每个数据点与预测直线的垂直误差的平方和来计算得到最佳拟合直线。因为计算的是误差平方和,所有,误差正负值之间没有相互抵消。

你应该掌握的7种回归分析模型
你应该掌握的7种回归分析模型

我们可以使用指标 R-square 来评估模型的性能。

重点:

  • 自变量和因变量之间必须满足线性关系。
  • 多元回归存在多重共线性,自相关性和异方差性。
  • 线性回归对异常值非常敏感。异常值会严重影响回归线和最终的预测值。
  • 多重共线性会增加系数估计的方差,并且使得估计对模型中的微小变化非常敏感。结果是系数估计不稳定。
  • 在多个自变量的情况下,我们可以采用正向选择、向后消除和逐步选择的方法来选择最重要的自变量。

2) 逻辑回归

逻辑回归用来计算事件成功(Success)或者失败(Failure)的概率。当因变量是二进制(0/1,True/False,Yes/No)时,应该使用逻辑回归。这里,Y 的取值范围为 [0,1],它可以由下列等式来表示。

odds= p/ (1-p) = probability of event occurrence / probability of not event occurrenceln(odds) = ln(p/(1-p))logit(p) = ln(p/(1-p)) = b0+b1X1+b2X2+b3X3....+bkXk

其中,p 是事件发生的概率。你可能会有这样的疑问“为什么在等式中使用对数 log 呢?”

因为我们这里使用的二项分布(因变量),所以需要选择一个合适的激活函数能够将输出映射到 [0,1] 之间,Logit 函数满足要求。在上面的等式中,通过使用最大似然估计来得到最佳的参数,而不是使用线性回归最小化平方误差的方法。

你应该掌握的7种回归分析模型

重点:

  • 逻辑回归广泛用于分类问题。
  • 逻辑回归不要求因变量和自变量之间是线性关系,它可以处理多类型关系,因为它对预测输出进行了非线性 log 变换。
  • 为了避免过拟合和欠拟合,我们应该涵盖所有有用的变量。实际中确保这种情况的一个好的做法是使用逐步筛选的方法来估计逻辑回归。
  • 训练样本数量越大越好,因为如果样本数量少,最大似然估计的效果就会比最小二乘法差。
  • 自变量不应相互关联,即不存在多重共线性。然而,在分析和建模中,我们可以选择包含分类变量相互作用的影响。
  • 如果因变量的值是序数,则称之为序数逻辑回归。
  • 如果因变量是多类别的,则称之为多元逻辑回归。

3) 多项式回归(Polynomial Regression)

对应一个回归方程,如果自变量的指数大于 1,则它就是多项式回归方程,如下所示:

y=a+b*x2

在多项式回归中,最佳的拟合线不是直线,而是拟合数据点的曲线。

你应该掌握的7种回归分析模型

重点:

虽然可能会有一些诱导去拟合更高阶的多项式以此来降低误差,但是这样容易发生过拟合。应该画出拟合曲线图形,重点放在确保曲线反映样本真实分布上。下图是一个例子,可以帮助我们理解。

你应该掌握的7种回归分析模型

尤其要注意曲线的两端,看看这些形状和趋势是否有意义。更高的多项式可以产生怪异的推断结果。

4) 逐步回归(Stepwise Regression)

当我们处理多个独立变量时,就使用逐步回归。在这种技术中,独立变量的选择是借助于自动过程来完成的,不涉及人工干预。

逐步回归的做法是观察统计值,例如 R-square、t-stats、AIC 指标来辨别重要的变量。基于特定标准,通过增加/删除协变量来逐步拟合回归模型。常见的逐步回归方法如下所示:

  • 标准的逐步回归做两件事,每一步中增加或移除自变量。
  • 前向选择从模型中最重要的自变量开始,然后每一步中增加变量。
  • 反向消除从模型所有的自变量开始,然后每一步中移除最小显著变量。

这种建模技术的目的是通过使用最少的自变量在得到最大的预测能力。它也是处理高维数据集的方法之一。

5) 岭回归(Ridge Regression)

岭回归是当数据遭受多重共线性(独立变量高度相关)时使用的一种技术。在多重共线性中,即使最小二乘估计(OLS)是无偏差的,但是方差很大,使得观察智远离真实值。岭回归通过给回归估计中增加额外的偏差度,能够有效减少方差。

之前我们介绍过线性回归方程,如下所示:

你应该掌握的7种回归分析模型

这个方程也有一个误差项,完整的方程可表示成:

y=a+b*x+e (error term),  [error term is the value needed to correct for a prediction error between the observed and predicted value]
=> y=a+y= a+ b1x1+ b2x2+....+e, for multiple independent variables.

在线性方程中,预测误差可以分解为两个子分量。首先是由于偏颇,其次是由于方差。预测误差可能由于这两个或两个分量中的任何一个而发生。这里,我们将讨论由于方差引起的误差。

岭回归通过收缩参数 λ(lambda)解决了多重共线性问题。请看下面的方程式:

你应该掌握的7种回归分析模型

上面这个公式中包含两项。第一个是最小平方项,第二个是系数 β 的平方和项,前面乘以收缩参数 λ。增加第二项的目的是为了缩小系数 β 的幅值以减小方差。

重点:

  • 除非不假定正态性,岭回归与最小二乘回归的所有假设是一样的。
  • 岭回归缩小了系数的值,但没有达到零,这表明它没有特征选择特征。
  • 这是一个正则化方法,使用了 L2 正则化。

6) 套索回归(Lasso Regression)

类似于岭回归,套索(Least Absolute Shrinkage and Selection Operator)回归惩罚的是回归系数的绝对值。此外,它能够减少变异性和提高线性回归模型的准确性。请看下面的方程式:

你应该掌握的7种回归分析模型

套索回归不同于岭回归,惩罚函数它使用的是系数的绝对值之和,而不是平方。这导致惩罚项(或等价于约束估计的绝对值之和),使得一些回归系数估计恰好为零。施加的惩罚越大,估计就越接近零。实现从 n 个变量中进行选择。

重点:

  • 除非不假定正态性,套索回归与最小二乘回归的所有假设是一样的。
  • 套索回归将系数收缩到零(正好为零),有助于特征选择。
  • 这是一个正则化方法,使用了 L1 正则化。
  • 如果一组自变量高度相关,那么套索回归只会选择其中一个,而将其余的缩小为零。

7) 弹性回归(ElasticNet Regression)

弹性回归是岭回归和套索回归的混合技术,它同时使用 L2 和 L1 正则化。当有多个相关的特征时,弹性网络是有用的。套索回归很可能随机选择其中一个,而弹性回归很可能都会选择。

权衡岭回归和套索回归的一个优点是它让弹性回归继承了一些岭回归在旋转状态下的稳定性。

作者:SUNIL RAY

英文链接:https://www.analyticsvidhya.com/blog/2015/08/comprehensive-guide-regression/

本文由 翻译小组 翻译发布,英文链接:https://www.analyticsvidhya.com/blog/2015/08/comprehensive-guide-regression/,转载或内容合作请联系我们,未经允许谢绝转载,本文链接:https://www.afenxi.com/92603.html 。

(2)
翻译小组的头像翻译小组编辑
上一篇 2021-05-30 02:47
下一篇 2021-06-02 09:16

相关文章

关注我们
关注我们
分享本页
返回顶部