回归分析 | R语言 -- 多元线性回归

2024-05-20

1. 回归分析 | R语言 -- 多元线性回归

  多元线性回归  是  简单线性回归  的扩展,用于基于多个不同的预测变量(x)预测结果变量(y)。
   例如,对于三个预测变量(x),y​​的预测由以下等式表示:  y = b0 + b1*x1 + b2*x2 + b3*x3 
   回归贝塔系数测量每个预测变量与结果之间的关联。“ b_j”可以解释为“ x_j”每增加一个单位对y的平均影响,同时保持所有其他预测变量不变。
   在本节中,依然使用 datarium 包中的  marketing  数据集,我们将建立一个多元回归模型,根据在三种广告媒体(youtube,facebook和报纸)上投入的预算来预测销售。计算公式如下: sales = b0 + b1*youtube + b2*facebook + b3*newspaper 
   您可以如下计算R中的多个回归模型系数:
   请注意,如果您的数据中包含许多预测变量,则可以使用 ~. 以下命令将模型中的所有可用变量简单地包括在内:
   从上面的输出中,系数表显示β系数估计值及其显着性水平。列为:
   如前所述,您可以使用R函数轻松进行预测 predict() :
   在使用模型进行预测之前,您需要评估模型的统计显着性。通过显示模型的统计摘要,可以轻松地进行检查。
   显示模型的统计摘要,如下所示:
   摘要输出显示6个​​组件,包括:
   解释多元回归分析的第一步是在模型摘要的底部检查F统计量和关联的p值。
   在我们的示例中,可以看出F统计量的p值<2.2e-16,这是非常重要的。这意味着  至少一个预测变量与结果变量显着相关 。
   要查看哪些预测变量很重要,您可以检查系数表,该表显示了回归beta系数和相关的t统计p值的估计。
   对于给定的预测变量,t统计量评估预测变量和结果变量之间是否存在显着关联,即,预测变量的beta系数是否显着不同于零。
   可以看出,youtube和facebook广告预算的变化与销售的变化显着相关,而报纸预算的变化与销售却没有显着相关。
   对于给定的预测变量,系数(b)可以解释为预测变量增加一个单位,同时保持所有其他预测变量固定的对y的平均影响。
   例如,对于固定数量的youtube和报纸广告预算,在Facebook广告上花费额外的1000美元,平均可以使销售额增加大约0.1885 * 1000 = 189个销售单位。
   youtube系数表明,在所有其他预测变量保持不变的情况下,youtube广告预算每增加1000美元,我们平均可以预期增加0.045 * 1000 = 45个销售单位。
   我们发现报纸在多元回归模型中并不重要。这意味着,对于固定数量的youtube和报纸广告预算,报纸广告预算的变化不会显着影响销售单位。
   由于报纸变量不重要,因此可以  将其从模型中删除 ,以提高模型精度:
   最后,我们的模型公式可以写成如下:。  sales = 3.43+ 0.045*youtube + 0.187*facebook 
    一旦确定至少一个预测变量与结果显着相关,就应该通过检查模型对数据的拟合程度来继续诊断。此过程也称为拟合优度 
   可以使用以下三个数量来评估线性回归拟合的整体质量,这些数量显示在模型摘要中:
   与预测误差相对应的RSE(或模型 sigma )大致代表模型观察到的结果值和预测值之间的平均差。RSE越低,模型就越适合我们的数据。
   将RSE除以结果变量的平均值将为您提供预测误差率,该误差率应尽可能小。
   在我们的示例中,仅使用youtube和facebook预测变量,RSE = 2.11,这意味着观察到的销售值与预测值的平均偏差约为2.11个单位。
   这对应于2.11 / mean(train.data $ sales)= 2.11 / 16.77 = 13%的错误率,这很低。
   R平方(R2)的范围是0到1,代表结果变量中的变化比例,可以用模型预测变量来解释。
   对于简单的线性回归,R2是结果与预测变量之间的皮尔森相关系数的平方。在多元线性回归中,R2表示观察到的结果值与预测值之间的相关系数。
   R2衡量模型拟合数据的程度。R2越高,模型越好。然而,R2的一个问题是,即使将更多变量添加到模型中,R2总是会增加,即使这些变量与结果之间的关联性很小(James等,2014)。解决方案是通过考虑预测变量的数量来调整R2。
   摘要输出中“已调整的R平方”值中的调整是对预测模型中包含的x变量数量的校正。
   因此,您应该主要考虑调整后的R平方,对于更多数量的预测变量,它是受罚的R2。
   在我们的示例中,调整后的R2为0.88,这很好。
   回想一下,F统计量给出了模型的整体重要性。它评估至少一个预测变量是否具有非零系数。
   在简单的线性回归中,此检验并不是真正有趣的事情,因为它只是复制了系数表中可用的t检验给出的信息。
   一旦我们开始在多元线性回归中使用多个预测变量,F统计量就变得更加重要。
   大的F统计量将对应于统计上显着的p值(p <0.05)。在我们的示例中,F统计量644产生的p值为1.46e-42,这是非常重要的。
   我们将使用测试数据进行预测,以评估回归模型的性能。
   步骤如下:
   从上面的输出中,R2为   0.9281111 ,这意味着观察到的结果值与预测的结果值高度相关,这非常好。
   预测误差RMSE为 1.612069 ,表示误差率为 1.612069 / mean(testData $ sales) = 1.612069/ 15.567 = 10.35 % ,这很好。
   本章介绍了线性回归的基础,并提供了R中用于计算简单和多个线性回归模型的实例。我们还描述了如何评估模型的性能以进行预测。

回归分析 | R语言 -- 多元线性回归

2. 多元线性回归分析可以应用在哪些方面

(1)确定几个特定的变量之间是否存在相关关系,如果存在的话,找出它们之间合适的数学表达式; 
(2)根据一个或几个变量的值,预测或控制另一个变量的取值,并且可以知道这种预测或控制能达到什么样的精确度; 
(3)进行因素分析。
例如在对于共同影响一个变量的许多变量(因素)之间,找出哪些是重要因素,哪些是次要因素,这些因素之间又有什么关系等等。

多元线性回归简介
在回归分析中,如果有两个或两个以上的自变量,就称为多元回归。事实上,一种现象常常是与多个因素相联系的,由多个自变量的最优组合共同来预测或估计因变量,比只用一个自变量进行预测或估计更有效,更符合实际。因此多元线性回归比一元线性回归的实用意义更大。
以上内容参考百度百科-多元线性回归

3. 多元线性回归分析步骤

一元线性回归是一个主要影响因素作为自变量来解释因变量的变化,在现实问题研究中,因变量的变化往往受几个重要因素的影响,此时就需要用两个或两个以上的影响因素作为自变量来解释因变量的变化,这就是多元回归亦称多重回归。当多个自变量与因变量之间是线性关系时,所进行的回归分析就是多元线性回归。设y为因变量,x_1,x_2,\cdotsx_k为自变量,并且自变量与因变量之间为线性关系时,则多元线性回归模型为:y=b_0+b_1x_1+b_2x_2+\cdots+b_kx_k+e其中,b0为常数项,b_1,b_2,\cdotsb_k为回归系数。b1为x_2,x_3\cdotsx_k固定时,x1每增加一个单位对y的效应,即x1对y的偏回归系数;同理b2为x1,xk固定时,x2每增加一个单位对y的效应,即,x2对y的偏回归系数,等等。如果两个自变量x1,x2同一个因变量y呈线性相关时,可用二元线性回归模型描述为:y=b0+b1x1+b2x2+e。

多元线性回归分析步骤

4. 多元线性回归分析模型怎样分析

流动比率 和 自变量 DACC负相关。
资产负债率 也和 自变量 DACC负相关。
从显著性角度分析,流动比率的显著性很弱,所以针对其的结论不显著。但是资产负债率非常显著。因此,资产负债率是用来解释 自变量 DACC的一个重要变量。而且,他和DACC是负相关的。

5. 多元线性回归分析模型

问题一:多元线性回归分析的优缺点  
  
   问题二:多元线性回归有两个模型改怎么分析  根据R方最大的那个来处理。(南心网 SPSS多元线性回归分析) 
  
   问题三:多元线性回归分析中,r的大小与模型优劣之间有何关系  R平方就是决定系数,也称拟合优度,反映方程能解释的方差比例问题。所以,R平方越大,模型拟合越好,但也要注意共线性以及自相关造成的伪回归问题。 
  
   问题四:如何用excel做多元线性回归分析  那个是excel的单独加载,需要原来的安装包才能加载,加载成功后为“数据分析”选项 
  
   问题五:spss 多元线性回归分析 帮忙分析一下下图,F、P、t、p和r方各代表什么??谢谢~  先从最下面两行说起 
  F是对回归模型整体的方差检验,所以对应下面的p就是判断F检验是否显著的标准,你的p说明回归模型显著。 
  R方和调整的R方是对模型拟合效果的阐述,以调整后的R方更准确一些,也就是自变量对因变量的解释率为27.8%。 
  t就是对每个自变量是否有显著作用的检验,具体是否显著 仍然看后面的p值,若p值<0.05,说明该自变量的影响显著 
  
   问题六:多元线性回归模型的表达式  多元线性回归模型的一般形式为Yi=β0+β1X1i+β2X2i+…+βkXki+μi i=1,2,…,n其中 k为解释变量的数目,βj(j=1,2,…,k)称为回归系数(regression coefficient)。上式也被称为总体回归函数的随机表达式。它的非随机表达式为E(YOX1i,X2i,…Xki,)=β0+β1X1i+β2X2i+…+βkXkiβj也被称为偏回归系数(partial regression coefficient) 
  
   问题七:多元线性回归分析模型中估计系数的方法是什么  多元线性回归分析模型中估计系数的方法是:多元线性回归分析预测法 
  
  多元线性回归分析预测法:是指通过对两个或两个以上的自变量与一个因变量的相关分析,建立预测模型进行预测的方法。当自变量与因变量之间存在线性关系时,称为多元线性回归分析。 
  
  多元线性回归预测模型一般公式为: 多元线性回归模型中最简单的是只有两个自变量(n=2)的二元线性回归模型,其一般形式为: 
  下面以二元线性回归分析预测法为例,说明多元线性回归分析预测法的应用。 
  二元线性回归分析预测法,是根据两个自变量与一个因变量相关关系进行预测的方法。二元线性回归方程的公式为:式中::因变量; 
  x1,x2:两个不同自变量,即与因变量有紧密联系的影响因素。 
  a,b1,b2:是线性回归方程的参数。 
  a,b1,b2是通过解下列的方程组来得到。 
  二元线性回归预测法基本原理和步骤同一元线性回归预测法没有原则的区别,大体相同。 
  “多元线性回归分析预测法”百度百科链接:baike.baidu/view/1338395 
  
   问题八:求一份可用来做多元线性回归分析的数据 50分 年份 城乡收入比 城市化水平 二元对比系数 外贸依存度 产业比 人均国内生产总值 
  1985 1.86 23.71 23.95 0.23 28.4 858 
  1986 2.12 24.52 23.92 0.25 27.2 963 
  1987 2.17 25.32 24.42 0.26 26.8 1112 
  1988 2.17 25.81 23.73 0.25 25.7 1366 
  1989 2.29 26.21 22.25 0.24 25.1 1519 
  1990 2.2 26.41 24.7 0.3 27.1 1644 
  1991 2.4 26.94 21.94 0.33 24.5 1893 
  1992 2.58 27.46 19.77 0.34 21.8 2311 
  1993 2.8 27.99 18.98 0.32 19.7 2998 
  1994 2.86 28.51 20.75 0.42 19.8 4044 
  1995 2.71 29.04 22.72 0.39 19.9 5046 
  1996 2.51 30.48 24.03 0.34 19.7 5846 
  1997 2.47 31.91 22.47 0.34 18.3 6420 
  1998 2.51 33.35 21.47 0.32 17.6 6796 
  1999 2.65 34.78 19.66 0.33 16.5 7159 
  2000 2.79 36.22 17.73 0.4 15.1 7858 
  2001 2.9 37.66 16.83 0.38 14.4 8622 
  2002 3.11 39.09 15.93 0.43 13.7 9398 
  2003 3.23 40.53 15.21 0.52 12.8 10542 
  2004 3.21 41.76 17.51 0.6 13.4 12336 
  2005 3.22 42.99郸 17 0.63 12.2 14185 
  2006 3.28 43.9 16.85 0.65 11.1 16500 
  2007 3.33 44.94 17.51 0.63 10.8 20169 
  2008 3.31 45.68 18.33 0.57 10.7 23708 
  2009 3.33 46.59 18.75 0.44 10.3 25575 
  
   问题九:多元线性回归模型的统计检验主要包括哪些  1.系数估计 
  2.统计检验,主要F检,T检验和可绝系数判断,主要分析解释变量对被解释变量的影响是否显著以及方程的总体拟合情况怎么样 
  3.计量经济学检验,异方差,序列相关和多重共线性,检验它们是否违背经典假设条件 
  4.对模型设定是否存在偏误进行检验

多元线性回归分析模型

6. 请教多元线性回归结果如何分析

优点:
1、回归分析法在分析多因素模型时,更加简单和方便;
2、运用回归模型,只要采用的模型和数据相同,通过标准的统计方法可以计算出唯一的结果,但在图和表的形式中,数据之间关系的解释往往因人而异,不同分析者画出的拟合曲线很可能也是不一样的;
3、回归分析可以准确地计量各个因素之间的相关程度与回归拟合程度的高低,提高预测方程式的效果;在回归分析法时,由于实际一个变量仅受单个因素的影响的情况极少,要注意模式的适合范围,所以一元回归分析法适用确实存在一个对因变量影响作用明显高于其他因素的变量是使用。多元回归分析法比较适用于实际经济问题,受多因素综合影响时使用。
缺点:
有时候在回归分析中,选用何种因子和该因子采用何种表达 式只是一种推测,这影响了用电因子的多样性和某些因子的不可测性,使得回归分析在某些 情况下受到限制。

7. 多元回归的线性处理

由于线性回归方程比较简单,所以在遇到非线性模型时,最好将其转换为线性模型。(1)多项式模型多项式模型为y=β0+β1x+β2x^2+…+βkx^k+ε,对方程中的变量作如下变换x1==x,x^2=x2,……,x^k=xk,则原方程变为y=β0+β1x1+β2x2+…+βkxk+ε,就可用线性模型的方法处理。(2)指数模型指数模型为:y=aebxε方程两边取对数得:lny=lna+bx+lnε令y*=lny,β0=lna,β1=b,ε*=lnε则可得线性方程y*=β0+β1x+ε*(3)幂函数模型幂函数模型为:y=ax1b1x2b2ε方程两边取对数得lny=lna+b1lnx1+b21nx2+lnε令 y*=lny,b0=lna,xl*=lnxl,x2*=lnx2,ε*=lnε则幂函数模型就变为线性模型y*=b0+b1x1*+b2x2*+ε*(4)成长曲线模型成长曲线模型在经济、教育和心理研究中都非常有用,其数学表达式为:y=1/(β0+β1e-x+ε)令 y*=1/yx*=e-x,它就转化为线性模型: y*=β0+β1x*+ε

多元回归的线性处理

8. 简述多元线性回归分析的步骤是什么?

多元回归分析:一种统计分析方法

最新文章
热门文章
推荐阅读