一元线性回归法的概念

2024-05-15

1. 一元线性回归法的概念

如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。详细原理这里就不细说了,具体参照线性回归。 我们以一简单数据组来说明什么是线性回归。假设有一组数据型态为 y=y(x),其中x={0, 1, 2, 3, 4, 5}, y={0, 20, 60, 68, 77, 110}如果我们要以一个最简单的方程式来近似这组数据,则非一阶的线性方程式莫属。先将这组数据绘图如下图中的斜线是我们随意假设一阶线性方程式 y=20x,用以代表这些数据的一个方程式。以下将上述绘图的 MATLAB 指令列出,并计算这个线性方程式的 y 值与原数据 y 值间误差平方的总合。>> x=[0 1 2 3 4 5];>> y=[0 20 60 68 77 110];>> y1=20*x; % 一阶线性方程式的 y1 值>> sum_sq = sum((y-y1).^2); % 误差平方总和为 573>> axis([-1,6,-20,120])>> plot(x,y1,x,y,'o'), title('Linear estimate'), grid如此任意的假设一个线性方程式并无根据,如果换成其它人来设定就可能采用不同的线性方程式;所以我们必须要有比较精确方式决定理想的线性方程式。我们可以要求误差平方的总和为最小,做为决定理想的线性方程式的准则,这样的方法就称为最小平方误差(least squares error)或是线性回归。MATLAB的polyfit函数提供了 从一阶到高阶多项式的回归法,其语法为polyfit(x,y,n),其中x,y为输入数据组n为多项式的阶数,n=1就是一阶 的线性回归法。polyfit函数所建立的多项式可以写成从polyfit函数得到的输出值就是上述的各项系数,以一阶线性回归为例n=1,所以只有 二个输出值。如果指令为coef=polyfit(x,y,n),则coef(1)= , coef(2)=,...,coef(n+1)= 。注意上式对n 阶的多 项式会有 n+1 项的系数。我们来看以下的线性回归的示范:>> x=[0 1 2 3 4 5];>> y=[0 20 60 68 77 110];>> coef=polyfit(x,y,1); % coef 代表线性回归的二个输出值>> a0=coef(1); a1=coef(2);>> ybest=a0*x+a1; % 由线性回归产生的一阶方程式>> sum_sq=sum(y-ybest).^2); % 误差平方总合为 356.82>> axis([-1,6,-20,120])>> plot(x,ybest,x,y,'o'), title('Linear regression estimate'), grid线性回归拟合方程 一般来说,线性回归都可以通过最小二乘法求出其方程,可以计算出对于y=bx+a的直线,其经验拟合方程如下:其相关系数(即通常说的拟合的好坏)可以用以下公式来计算: 虽然不同的统计软件可能会用不同的格式给出回归的结果,但是它们的基本内容是一致的。我们以STATA的输出为例来说明如何理解回归分析的结果。在这个例子中,我们测试读者的性别(gender),年龄(age),知识程度(know)与文档的次序(noofdoc)对他们所觉得的文档质量(relevance)的影响。输出:Source | SS df MS Number of obs = 242-------------+------------------------------------------ F ( 4, 237) = 2.76Model | 14.0069855 4 3.50174637 Prob > F = 0.0283Residual | 300.279172 237 1.26700072 R-squared = 0.0446------------- +------------------------------------------- Adj R-squared = 0.0284Total | 314.286157 241 1.30409194 Root MSE = 1.1256------------------------------------------------------------------------------------------------relevance | Coef. Std. Err. t P>|t| Beta---------------+--------------------------------------------------------------------------------gender | -.2111061 .1627241 -1.30 0.196 -.0825009age | -.1020986 .0486324 -2.10 0.037 -.1341841know | .0022537 .0535243 0.04 0.966 .0026877noofdoc | -.3291053 .1382645 -2.38 0.018 -.1513428_cons | 7.334757 1.072246 6.84 0.000 .------------------------------------------------------------------------------------------- 一般地,我们要求这个值大于5%。对大部分的行为研究者来讲,最重要的是回归系数。我们看到,年龄增加1个单位,文档的质量就下降 -.1020986个单位,表明年长的人对文档质量的评价会更低。这个变量相应的t值是 -2.10,绝对值大于2,p值也<0.05,所以是显著的。我们的结论是,年长的人对文档质量的评价会更低,这个影响不是显著的。相反,领域知识越丰富的人,对文档的质量评估会更高,但是这个影响不是显著的。这种对回归系数的理解就是使用回归分析进行假设检验的过程。

一元线性回归法的概念

2. 一元线性回归法的介绍

如果在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。

3. 多元线性回归分析步骤

一元线性回归是一个主要影响因素作为自变量来解释因变量的变化,在现实问题研究中,因变量的变化往往受几个重要因素的影响,此时就需要用两个或两个以上的影响因素作为自变量来解释因变量的变化,这就是多元回归亦称多重回归。当多个自变量与因变量之间是线性关系时,所进行的回归分析就是多元线性回归。设y为因变量,x_1,x_2,\cdotsx_k为自变量,并且自变量与因变量之间为线性关系时,则多元线性回归模型为:y=b_0+b_1x_1+b_2x_2+\cdots+b_kx_k+e其中,b0为常数项,b_1,b_2,\cdotsb_k为回归系数。b1为x_2,x_3\cdotsx_k固定时,x1每增加一个单位对y的效应,即x1对y的偏回归系数;同理b2为x1,xk固定时,x2每增加一个单位对y的效应,即,x2对y的偏回归系数,等等。如果两个自变量x1,x2同一个因变量y呈线性相关时,可用二元线性回归模型描述为:y=b0+b1x1+b2x2+e。

多元线性回归分析步骤

4. 一元线性回归方程的计算步骤

1、列计算表,求∑x,∑xx,∑y,∑yy,∑xy。
2、计算Lxx,Lyy,LxyLxx=∑(x-xˇ)(x-xˇ)Lyy=∑(y-yˇ)(y-yˇ)Lxy=∑(x-xˇ)(y-yˇ)
3、求相关系数,并检验;r = Lxy /( Lxx Lyy)1/2
4、求回归系数b和常数a;b=Lxy /Lxxa=y - bx
5、列回归方程。

扩展资料:
根据最小平方法或其他方法,可以从样本数据确定常数项A与回归系数B的值。A、B确定后,有一个X的观测值,就可得到一个Y的估计值。回归方程是否可靠,估计的误差有多大,都还应经过显著性检验和误差计算。有无显著的相关关系以及样本的大小等等,是影响回归方程可靠性的因素。
如果只有一个自变量X,而且因变量Y和自变量X之间的数量变化关系呈近似线性关系,就可以建立一元线性回归方程,由自变量X的值来预测因变量Y的值,这就是一元线性回归预测。
如果因变量Y和自变量X之间呈线性相关,那就是说,对于自变量X的某一值  ,因变量Y对应的取值  不是唯一确定的,而是有很多的可能取值,它们分布在一条直线的上下,这是因为Y还受除自变量以外的其他因素的影响。
这些因素的影响大小和方向都是不确定的,通常用一个随机变量(记为  )来表示。
参考资料来源:百度百科——一元线性回归方程

5. 一元线性回归模型是干什么用的

  一元线性回归模型有很多实际用途。分为以下两大类:
  1.如果目标是预测或者映射,线性回归可以用来对观测数据集的和X的值拟合出一个预测模型。当完成这样一个模型以后,对于一个新增的X值,在没有给定与它相配对的y的情况下,可以用这个拟合过的模型预测出一个y值。
  2.给定一个变量y和一些变量X1,...,Xp,这些变量有可能与y相关,线性回归分析可以用来量化y与Xj之间相关性的强度,评估出与y不相关的Xj,并识别出哪些Xj的子集包含了关于y的冗余信息。

  一元线性回归模型表示如下:
  yt = b0 + b1 xt +ut (1) 上式表示变量yt 和xt之间的真实关系。其中yt 称作被解释变量(或相依变量、因变量),xt称作解释变量(或独立变量、自变量),ut称作随机误差项,b0称作常数项(截距项),b1称作回归系数。
  在模型 (1) 中,xt是影响yt变化的重要解释变量。b0和b1也称作回归参数。这两个量通常是未知的,需要估计。t表示序数。当t表示时间序数时,xt和yt称为时间序列数据。当t表示非时间序数时,xt和yt称为截面数据。ut则包括了除xt以外的影响yt变化的众多微小因素。ut的变化是不可控的。上述模型可以分为两部分。(1)b0 +b1 xt是非随机部分;(2)ut是随机部分。

一元线性回归模型是干什么用的

6. 一线性回归分析法

一元线性回归分析预测法,是根据自变量x和因变量Y的相关关系,建立x与Y的线性回归方程进行预测的方法。由于市场现象一般是受多种因素的影响,而并不是仅仅受一个因素的影响。所以应用一元线性回归分析预测法,必须对影响市场现象的多种因素做全面分析。只有当诸多的影响因素中,确实存在一个对因变量影响作用明显高于其他因素的变量,才能将它作为自变量,应用一元相关回归分析市场预测法进行预测。

  一元线性回归分析法的预测模型为:

      (1)

  式中,xt代表t期自变量的值;

  代表t期因变量的值;

  a、b代表一元线性回归方程的参数。

  a、b参数由下列公式求得(用代表):

  

  为简便计算,我们作以下定义:

      (2)

  式中:

  这样定义a、b后,参数由下列公式求得:

      (3)

  将a、b代入一元线性回归方程Yt = a + bxt,就可以建立预测模型,那么,只要给定xt值,即可求出预测值。

  在回归分析预测法中,需要对X、Y之间相关程度作出判断,这就要计算相关系数Y,其公式如下:

  

  相关系数r的特征有:

  ①相关系数取值范围为:-1≤r≤1 。

  ②r与b符合相同。当r>0,称正线性相关,Xi上升,Yi呈线性增加。当r<0,称负线性相关,Xi上升,Yi呈线性减少。

  ③|r|=0,X与Y无线性相关关系;|r|=1,完全确定的线性相关关系;00.7,为高度线性相关;0.3<|r|≤0.7,为中度线性相关;|r|≤0.3,为低度线性相关。

7. 一元线性回归方程的介绍

一元线性回归方程反映一个因变量与一个自变量之间的线性关系,当直线方程Y'=a+bx的a和b确定时,即为一元回归线性方程。经过相关分析后,在直角坐标系中将大量数据绘制成散点图,这些点不在一条直线上,但可以从中找到一条合适的直线,使各散点到这条直线的纵向距离之和最小,这条直线就是回归直线,这条直线的方程叫作直线回归方程。注意:一元线性回归方程与函数的直线方程有区别,一元线性回归方程中的自变量X对应的是因变量Y的一个取值范围。

一元线性回归方程的介绍

8. 一元线性回归的假设是什么啊?

一元线性回归模型通常有三条基本的假定:  
1、误差项ε是一个期望值为零的随机变量,即E(ε)=0。这意味着在式y=β0+β1+ε中,由于β0和β1都是常数,所以有E(β0)=β0,E(β1)=β1。因此对于一个给定的x值,y的期望值为E(y)=β0+β1x。
2、对于所有的x值,ε的方差盯σ2都相同。  
3、误差项ε是一个服从正态分布的随机变量,且相互独立。即ε~N(0,σ2)。独立性意味着对于一个特定的x值,它所对应的y值与其他2所对应的y值也不相关。

一元线性回归分析预测法
一元线性回归分析预测法,是根据自变量x和因变量Y的相关关系,建立x与Y的线性回归方程进行预测的方法。由于市场现象一般是受多种因素的影响,而并不是仅仅受一个因素的影响。所以应用一元线性回归分析预测法,必须对影响市场现象的多种因素做全面分析。
只有当诸多的影响因素中,确实存在一个对因变量影响作用明显高于其他因素的变量,才能将它作为自变量,应用一元相关回归分析市场预测法进行预测。