spss线性回归分析结果解读 回归分析

回归分析(spss线性回归分析结果的解释)
回归分析是一种预测建模技术,研究因变量(目标)和自变量(预测值)之间的关系 。这种技术通常用于预测分析、时间序列模型和寻找变量之间的因果关系 。
在回归分析中,变量分为两类 。一种是因变量,通常是实际问题中关注的一类指标,通常用Y表示;影响因变量数值的另一类变量叫做自变量,用x表示 。
回归分析的主要问题是:
(1)确定y和x之间的数量关系表达式,称为回归方程;
(2)检验回归方程的可靠性;
(3)判断自变量X对因变量Y是否有影响;
(4)利用得到的回归方程进行预测和控制 。
比如我们要研究质量与顾客满意度之间的因果关系,从实际意义上来说,产品质量会影响顾客满意度,所以我们把顾客满意度作为因变量,记为Y;质量是自变量,标记为X..一般可以建立以下线性关系:y = a+bx+ 。
其中:A、B为待定参数,A为回归线的截距;b是回归线的斜率,表示x变化一个单位时y的平均变化;是一个取决于用户满意度的随机误差项 。
对于经验回归方程:y=0.857+0.836x
Y轴上回归线的截距为0.857,斜率为0.836,即质量每提高一点,顾客满意度平均提高0.836点;换句话说,质量每提高1分,用户满意度就增加0.836分 。
小知识:回归分析,译自“回归” 。
这门课程起源于一个神奇的生物遗传现象:如果父母双方都比较高,出生的孩子身高会低于父母的平均身高;相反,如果父母双方都比较矮,那么出生的孩子身高就比父母的平均身高要高 。
在这两种情况下,都有一个规则 。如果生物体是内部遗传的,那么身高永远是一个稳定的值 。当父母本身就高的时候,为了维持这种稳定性,出生的孩子不会通过调节一直长高;同样,父母本身就不高,这样通过基因调节,生出来的孩子就会比父母的平均身高高,这本身就是一种“回归” 。

在众所周知的“线性回归分析”中,我们的目的是为一堆散乱的点寻找一条直线来拟合这个规律,希望它能通过尽可能多的点 。也就是说,我们希望它尽可能的接近这条直线,这就类似于希望我们人类的身高稳定在某个值,而生物体内的遗传已经决定了这个机制,所以自然是很神奇的!
【spss线性回归分析结果解读 回归分析】


    推荐阅读