课程
spss自变量的筛选方法
2021-11-19
4900
spss自变量的筛选方法。如何运用spss筛选自变量?有哪些检验方法?本期艾思云课堂小编整理了三个检验自变量的方法,希望能给大家带来帮助。
与线性回归类似,在Logistic回归中应尽量纳入对因变量有影响作用的变量,而将对因变量没有影响或影响较小的变量排除在模型之外。
①.Wald检验:Wals是一个统计量,用检验自变量对因变量是否有影响的。它越大,或者说它对应的sig越小,则影响越显著。
②.似然比检验(Likelihood Ratio Test):Logistic模型的估计一般是使用极大似然法,即使得模型的似然函数L达到最大值。-2lnL被称为Diviance,记为D。L越大,则D越大,模型预测效果越好。似然比检验是通过比较是否包含某个或几个参数β的多个模型的D值。
③.比分检验(Score Test)
以上三种假设检验中,似然比检验是基于整个模型的拟合情况进行的,结果最为可靠;比分检验结果一般与似然比检验结果一致。最差的就是Wald检验,它考虑各因素的综合作用,当因素间存在共线性的时候,结果不可靠。故在筛选变量时,用Wald法应慎重。
SPSS中提供了六种自变量的筛选方法,向前法(Forward)和向后法(Backward)分别有三种。基于条件参数估计和偏最大似然估计的筛选方法都比较可靠,尤以后者为佳。但基于Wald统计量的检验则不然,它实际上未考虑各因素的综合作用,当因素间存在共线性时,结果不可靠,故应当慎用。
以上就是我们艾思科蓝今天给大家分享的内容了,通过这篇文章是不是又学会一些呢。聚沙成塔,学习从点滴碎片开始积累,艾思科蓝一直在路上陪伴着。
收藏
0
点赞
0