回归分析中自变量没能够显著预测因变量该怎样调整
来源:学生作业帮助网 编辑:作业帮 时间:2024/06/02 16:39:36
不显著就应该剔除,除非你想硬塞进这个自变量,那你只有改数据了
联系你了,看能否帮到
你看可决系数够不够大嘛,或者看回归系数的T统计量-34.6462,P值也相当小了,所以是显著的;预测的时候先要自己预测出一个X值,然后直接带入回归方程计算出Y值就行了.
如果你的分析方法是正确的话,这个结果是能够说明的变量3在该模型中是有贡献的,有意义的,而变量1并不显著,对Y影响不大.
你可以尝试着先绘制下散点图看看会不会用其他曲线拟合的效果会更好,很多时候数据用线性和一些非线性拟合后都会有显著效果,但是不一定是最佳的,所以需要判断自变量和因变量之间关系是否符合线性.如果仍然是符合线
啥意思啊据我对问题的了解做以下回答比较标准化回归系数,值最大的表示影响最大,前提是具有显著性.
如果是非常不显著,建议删除,其它情况比如15%的水平下是显著的,建议保留,这得根据实际问题来.可以试着先将最不显著的剔除掉,再看看方程,也许就会出现显著系数增多的情况,建议一个个删除.
先进性复共线性检验,如果变量之间复共线性特别大,那么进行岭回归和主成分回归,可以减少复共线性,岭回归是对变量采取了二范数约束,所以最后会压缩变量的系数,从而达到减小复共线性的目的,另外这个方法适合于p
x=[143145146147149150153154155156157158159160162164]';X=[ones(16,1)x];增加一个常数项Y=[88858891929393959698
简单来讲就是通过看各因素分析结果中的P值:在P值小于0.05时,P值越小影响越显著,当然也包括常数值.
在试验设计(DOE)中一元回归分析的自变量、因变量不会服从正态分布的.在完成数据的一元回归分析后,应该检验回归分析的残差,包括残差对观测顺序、残差对自变量、残差对因变量、残差自身的分布都应该服从正态分
第一次回归的模型要进行模型误设检验,如Link检验或Ramsey检验,如果检验没有通过,则表示存在遗漏变量,这时要加入控制变量.第二次回归的模型要进行多重共线性检验.很有可能你在第二次回归加入的C和D
F=0.9要看相应的标准误才能决定F的显著性水平啊.F表示自变量的联合显著性.再问:我把图截上来了,您可以告诉我Multiple R、R Square、Adjusted
看来LZ应该是刚开始作统计分析啊,其实里面的数据还是比较简单的,第一行MultipleR表示R^2的值,第二行则表示R值,第三行表示调整R方,一般R^2是衡量回归方程是否显著的决定因子,但只是一方面.
改数据就行啊再问:往哪个方向改啊再答:不显著的方向
刚看了一篇外文文献,其中提到了几个变量之间的相关性分析.作者用SPSS得出A与B的相关性系数约为0.09,但显著性水平大于0.05即不显著.随后继续作回归性分析(未阐明是否是多元线性)结论是BETA值
回归分析只是对因变量有要求必须是连续性数值变量自变量可以使分类变量如果分类变量是二分类的则直接纳入回归自变量不需要进行特殊转换如果是超过二分类的自变量需要进行虚拟变量也就是哑变量转换.转换的方式相当于
虚拟变量,你可以试试0-1这样的虚拟变量,含0的,对应的y低,含1的对应的y高(假设正相关).其实主要看你的虚拟变量打算加在哪里,加在常数项就这么做,加在系数项的话就是另外一组数据了.你可以先写个含虚
个人建议你是先做所有变量的多元回归,因为你在做自变量与因变量间的相关系数时,是排除了其他变量的影响,而在做多元回归时,变量间有可能存在影响的.然后再看回归的结果,比如R平方,F值,方程的显著性,系数的
一般可以用统计软件中的逐步回归方法,可以自动把有意义的变量纳入到回归模型里面;也可以先做单变量的回归,然后把单变量分析有意义的自变量都纳入到回归模型里,做多元回归,但是在临床或者实际上有关联的重要观察