后退法-统计

后退法(backward),指从建立一个包含全部自变量的回归方程开始,按照某种规则(如P 值最小且有统计学意义)每次剔除一个自变量,自变量由多到少,直至无可剔除的自变量为止的一种变量筛选方法。

逐步前进法-统计

逐步前进法(forward stepwise),指每选入一个自变量,对已在模型中的自变量进行检验,对达到剔除标准的变量逐一剔除的一种变量筛选方法。

前进法-统计

前进法(forward),指从建立不包含或包含少量自变量回归方程开始,按照某种规则(如P 值最小且有统计学意义)每次引入一个自变量,自变量由少到多,直至无可引入的自变量为止的一种变量筛选方法。

逐步回归-统计

逐步回归(stepwise regression),指在建立多重回归方程时,逐个引入自变量并根据某种准则进行统计检验,保留效应显著的自变量,剔除效应不显著的自变量,直到不再引入和剔除自变量,得到最优的回归方程。

最优子集回归-统计

最优子集回归(ptimum subsets regression),指通过遍历所有可能的自变量组合来筛选最优预测模型的方法。

变量筛选-变量筛选

变量筛选(变量筛选),指在数据分析或建模过程中,从一组可能的变量中选择最相关或最有意义的变量,以用于建立模型或进行统计分析。

多重共线性-统计

多重共线性(multicollinearity),指在进行回归分析时,两个或多个自变量间存在高度相关,导致模型参数估计的稳定性降低与统计推断失真的现象。

标准化回归系数-统计

标准化回归系数(standardized regression coefficient),指消除了因变量与自变量所取量纲的影响之后的回归系数。其绝对值的大小直接反映了自变量对因变量的影响程度。

偏回归系数-统计

偏回归系数(partial regression coefficient),指在多重回归分析中,某个自变量对因变量的影响。表示当方程中其他自变量保持不变时,该自变量每变化一个单位,因变量平均变化的数值。

多重线性回归-统计

多重线性回归(multiple linear regression),又称“多元线性回归”,指研究一个因变量与多个自变量之间线性关系的统计学方法。通过建立线性模型,评估各自变量对因变量的独立影响,常用于复杂数据的预测和解释。

简单线性回归-统计

简单线性回归(simple linear regression),指研究两个变量之间线性关系的统计方法,其中一个为自变量,另一个为因变量。通过拟合直线,描述因变量如何随自变量的变化而变化,常用于预测和趋势分析。

回归方程的显著性检验-统计

回归方程的显著性检验(significance test for linear regression),指检验自变量与因变量之间线性关系是否有统计学意义的假设检验,通常使用F 检验或 t 检验,检验结果决定模型的有效性。

回归平方和-统计

回归平方和(regression sum of squares),指在回归分析中,模型预测值与均值之间差异的平方和,反映在总变异中可以用因变量与自变量的线性关系解释的部分。

残差平方和-统计

残差平方和(residual sum of squares),指因变量的观测值与基于回归方程得到的因变量预测值之差的平方和。代表在总变异中无法用因变量与自变量的线性关系所解释的部分。

最小二乘法-统计

最小二乘法(least square method),指用于估计模型参数的统计方法,通过最小化观测值与预测值之间差值的平方和来确定最佳拟合线。适用于线性回归和其他模型,确保预测误差最小。

残差-残差

残差(residual),指因变量的观测值与基于回归方程得到的因变量预测值之间的差异。

回归系数-统计

回归系数(regression coefficient),指回归分析中量化自变量对因变量影响作用大小的指标。自变量每增加或减少一个单位,因变量平均改变的单位数。

截距-统计

截距(intercept),指当所有自变量取值为零时,因变量的平均水平。

线性回归模型-统计

线性回归模型(linear regression model),指一种用于定量描述自变量和因变量之间线性依存关系的统计模型。

线性回归方程-统计

线性回归方程(linear regression equation),指利用回归分析所得到的,用于反映自变量与因变量间数量依存关系的方程式。
1 ...114115116117118119120121... 135下一页