哑变量-统计

哑变量(dummy variable),又称“虚拟变量”,指通常取值为0 或1,一种二分类变量,为了使无序多分类变量可以在模型中使用,而进行的k 个分类,转换成的k-1 个0、1 变量。

平滑剪切绝对偏差算法-统计

平滑剪切绝对偏差算法(smoothly clipped absolute deviation, SCAD),指一种用于变量选择和参数估计的正则化方法,旨在对模型参数进行平滑修剪,以处理高维数据集和变量选择问题。

自适应最小绝对收缩选择算法-统计

自适应最小绝对收缩选择算法(adaptive least absolute shrinkage and selection operator),简称“adaptive LASSO”,指一种同时进行特征选择和正则化的方法,旨在增强统计模型的预测准确性和可解释性,是对最小绝对收缩选择算法的推广。

最小绝对收缩选择算法-统计

最小绝对收缩选择算法(least absolute shrinkage and selection operator, LASSO),指z在拟合线性模型时,引入回归系数的L1 范数惩罚项的有偏最小二乘回归。该算法倾向于部分自变量的系数压缩为零,实现特征的稀疏性,以达到高维数据中变量选择的目的。 ...

压缩估计-统计

压缩估计(shrinkage estimation),指在回归分析等中,对参数估计值进行向某个中心值(如零)收缩的处理,通过引入正则化项等方法,在降低参数估计方差的同时,适当增加偏差,以提高模型的预测精度和稳定性,获取更可靠的估计结果。 ...

逐步后退法-统计

逐步后退法(backward stepwise),指每剔除一个自变量,对方程外的变量进行检验,对符合入选标准的变量重新考虑将其纳入的一种变量筛选方法。

后退法-统计

后退法(backward),指从建立一个包含全部自变量的回归方程开始,按照某种规则(如P 值最小且有统计学意义)每次剔除一个自变量,自变量由多到少,直至无可剔除的自变量为止的一种变量筛选方法。

逐步前进法-统计

逐步前进法(forward stepwise),指每选入一个自变量,对已在模型中的自变量进行检验,对达到剔除标准的变量逐一剔除的一种变量筛选方法。

前进法-统计

前进法(forward),指从建立不包含或包含少量自变量回归方程开始,按照某种规则(如P 值最小且有统计学意义)每次引入一个自变量,自变量由少到多,直至无可引入的自变量为止的一种变量筛选方法。

逐步回归-统计

逐步回归(stepwise regression),指在建立多重回归方程时,逐个引入自变量并根据某种准则进行统计检验,保留效应显著的自变量,剔除效应不显著的自变量,直到不再引入和剔除自变量,得到最优的回归方程。

最优子集回归-统计

最优子集回归(ptimum subsets regression),指通过遍历所有可能的自变量组合来筛选最优预测模型的方法。

变量筛选-变量筛选

变量筛选(变量筛选),指在数据分析或建模过程中,从一组可能的变量中选择最相关或最有意义的变量,以用于建立模型或进行统计分析。

多重共线性-统计

多重共线性(multicollinearity),指在进行回归分析时,两个或多个自变量间存在高度相关,导致模型参数估计的稳定性降低与统计推断失真的现象。

标准化回归系数-统计

标准化回归系数(standardized regression coefficient),指消除了因变量与自变量所取量纲的影响之后的回归系数。其绝对值的大小直接反映了自变量对因变量的影响程度。

偏回归系数-统计

偏回归系数(partial regression coefficient),指在多重回归分析中,某个自变量对因变量的影响。表示当方程中其他自变量保持不变时,该自变量每变化一个单位,因变量平均变化的数值。

多重线性回归-统计

多重线性回归(multiple linear regression),又称“多元线性回归”,指研究一个因变量与多个自变量之间线性关系的统计学方法。通过建立线性模型,评估各自变量对因变量的独立影响,常用于复杂数据的预测和解释。

简单线性回归-统计

简单线性回归(simple linear regression),指研究两个变量之间线性关系的统计方法,其中一个为自变量,另一个为因变量。通过拟合直线,描述因变量如何随自变量的变化而变化,常用于预测和趋势分析。

回归方程的显著性检验-统计

回归方程的显著性检验(significance test for linear regression),指检验自变量与因变量之间线性关系是否有统计学意义的假设检验,通常使用F 检验或 t 检验,检验结果决定模型的有效性。

回归平方和-统计

回归平方和(regression sum of squares),指在回归分析中,模型预测值与均值之间差异的平方和,反映在总变异中可以用因变量与自变量的线性关系解释的部分。

残差平方和-统计

残差平方和(residual sum of squares),指因变量的观测值与基于回归方程得到的因变量预测值之差的平方和。代表在总变异中无法用因变量与自变量的线性关系所解释的部分。
1 ...212223242526272829... 38下一页