高杠杆点-统计

高杠杆点(high leveragepoints),指回归分析中自变量(X)取值极端、远离数据中心的观测点,其杠杆值显著高于平均水平。这类点可能对回归系数的估计产生较大影响,但若因变量(Y)合模型预测趋势,则未必导致模型偏差。高杠杆点需结合残差分析判断其实际影响,常用杠杆值阈值进行识别。 ...

异常值-统计

异常值(outlier),又称“离群值”,指与大多数观测数据有显著差异的数据点。

稳健性-统计

稳健性(robustness),指一个分析方法在遇到异常情况或需求改变时,能够保持稳定和可靠的结果的能力;在统计学中,常用于衡量模型的抗干扰能力和对异常值的容忍程度。

稳健估计-统计

稳健估计(robust estimate),指一类能够在存在异常值或离群值的情况下获得更可靠的参数估计的统计方法。

正则性施泰因型岭回归估计量-统计

正则性施泰因型岭回归估计量(positive-rule Stein-type ridge estimator, PRSRRE),又称“正则性 Stein 型岭回归估计量”,指结合了施泰因(Stein)估计和岭回归,引入正则化概念的参数估计量,确保参数估计满足正定性规则,提高模型稳定性和预测性能。 ...

施泰因型岭回归估计量-统计

施泰因型岭回归估计量(Stein-type ridge regression estimator, SRRE),又称“Stein 型岭回归估计量”,指以施泰因(Stein)估计为基础,利用岭回归技术对参数估计进行调整所得到的参数估计量。

预试验岭回归估计量-统计

预试验岭回归估计量(preliminary test ridge regression estimator, PTRRE),指在进行岭回归分析前,预先检验数据的统计特性,并根据检验结果对模型参数进行调整,最终获得的参数估计量。

限制性岭回归估计量-统计

限制性岭回归估计量(restricted ridge regression estimator, RRRE),在岭回归中引入特定限制条件,通过对参数空间进行约束所获得的参数估计量,以提高模型稳定性与泛化能力,避免过拟合。

自适应广义岭回归估计量-统计

自适应广义岭回归估计量(adaptive generalized ridge regression estimator, AGRRE),指将广义岭回归和基于数据特征的自适应调整相结合所得到的参数估计量。它根据数据特点动态调整参数估计,增强模型适应性,以提高预测准确性。

方差膨胀因子-统计

方差膨胀因子(variance inflation factor, VIF),指评估回归模型中多重共线性的指标,通过计算某个自变量可被其他自变量解释的程度,量化多重共线性对回归系数估计的影响。

岭迹-统计

岭迹(ridge trace),指不同调节参数下,各个特征系数的变化轨迹,通常以图形方式展示。

广义交叉验证-统计

广义交叉验证(generalized cross-validation),指一种用于模型选择和参数调优的统计方法,是交叉验证的一种变体,用于在给定模型和参数集合的情况下估计模型的预测误差。

调节参数-统计

调节参数(tuning parameter),又称“岭参数(ridge parameter)”,指岭回归中用于控制模型复杂度的关键超参数。其通过向损失函数添加正则化项来压缩回归系数,缓解多重共线性问题。

正则化参数-统计

正则化参数(regularization parameter),指损失函数中正则化项的系数,决定正则化项对整体目标函数的影响程度。用于抑制模型复杂度、防止过拟合,同时提高模型的泛化能力。

岭回归估计量-统计

岭回归估计量(ridge regression estimator),指通过在最小二乘法的目标函数中引入一个偏移常数所获得的参数估计量。

岭回归-岭回归

岭回归(ridge regression),指通过在最小二乘法的目标函数中引入一个偏移常数,从而降低多重共线性对回归系数估计影响的统计方法。

哑变量-统计

哑变量(dummy variable),又称“虚拟变量”,指通常取值为0 或1,一种二分类变量,为了使无序多分类变量可以在模型中使用,而进行的k 个分类,转换成的k-1 个0、1 变量。

平滑剪切绝对偏差算法-统计

平滑剪切绝对偏差算法(smoothly clipped absolute deviation, SCAD),指一种用于变量选择和参数估计的正则化方法,旨在对模型参数进行平滑修剪,以处理高维数据集和变量选择问题。

自适应最小绝对收缩选择算法-统计

自适应最小绝对收缩选择算法(adaptive least absolute shrinkage and selection operator),简称“adaptive LASSO”,指一种同时进行特征选择和正则化的方法,旨在增强统计模型的预测准确性和可解释性,是对最小绝对收缩选择算法的推广。

最小绝对收缩选择算法-统计

最小绝对收缩选择算法(least absolute shrinkage and selection operator, LASSO),指z在拟合线性模型时,引入回归系数的L1 范数惩罚项的有偏最小二乘回归。该算法倾向于部分自变量的系数压缩为零,实现特征的稀疏性,以达到高维数据中变量选择的目的。 ...
1 ...113114115116117118119120... 147下一页