偏回归系数-统计

偏回归系数(partial regression coefficient),指在多重回归分析中,某个自变量对因变量的影响。表示当方程中其他自变量保持不变时,该自变量每变化一个单位,因变量平均变化的数值。

多重线性回归-统计

多重线性回归(multiple linear regression),又称“多元线性回归”,指研究一个因变量与多个自变量之间线性关系的统计学方法。通过建立线性模型,评估各自变量对因变量的独立影响,常用于复杂数据的预测和解释。

简单线性回归-统计

简单线性回归(simple linear regression),指研究两个变量之间线性关系的统计方法,其中一个为自变量,另一个为因变量。通过拟合直线,描述因变量如何随自变量的变化而变化,常用于预测和趋势分析。

回归方程的显著性检验-统计

回归方程的显著性检验(significance test for linear regression),指检验自变量与因变量之间线性关系是否有统计学意义的假设检验,通常使用F 检验或 t 检验,检验结果决定模型的有效性。

回归平方和-统计

回归平方和(regression sum of squares),指在回归分析中,模型预测值与均值之间差异的平方和,反映在总变异中可以用因变量与自变量的线性关系解释的部分。

残差平方和-统计

残差平方和(residual sum of squares),指因变量的观测值与基于回归方程得到的因变量预测值之差的平方和。代表在总变异中无法用因变量与自变量的线性关系所解释的部分。

最小二乘法-统计

最小二乘法(least square method),指用于估计模型参数的统计方法,通过最小化观测值与预测值之间差值的平方和来确定最佳拟合线。适用于线性回归和其他模型,确保预测误差最小。

残差-残差

残差(residual),指因变量的观测值与基于回归方程得到的因变量预测值之间的差异。

回归系数-统计

回归系数(regression coefficient),指回归分析中量化自变量对因变量影响作用大小的指标。自变量每增加或减少一个单位,因变量平均改变的单位数。

截距-统计

截距(intercept),指当所有自变量取值为零时,因变量的平均水平。

线性回归模型-统计

线性回归模型(linear regression model),指一种用于定量描述自变量和因变量之间线性依存关系的统计模型。

线性回归方程-统计

线性回归方程(linear regression equation),指利用回归分析所得到的,用于反映自变量与因变量间数量依存关系的方程式。

自变量-统计

自变量(independent variable),指在回归分析中,用于预测或解释观测数据变化的变量。

因变量-统计

因变量(dependent variable),指又称“应变量,反应变量”,指在回归分析中,被预测或被解释的变量。

回归-统计

回归(regression),指研究一个变量与另外一个或多个变量间数量依存关系的方法。

线性回归-统计

线性回归(linear regression analysis),指一种统计建模方法,通过拟合因变量与一个或多个自变量间的线性关系,预测因变量的取值,量化自变量对因变量的影响。

判别对应分析-统计

判别对应分析(discriminant correspondence analysis),指融合对应分析和判别分析的多元统计方法,针对分类数据,在对应分析基础上,依据已知分类信息构建判别函数,使不同类别在低维空间中尽量分离,通过计算判别得分等展示样本归属及类别间关系,输出分类结果和分析图。 ...

正交对应分析-统计

正交对应分析(canonical correspondence analysis, CCA),指一种改进的对应分析方法,通过正交变换消除维度间的相关性,使低维空间中的坐标轴相互独立。适用于复杂列联表数据的降维分析,增强可视化效果,更清晰地展示分类变量间的关联结构。 ...

去趋势对应分析-统计

去趋势对应分析(detrended correspondence analysis, DCA),指一种改进的对应分析方法,通过去除数据中的线性趋势,更清晰地揭示分类变量间的非线性关系。适用于处理具有明显趋势的列联表数据,增强低维空间中类别关联结构的解释能力。 ...

最优对应表-统计

最优对应表(optimal correspondence table),指通过对应分析生成的重新排列的二维表,最大化行列变量之间的关联结构。优化显示变量之间的相似性和差异性,便于识别潜在模式和关系。行和列经过转换后,反映数据集中最强的关联特征。 ...
1 ...222324252627282930... 38下一页