湖南省百川电力建设有限公司网站,网页设计实训报告800字,新手怎样推销自己的产品,怎样设置网站关键词统计学 一元线性回归
回归#xff08;Regression#xff09;#xff1a;假定因变量与自变量之间有某种关系#xff0c;并把这种关系用适当的数学模型表达出来#xff0c;利用该模型根据给定的自变量来预测因变量 线性回归#xff1a;因变量和自变量之间是线性关系 非线…统计学 一元线性回归
回归Regression假定因变量与自变量之间有某种关系并把这种关系用适当的数学模型表达出来利用该模型根据给定的自变量来预测因变量 线性回归因变量和自变量之间是线性关系 非线性回归因变量和自变量之间是非线性关系
变量间的关系
变量间的关系往往分为函数关系和相关关系函数关系是确定的关系例如 yx2yx^2yx2 中 yyy 和 xxx 的关系而相关关系是不确定的关系例如家庭储蓄额和家庭收入
相关系数度量两个变量之间线性关系强度的统计量样本相关系数记为 rrr 也称为 Pearson 相关系数总体相关系数记为 ρ\rhoρ r∑(X−Xˉ)(Y−Yˉ)∑(X−Xˉ)2⋅∑(Y−Yˉ)2r\frac{\sum(X-\bar{X})(Y-\bar{Y})}{\sqrt{\sum(X-\bar{X})^2\cdot\sum(Y-\bar{Y})^2}} r∑(X−Xˉ)2⋅∑(Y−Yˉ)2∑(X−Xˉ)(Y−Yˉ)
r∈[−1,1]r\in[-1,\,1]r∈[−1,1] 越接近 111 代表两个变量之间正线性相关关系越强越接近 −1-1−1 代表两个变量之间负线性相关关系越强等于 000 表示两个变量之间不存在线性关系rrr 具有对称性即 rXYrYXr_{XY}r_{YX}rXYrYX 很显然若 XXX 与 YYY 之间是线性关系那么 YYY 和 XXX 之间也是线性关系rrr 不具有量纲对 XXX 和 YYY 的缩放不敏感其数值大小与 XXX 和 YYY 的尺度以及原点无关rrr 不能用于描述非线性关系可以结合散点图得出结论rrr 是两个变量之间线性关系的度量但不一定意味着 XXX 与 YYY 有因果关系。
相关系数的检验采用 R.A.Fisher 提出的 t 分布检验既可用于小样本也可用于大样本
① 提出假设H0H_0H0 ρ0\rho0ρ0 H1H_1H1 ρ1\rho1ρ1
② 计算样本相关系数 rrr 以及检验统计量 trn−21−r2∼t(n−2)t\frac{r\sqrt{n-2}}{\sqrt{1-r^2}}\sim t(n-2)t1−r2rn−2∼t(n−2)
③ 算出 PPP 值进行决策
一元线性回归模型的估计
一元回归当回归分析只涉及一个自变量时称为一元回归
回归模型描述因变量 yyy 如何依赖于自变量 xxx 和误差项 ε\varepsilonε 的方程一元线性回归模型可表示为 yβ0β1xεy\beta_0\beta_1x\varepsilon yβ0β1xε 模型参数为 β0\beta_0β0 和 β1\beta_1β1 随机变量 ε\varepsilonε 被称为误差项对其需要作出以下假定
正态性ε\varepsilonε 服从期望为 0 的正态分布方差齐性对于所有的 XXX 值ε\varepsilonε 的方差值 σ2\sigma^2σ2 都相同独立性两个不同 XXX 值对应的 ε\varepsilonε 不相关
估计的回归方程总体的 β1\beta_1β1 和 β0\beta_0β0 是未知的需要用样本数据去估计为y^β0^β1^x\hat{y}\hat{\beta_0}\hat{\beta_1}xy^β0^β1^x β1^\hat{\beta_1}β1^ 称为回归系数
最小二乘法使离差 ∣y^−y∣|\hat{y}-y|∣y^−y∣ 的平方和最小的估计方法即 Q∑(yi−y^i)2∑(yi−β^0−β1^xi)2minQ\sum(y_i-\hat{y}_i)^2\sum(y_i-\hat{\beta}_0-\hat{\beta_1}x_i)^2min Q∑(yi−y^i)2∑(yi−β^0−β1^xi)2min 求导得到 {∂Q∂β0∣β0β^0−2∑(yi−β^0−β^1xi)0∂Q∂β1∣β1β^1−2∑xi(yi−β^0−β^1xi)0\left\{ \begin{array}{l} \frac{\partial Q}{\partial \beta_0}\lvert_{\beta_0\hat{\beta}_0}-2\sum(y_i-\hat{\beta}_0-\hat{\beta}_1x_i)0 \\ \frac{\partial Q}{\partial \beta_1}\lvert_{\beta_1\hat{\beta}_1}-2\sum x_i(y_i-\hat{\beta}_0-\hat{\beta}_1x_i)0 \end{array} \right. {∂β0∂Q∣β0β^0−2∑(yi−β^0−β^1xi)0∂β1∂Q∣β1β^1−2∑xi(yi−β^0−β^1xi)0 解得 {β^1∑(x−xˉ)(y−yˉ)∑(x−xˉ)2β0^yˉ−β^1xˉ\left\{ \begin{array}{l} \hat{\beta}_1\frac{\sum(x-\bar{x})(y-\bar{y})}{\sum(x-\bar{x})^2} \\ \hat{\beta_0}\bar{y}-\hat\beta_1\bar{x} \end{array} \right. {β^1∑(x−xˉ)2∑(x−xˉ)(y−yˉ)β0^yˉ−β^1xˉ 最小二乘法得到的回归直线通过样本平均点 (xˉ,yˉ)(\bar{x},\,\bar{y})(xˉ,yˉ) 一元线性回归模型的判优
拟合优度回归直线与各观测点的接近程度称为模型的的拟合优度评价拟合优度的一个重要统计量就是决定系数
变差因变量的取值的波动称为变差变差的产生来自两个方面
由于自变量的取值不同造成的自变量以外的随机因素的影响
总平方和nnn 次观测值的总变差可以由这些变差的平方和来表示称为总平方和SSTSST∑(yi−yˉ)2SST\sum(y_i-\bar{y})^2SST∑(yi−yˉ)2 总平方和可以分解为 SST∑(yi−y^iy^i−yˉ)2∑(yi−y^i)2∑(y^i−yˉ)2−2∑(yi−y^i)(y^i−yˉ)SST\sum(y_i-\hat{y}_i\hat{y}_i-\bar{y})^2\sum(y_i-\hat{y}_i)^2\sum(\hat{y}_i-\bar{y})^2-2\sum(y_i-\hat{y}_i)(\hat{y}_i-\bar{y}) SST∑(yi−y^iy^i−yˉ)2∑(yi−y^i)2∑(y^i−yˉ)2−2∑(yi−y^i)(y^i−yˉ) 可以证明 2∑(yi−y^i)(y^i−yˉ)02\sum(y_i-\hat{y}_i)(\hat{y}_i-\bar{y})02∑(yi−y^i)(y^i−yˉ)0 所以总平方和实际上表现为两个部分 {SST∑(yi−y^i)2∑(y^i−yˉ)2SSR∑(y^i−yˉ)2SSE∑(yi−y^i)2\left \{ \begin{array}{l} SST\sum(y_i-\hat{y}_i)^2\sum(\hat{y}_i-\bar{y})^2 \\ SSR\sum(\hat{y}_i-\bar{y})^2 \\ SSE\sum(y_i-\hat{y}_i)^2\\ \end{array} \right. ⎩⎨⎧SST∑(yi−y^i)2∑(y^i−yˉ)2SSR∑(y^i−yˉ)2SSE∑(yi−y^i)2
回归平方和SSR反映了 yyy 的总变差中由于 xxx 和 yyy 的线性关系引起的 yyy 的变化部分是可以由回归直线来解释的 yiy_iyi 的变差部分残差平方和SSE 是实际观测点与回归值的离差平方和表示除了 xxx 对 yyy 的线性影响之外的其他随机因素对 yyy 的影响 决定系数又称判定系数记为 R2R^2R2 模型拟合的好坏取决于回归平方和 SSR 占总平方和 SST 的比例越大则直线拟合得越好 R2SSRSST∑(y^i−yˉ)2∑(yi−yˉ)2R^2\frac{SSR}{SST}\frac{\sum(\hat{y}_i-\bar{y})^2}{\sum(y_i-\bar{y})^2} R2SSTSSR∑(yi−yˉ)2∑(y^i−yˉ)2
在一元线性回归中相关系数 rrr 是决定系数 R2R^2R2 的平方根
估计标准误差即残差的标准差 ses_ese是对误差项 ε\varepsilonε 的标准差 σ\sigmaσ 的估计反映了实际观测值 yiy_iyi 与回归估计值 y^i\hat{y}_iy^i 之间的差异程度ses_ese 越小则直线拟合得越好 seSSEn−2∑(yi−y^i)2n−2s_e\sqrt{\frac{SSE}{n-2}}\sqrt{\frac{\sum(y_i-\hat{y}_i)^2}{n-2}} sen−2SSEn−2∑(yi−y^i)2
一元线性回归模型的显著性检验
线性关系检验
线性关系检验也称为 FFF 检验用于检验自变量 xxx 和因变量 yyy 之间的线性关系是否显著它们的关系是否能用一个线性模型 yβ0β1xεy\beta_0\beta_1x\varepsilonyβ0β1xε 来表示。
SSR 的自由度为自变量 kkk 这里一元线性回归所以 k1k1k1 其除以自由度后得到回归均方MSRSSE 的自由度为 n−k−1n-k-1n−k−1 这里一元线性回归所以 n−2n-2n−2其除以自由度后得到残差均方MSE
① 提出检验假设
H0H_0H0 β10\beta_10β10 两个变量之间的线性关系不显著H1H_1H1 β1̸0\beta_1\not0β10 两个变量之间的线性关系显著
② 计算检验自变量为 FSSR/1SSE/(n−2)MSRMSE∼F(1,n−2)F\frac{SSR/1}{SSE/(n-2)}\frac{MSR}{MSE}\sim F(1,\,n-2) FSSE/(n−2)SSR/1MSEMSR∼F(1,n−2) ③ 做出决策确定显著性水平 α\alphaα 根据自由度 df11df_11df11 和 df2n−2df_2n-2df2n−2 得到 PPP 值与 α\alphaα 进行比较
回归系数的检验和推断
回归系数检验也称为 t 检验用于检验自变量对因变量的影响是否显著在一元线性回归模型中回归系数检验和线性关系检验等价而在多元线性回归中这两种检验不再等价。其检验假设为
H0H_0H0 β10\beta_10β10 自变量对因变量的影响不显著H1H_1H1 β1̸0\beta_1\not0β10 自变量对因变量的影响显著
β1^\hat{\beta_1}β1^ 和 β0^\hat{\beta_0}β0^ 也是随机变量它们有自己的抽样分布统计证明β1^\hat{\beta_1}β1^ 服从正态分布期望 E(β1^)β1E(\hat{\beta_1})\beta_1E(β1^)β1 标准差的估计量为ses_ese 为估计标准误差 sβ1^se∑xi2−1n(∑xi)2s_{\hat{\beta_1}}\frac{s_e}{\sqrt{\sum x_i^2-\frac{1}{n}(\sum x_i)^2}} sβ1^∑xi2−n1(∑xi)2se
这个 sβ1^s_{\hat{\beta_1}}sβ1^ 的分母太搞了实际上等价于 sβ^1se∑(xi−xˉ)2s_{\hat{\beta}_1}\frac{s_e}{\sqrt{\sum(x_i-\bar{x})^2}}sβ^1∑(xi−xˉ)2se
将回归系数标准化就可以得到用于检验回归系数 β1^\hat{\beta_1}β1^ 的统计量 ttt 在原假设成立的条件下β1^−β1β1^\hat{\beta_1}-\beta_1\hat{\beta_1}β1^−β1β1^ 因此检验统计量为 tβ1^sβ1^∼t(n−2)t\frac{\hat{\beta_1}}{s_{\hat{\beta_1}}}\sim t(n-2) tsβ1^β1^∼t(n−2) 除了对回归系数进行检验外还可以得到置信区间回归系数 β1\beta_1β1 在置信水平为 1−α1-\alpha1−α 下的置信区间为 (β1^±tα/2(n−2)se∑(xi−xˉ)2)\left( \hat{\beta_1}\pm t_{\alpha/2}(n-2)\frac{s_e}{\sqrt{\sum(x_i-\bar{x})^2}} \right) (β1^±tα/2(n−2)∑(xi−xˉ)2se) 还可以得到截距 β0\beta_0β0 的 1−α1-\alpha1−α 置信区间为 (β0^±tα/2(n−2)se1nxˉ∑(xi−xˉ)2)\left( \hat{\beta_0}\pm t_{\alpha/2}(n-2)s_e\sqrt{\frac{1}{n}\frac{\bar{x}}{\sum(x_i-\bar{x})^2}} \right) (β0^±tα/2(n−2)sen1∑(xi−xˉ)2xˉ)
利用回归方程进行预测
回归分析的目的根据所建立的回归方程用给定的自变量来预测因变量。如果对于 xxx 的一个给定值 x0x_0x0 求出 yyy 的一个预测值 y^0\hat{y}_0y^0 就是点估计若是求出 y0y_0y0 的一个估计区间就是个别值的区间估计若是求出 y0ˉ\bar{y_0}y0ˉ 的一个估计区间就是平均值的区间估计。
例如我们收集数据研究许多家企业的广告费支出作为自变量对销售收入这个因变量造成的影响
求出广告费用为 200 万元时企业销售收入平均值的区间估计就是平均值的区间估计求出广告费用为 200 万元的那家企业销售收入的区间估计就是个别值的区间估计
点估计
点估计很明显就是直接将 x0x_0x0 代入方程即可接下来介绍平均值和个别值的预测区间。
平均值的置信区间
平均值的置信区间 设给定因变量 xxx 的一个值 x0x_0x0 E(y0)E(y_0)E(y0) 为给定 x0x_0x0 时因变量 yyy 的期望值。当 xx0xx_0xx0 时y^0β0^β1^x0\hat{y}_0\hat{\beta_0}\hat{\beta_1}x_0y^0β0^β1^x0 就是 E(y0)E(y_0)E(y0) 的估计值。那么按照区间估计的公式要知道 y0^\hat{y_0}y0^ 的标准差的估计量 sy0^s_{\hat{y_0}}sy0^ sy0^se1n(x0−xˉ)2∑(xi−xˉ)2s_{\hat{y_0}}s_e\sqrt{\frac{1}{n}\frac{(x_0-\bar{x})^2}{\sum{(x_i-\bar{x})^2}}} sy0^sen1∑(xi−xˉ)2(x0−xˉ)2 因此对于给定的 x0x_0x0平均值 E(y0)E(y_0)E(y0) 在 1−α1-\alpha1−α 置信水平下的置信区间为 (y0^±tα/2(n−2)se1n(x0−xˉ)2∑(xi−xˉ))\left( \hat{y_0}\pm t_{\alpha/2}(n-2)s_e\sqrt{\frac{1}{n}\frac{(x_0-\bar{x})^2}{\sum(x_i-\bar{x})}} \right) (y0^±tα/2(n−2)sen1∑(xi−xˉ)(x0−xˉ)2) 当 x0xˉx_0\bar{x}x0xˉ 时y^0\hat{y}_0y^0 的标准差的估计量最小此时有 sy^0se1ns_{\hat{y}_0}s_e\sqrt{\frac{1}{n}}sy^0sen1 也就是说当 x0xˉx_0\bar{x}x0xˉ 时估计是最准确的。x0x_0x0 偏离 xˉ\bar{x}xˉ 越远那么 y0y_0y0 的平均值的置信区间就变得越宽估计的效果也就越不好。
个别值的预测区间
个别值的预测区间用 sinds_{ind}sind 表示估计 yyy 的一个个别值时 y0^\hat{y_0}y0^ 的标准差的估计量 sindse11n(x0−xˉ)2∑(xi−xˉ)2s_{ind}s_e\sqrt{1\frac{1}{n}\frac{(x_0-\bar{x})^2}{\sum{(x_i-\bar{x})^2}}} sindse1n1∑(xi−xˉ)2(x0−xˉ)2 因此对于给定的 x0x_0x0 yyy 的一个个别值 y0y_0y0 在 1−α1-\alpha1−α 置信水平下的预测区间为 (y0^±tα/2(n−2)se11n(x0−xˉ)2∑(xi−xˉ))\left( \hat{y_0}\pm t_{\alpha/2}(n-2)s_e\sqrt{1\frac{1}{n}\frac{(x_0-\bar{x})^2}{\sum(x_i-\bar{x})}} \right) (y0^±tα/2(n−2)se1n1∑(xi−xˉ)(x0−xˉ)2) 相比于置信区间而言预测区间范围更宽一些因此估计 yyy 的平均值比预测 yyy 的一个个别值更准确一些。同样当 x0xˉx_0\bar{x}x0xˉ 时两个区间也都是最准确的。
用残差检验模型的假定
残差eyi−y^iey_i-\hat{y}_ieyi−y^i 表示用估计的回归方程去预测 yiy_iyi 而引起的误差
残差分析跟方差分析一样我们在做一元回归分析的时候也假定 yβ0β1xεy\beta_0\beta_1x\varepsilonyβ0β1xε 中的误差项 ε\varepsilonε 是期望为零、具有方差齐性且相互独立的正态分布随机变量需要对这个假设能否成立进行分析。
残差图检验误差项 ε\varepsilonε 是否满足这些假设可以通过对残差图的分析来完成。常用的残差图有关于 xxx 的残差图、标准化残差图等。
关于 xxx 的残差图是用横坐标表示自变量 xix_ixi 的值纵轴表示对应的残差 eie_iei
检验方差齐性
如果满足方差齐性则残差图中的所有点都应当落在同一水平带中图 a且没有固定的模式否则称为异方差性图 b。如果出现图 c 的情况那么应当考虑非线性回归 检验正态性
标准化残差也称 Pearson 残差或半 t 化残差是残差除以其标准差后得到的结果 zeieiseyi−y^isez_{e_i}\frac{e_i}{s_e}\frac{y_i-\hat{y}_i}{s_e} zeiseeiseyi−y^i 关于正态性的检验可以用标准化残差分析来完成。如果 ε\varepsilonε 服从正态分布那么标准化残差的分布也应服从正态分布。例如标准化后应当有 95%95\%95% 的残差都落在 [−2,2][-2,2][−2,2] 之间 也可以画直方图或者 P-P 图来检验