博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
回归算法中几个评估参数
阅读量:6002 次
发布时间:2019-06-20

本文共 1099 字,大约阅读时间需要 3 分钟。

在统计学中对变量进行线行回归分析,采用最小二乘法进行参数估计,在数据分析中通常会通过评估参数来评估我们得出的模型对结果的拟合度,通常会用到的参数有:

最小二乘法:我们将预测值与实际值之间的差值进行求平方和,这个和我们叫离差平方和,使离差平方和最小的方法叫“最小二乘法”

 

1、SSE(误差平方和):the sum of squares due to error

2、MSE(均方误差平方和): Mean squares error

3、RMSE(均方根误差平方和): Root mean squares error

4、R-square(确定系数 也叫R^2): cofficient of detrmination

下面对以上几个参数进行总结:

1)SSE(误差平方和)

该统计参数计算的是拟合数据和原始数据对应点的误差平方和,计算公式如下:

SSE=Σ(Y^-Y)^2

SSE越趋近于0,说明模型选择的拟合度越好,预测结果越好。RMSE和MSE的一样也是越趋近于0,模型选择的拟合度越好。

2)MSE(均方误差平方和)

 该统计参数计算的是拟合数据和原始数据对应点的误差平方和的均值,即SSE/N (N为样本数):

MSE=SSE/n=Σ(Y^-Y)^2/n

3)RMSE(均方根)

 该参数也是回归系统的拟合标准差,即MSE的平方根,

总结:SSE、MSE、RMSE都是原始值与预测值之间的残差平方关系,表现回归中预测值的好坏,这些参数越趋近于0,得出的预测值越好!

4) R-square(确定系数)即R^2

了解确定系数钱,我们先看另外连个参数SSR和SST,因为确定系数由他们两个确定:

(1)SSR:sum of squares of regession,即预测数据与原始数据均值之差的平方和:

       

(2)SST:Total sum of squares 即原始数据和均值之差的平方和: 

          

  我们可以看出SST=SSE+SSR,而我们的R^2(确定系数)为SSR/SST

  R^2=SSR/SST=SST-SSE/SST=1-SSE/SST

总结:

1)、R^2:决定系数,反映因变量的全部变化能通过回归关系被自变量解释的比例

 2)、R^2 是非负统计量

3)、R^2的取值范围为0~1,R^2的值越趋近于1表示得出的模型对原始数据的因变量解释下越好,反之越差!

4)、R^2是样本观测值的函数,可决定系数R^2是随着抽样变动而随机变动,为此要对R^2的统计可靠性进行检验。

 

转载于:https://www.cnblogs.com/dushangguzhousuoli/p/10069546.html

你可能感兴趣的文章
可能是最简单的面向对象入门教程(二)为什么要有类型
查看>>
配置Openfiler做ISCS实验
查看>>
Maven启用代理访问
查看>>
LDAP & Implementation
查看>>
hdu 4597 Play Game
查看>>
hdu 1398 Square Coins (母函数)
查看>>
试验性的Numpy教程(译)
查看>>
twitter storm 源码走读之5 -- worker进程内部消息传递处理和数据结构分析
查看>>
CCF 201503-4 网络延时
查看>>
.net获取select控件中的文本内容
查看>>
Windows 8 Metro App开发[5]导航栏(AppBar)的使用
查看>>
shell expect
查看>>
Effective Java -- 使可变性最小化
查看>>
开发环境中Docker的使用
查看>>
Redis 分布式锁
查看>>
IBM、HPUX、Solaris不同之处
查看>>
kuangbin专题十六 KMP&&扩展KMP HDU3336 Count the string
查看>>
verilog 里面,always和always@(*)有区别吗?
查看>>
86标准sql与92标准SQL用法区别
查看>>
SIO_KEEPALIVE_VALS 用户异常掉线检测
查看>>