1.bagging减少variance

Bagging对样本重采样,对每一重采样得到的子样本集训练一个模型,最后取平均。由于子样本集的相似性以及使用的是同种模型,因此各模型有近似相等的bias和variance(事实上,各模型的分布也近似相同,但不独立),所以bagging后的bias和单个子模型的接近,一般来说不能显著降低bias。

若各模型独立,则

若各模型完全相等,则

此时不会降低variance。bagging方法得到的各子模型是有一定相关性的,属于上面两个极端状况的中间态,因此可以一定程度降低variance。为了进一步降低variance,Random forest通过随机选取变量子集做拟合的方式de-correlated了各子模型(树),使得variance进一步降低。

2.boosting减少bias

boosting从优化角度来看,是用forward-stagewise这种贪心法去最小化损失函数。

例如,常见的AdaBoost即等价于用这种方法最小化exponential loss:

所谓forward-stagewise,就是在迭代的第n步,求解新的子模型f(x)及步长a(或者叫组合系数),来最小化,这里是前n-1步得到的子模型的和。因此boosting是在sequential地最小化损失函数,其bias自然逐步下降。但由于是采取这种sequential、adaptive的策略,各子模型之间是强相关的,于是子模型之和并不能显著降低variance。所以说boosting主要还是靠降低bias来提升预测精度。

参考文献:

【1】知乎大佬回答
【2】Bagging与方差

最新文章

  1. UEFI+GPT安装windows
  2. 2-2 Linux 根文件系统详解
  3. UVA 10892 - LCM Cardinality(数学题)
  4. git 临时记录
  5. 改变传统的开单模式------手持POS终端移动销售开单 移动进销存的利器
  6. 中科大各Linux发行版的更新源列表
  7. 转】Apache解决高并发和高可用
  8. mac os 10.10 pod install errors
  9. HashMap早知道
  10. virtual hard disk
  11. 基于canvas图像处理的图片展示demo
  12. js实现checkbox全选与反选
  13. #event.initMouseEvent
  14. 使用 Struts2 校验器校验用户注册信息
  15. Linux命令学习-useradd和usermod
  16. 原型(Prototype)模式
  17. 测试BUG记录模板(供参考)
  18. error C4996: 'strcpy': This function or variable may be unsafe.
  19. python2到python3代码转化:2to3
  20. 手把手教新手小白在window把自己的项目上传到github

热门文章

  1. BeanPostProcessor
  2. K8S之traefik高级特性
  3. CentOS安装SonarQube7.9.1
  4. github下载速度慢甚至多次失败,通过码云的导入功能导入github项目到码云上,然后再从码云下载
  5. c++ builder调用sql server的存储过程进行数据的下载和上传
  6. Linux文件内容查看相关命令
  7. SpringBoot工程常见报错汇总
  8. 最近C#项目中不小心踩的低级坑
  9. CLH lock 原理及JAVA实现
  10. 打印出三位数的水仙花数Python