Ada boost学习
2024-10-20 18:48:39
http://blog.csdn.net/dark_scope/article/details/14103983
据说在Deep Learning出来之前,SVM和Adaboost是效果最好的 两个算法,而Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了.
这就是Adaboost的结构,最后的分类器YM是由数个弱分类器(weak classifier)组合而成的,相当于最后m个弱分类器来投票决定分类,而且每个弱分类器的“话语权”α不一样。
三.原理
前一个分类器改变权重w,同时组成最后的分类器。
如果一个训练样例 在前一个分类其中被误分,那么它的权重会被加重,相应地,被正确分类的样例的权重会降低使得下一个分类器 会更在意被误分的样例。
最新文章
- python学习笔记(一)
- 经典KMP算法C++与Java实现代码
- Docker: 解决Docker无法在电信网络中访问外网
- BSGS模版 a^x=b ( mod c)
- 初测WIN10
- PhantomJS实现最简单的模拟登录方案
- HDU-4694 Professor Tian 概率DP
- [phpmyadmin] phpmyadmin select command denied to user
- Activity的窗口对象(Window)的创建过程分析
- 谈谈JS构造函数
- CUDA学习,环境配置和简单例子
- MySQL Workbench 创建数据库,添加新表,添加字段
- Apache Beam WordCount编程实战及源码解读
- Sublime_分屏显示
- eclipse工具中使用Data Source Explorer连接数据库(MySQL)
- double保留两位小数
- hdu 3911 Black And White (线段树 区间合并)
- android:ProgressBar控件
- 全网最详细的Windows系统里Oracle 11g R2 Database服务器端(64bit)的下载与安装(图文详解)
- js模糊查询