Kernel Logestic Regression
2024-08-29 20:59:07
一、把 soft margin svm 看做 L2 Regression 模型
先来一张图回顾一下之前都学了些什么:
之前我们是通过拉格朗日乘子法来进行soft Margin Svm的转化问题,现在换一个思路:
好了,观察我们得到的这个没有条件的最小化问题:
这似乎和L2正则比较相似:
所以,可以把SVM看为一个正则化模型:
二、 SVM 与 Logestic Regression 对比
01损失 Logestic Regression损失, svm损失对比:
所以得到SVM损失近似于Logestic Regression损失。
三、SVM for soft Binary Classification
上面两个思路并没有利用到Logestic Regression的优点,怎么利用呢?
四、Kernel Logestic Regression
未完待续。还不是很理解。
最新文章
- android wifi ANR问题分析总结
- 用java语言实现事件委托模式
- lamp环境编译错误
- C#读取和写入配置文件
- SAP PP 生产订单变更记录保存
- Web---演示servlet技术(servlet生命周期),解决中文乱码问题
- 给ecshop后台增加管理功能页面
- hdu 4893 Wow! Such Sequence!
- typescript中的工具 tsd
- ArcGIS API for JavaScript开发环境搭建与发布以及基本功能实现
- Java获取某年某季度的第一天出错
- 笔记:Struts2 拦截器
- jmeter循环控制器加jdbc req结果配合组合参数遍历
- GuavaCache本地缓存学习总结
- Python 列表增删改查排序统计
- hdu5358 推公式+在一个区间内的尺取+枚举法
- Android 对话框(Dialogs)
- Spring+Mybatis+SpringMVC后台与前台分页展示实例(附工程)
- Latex 语法总结——层次结构
- chromium之lazy_instance