machine learning (7)---normal equation相对于gradient descent而言求解linear regression问题的另一种方式
2024-08-26 13:01:06
- Normal equation: 一种用来linear regression问题的求解Θ的方法,另一种可以是gradient descent
- 仅适用于linear regression问题的求解,对其它的问题如classification problem或者feature number太大的情况下(计算量会很大)则不能使用normal equation,而应使用gradient descent来求解。
(由求导的过程推导而得)
这种方法是对cost function(J(θ),θ为n+1维向量(θ0,θ1.....θn))对各个θ求偏导,令偏导为0,这样求出对应的θ(高等数学里面求极值的方法),这 样求出的θ,使cost function的值最小
例如:
如何求解θ
- 这种求解θ的方法可不进行feature scaling,而对于用gradient descent求解θ而言,feature scaling很重要,它可使收敛速度加快。
- normal equation与gradient descent两种方法优点与缺点比较
- 当n>10000时,即feature number>10000时,用normal equation消耗太大,这时倾向于使用gradient desccent或者其它算法
- 当n<1000时,使用normal equation更方便
最新文章
- iosselect:一个js picker项目,在H5中实现IOS的下拉效果
- AssetsManagerEx 组件使用说明
- jQuery Flat Shadow – 轻松实现漂亮的长阴影效果
- PHP接口使用
- 微信公众平台应用开发:方法、技巧与案例--柳峰,Java语言版本
- 代码快捷键的设置读取App.config方法
- C++ Primer笔记整理
- Unity脚本获取内存和FPS
- Eclipse控制台显示Tomcat日志
- 基于Qt有限状态机的一种实现方式和完善的人工智能方法
- PHP初入,for循环使用
- Python安装xlrd和xlwt的步骤以及使用报错的解决方法
- 【题解】Luogu P4867 Gty的二逼妹子序列
- XHR对象
- git的安装以及入门
- C# 遍历文件夹筛选目标文件
- git提交本地代码到新分支
- Flex父子窗体相互调用
- Java基础学习-接口-概述以及成员特点
- python 02/100例