1. hypothsis

2. cost function:

3. Goal:

4. Gradient descent algorithm

repeat until convergence {

  

  (for j = 0 and j = 1)

}

note: simultaneous update

α:learning rate

if α is too small, gradient descent can be slow.

if α is too large, gradient descent can overshoot the minimum. It may fail to converge, or even diverge.

5. Gradient descent algorithm for one variable

repeat until convergence {

  

  

}

6. "batch" gradient descent: each step of gradient descent uses all the training examples

最新文章

  1. sysbench 压力测试
  2. Expression Template(表达式模板,ET)
  3. windows平台编译bgfx
  4. Enabling Cross-Origin Requests in ASP.NET Web API 2
  5. HTML5本地存储localStorage与sessionStorage
  6. linux工具之log4j-LogBack-slf4j-commons-logging
  7. hadoop(三):hdfs 机架感知
  8. nginx+php与apache+php性能对比
  9. hdu5601-N*M bulbs(黑白棋盘染色)
  10. OA学习笔记-003-Hibernate3.6配置
  11. XHTML 结构化:使用 XHTML 重构网站
  12. 【git学习五】git基础之git分支
  13. 转:Windows平台配置Appium+Java环境
  14. thinkphp 单字母函数
  15. 201521123116 《java程序设计》第十二周学习总结
  16. DAY4-打卡第四天-2018-1-12
  17. SSM项目手动分页详解
  18. Bootstrap -- 插件: 提示工具、弹出框、 警告框消息
  19. C语言复习4_while循环
  20. [NOIP2014D1]

热门文章

  1. AC日记——[HAOI2015]树上操作 洛谷 P3178
  2. inotify+rsync实现实时同步(附解决crontab中无法执行python脚本的问题)
  3. 1.【nuxt起步】-nuxt是什么?
  4. linux 文件属性与权限
  5. C#应用程序配置文件.config介绍
  6. Seinfeld(杭电3351)
  7. 基于ACCESS和ASP的SQL多个表查询与计算统计代码(一)
  8. WinDbg加载不同版本CLR
  9. 解读Unity中的CG编写Shader系列1——初识CG
  10. shell脚本编写-自动部署及监控