一.准备工作

  1. 从网站上将编程作业要求下载解压后,在Octave中使用cd命令将搜索目录移动到编程作业所在目录,然后使用ls命令检查是否移动正确。如:
  2. 提交作业:提交时候需要使用自己的登录邮箱和提交令牌,如下:

二.单变量线性回归

绘制图形:rx代表图形中标记的点为红色的x,数字10表示标记的大小。

plot(x, y, 'rx', 'MarkerSize', ); % Plot the data

计算代价函数(Cost Funtion):迭代次数1500,学习速率0.01.   iterations = 1500;  alpha = 0.01;

注意需给原始数据X添加一列值为1的属性:X = [ones(m, 1), data(:,1)];  theta = zeros(2, 1);

function J = computeCost(X, y, theta)  %文件名为computeCost.m
m = length(y); % number of training examples
J = /(*m)*sum((X*theta-y).^);
end

梯度下降(Gradient Descent ):

function [theta, J_history] = gradientDescent(X, y, theta, alpha, num_iters)  %文件名为gradientDescent.m
m = length(y); % number of training examples
J_history = zeros(num_iters, );
for iter = :num_iters
temp=X'*(X*theta-y);
theta=theta-/m*alpha*temp;
J_history(iter) = computeCost(X, y, theta);
end
end

然后绘制出我们使用经过梯度下降求出的最优参数θ值所做预测的图形,如下:

可视化J(θ):

使用表面图进行可视化:

theta0_vals = linspace(-, , );  %生成范围在[-10,10]之间100个点的线性行矢量,即维数为1*100的矩阵
theta1_vals = linspace(-, , );  %生成范围在[-1,4]之间100个点的线性行矢量,即维数为1*100的矩阵 J_vals = zeros(length(theta0_vals), length(theta1_vals));  %对应的代价函数值,维数为100*100
% Fill out J_vals
for i = :length(theta0_vals)    %计算代价函数值
for j = :length(theta1_vals)
t = [theta0_vals(i); theta1_vals(j)];
J_vals(i,j) = computeCost(X, y, t);
end
end % Because of the way meshgrids work in the surf command, we need to transpose J_vals before calling surf, or else the axes will be flipped
J_vals = J_vals';    %surface函数的特性,必须进行转置。其实就是因为θ0和θ1要和行列坐标x,y对齐。
% Surface plot
figure;
surf(theta0_vals, theta1_vals, J_vals)  %绘制表面图
xlabel('\theta_0'); ylabel('\theta_1');

结果如下:从图中可看出代价函数值J(θ)有全局最优解(最低点)。

使用等高线图进行可视化:(logspace函数和linspace函数类似,此处作用生成将区间[10-2,103]等分20份的1*20矩阵)

figure;  %这里的J_vals在前面进行了转置,所以此处不用转置!
contour(theta0_vals, theta1_vals, J_vals, logspace(-, , ))  
xlabel('\theta_0'); ylabel('\theta_1');  %用到了转义字符'\theta_0'和'\theta_1'.
hold on;
plot(theta(), theta(), 'rx', 'MarkerSize', , 'LineWidth', );

结果如下:可以看出我们求出的最优参数θ所对应的代价值,正好位于等高线图最低的位置!

三.多变量线性回归(选做)

特征规则化:

function [X_norm, mu, sigma] = featureNormalize(X)  %文件名为featureNormalize.m
X_norm = X;
mu = zeros(, size(X, ));  %记录每个特征xi的平均值
sigma = zeros(, size(X, ));  %记录每个特征xi的标准差值 for i=:size(X,),
mu(i)=mean(X(:,i));    %使用公式mean求平均值
sigma(i)=std(X(:,i));   %使用公式std求标准差值
X_norm(:,i)=(X_norm(:,i)-mu(i))/sigma(i);
end
end

代价函数和梯度下降:和单变量相同(省略)

不同学习速率下,随着迭代次数的增加,代价函数值逐渐收敛图形:可以发现学习速率为0.01最为合适!

房价预测:Estimate the price of a 1650 sq-ft, 3 br house

% Estimate the price of a  sq-ft,  br house
% ====================== YOUR CODE HERE ======================
% Recall that the first column of X is all-ones. Thus, it does
% not need to be normalized.
x_try=[ ];
x_try()=x_try()-mu();
x_try()=x_try()-mu();
x_try()=x_try()/sigma();
x_try()=x_try()/sigma();
price = [ones(, ) x_try]*theta; % 这里的theta是我们前面经过梯度下降求出的

 正规方程求参数theta:

function [theta] = normalEqn(X, y)
theta = zeros(size(X, ), );
theta=pinv(X'*X)*X'*y;
end

无~

最新文章

  1. POJ1091跳蚤(容斥 + 唯一分解 + 快速幂)
  2. 【Java每日一题】20161110
  3. 关于Currency类型和 TCurrencyFiled的悲剧
  4. unity3d InverseTransformPoint方法
  5. codeforces 724
  6. <转>准备Eclips+python+robot framework环境
  7. C#快速学习笔记(译)
  8. DWZ简介及其使用
  9. VISUALSVN: UNABLE TO CONNECT TO A REPOSITORY AT URL 无法连接主机的解决办法
  10. windows下提权基础
  11. bat(批处理)命令(tomcat 7.0.75 startup.bat 命令集)
  12. 监听 在xshell中
  13. centos安装mariadb
  14. MATLAB 曲线形状,粗细,颜色使用大全
  15. 【C++】反斜杠“\”的作用
  16. Nginx简单的负载均衡入门
  17. Servlet学习(一)
  18. DFT
  19. string 和String的区别
  20. SSM(Spring+SpringMVC+Mybstis)搭建,写给新手

热门文章

  1. cocos2D v3.4 在TileMap中开启高清显示
  2. 从JDK源码角度看线程的阻塞和唤醒
  3. 简约才是王道? CardView 的使用
  4. 基于Retrofit2.0+RxJava+Dragger2实现不一样的Android网络构架搭建(转载)
  5. 青年之锋文学网( www.xcqnzf…
  6. 在 ServiceModel 客户端配置部分中,找不到引用协定“XX”的默认终结点元素的解决方法
  7. mongodb系列之--mongodb 主从配置与说明
  8. SpriteBuilder切换解决方案以及CCB的修改与保存
  9. LeetCode(23)-Implement Queue using Stacks
  10. LeetCode(60)-ZigZag Conversion