Andrew NG 机器学习编程作业5 Octave
问题描述:根据水库中蓄水标线(water level) 使用正则化的线性回归模型预 水流量(water flowing out of dam),然后 debug 学习算法 以及 讨论偏差和方差对 该线性回归模型的影响
①可视化数据集
本作业的数据集分成三部分:
ⓐ训练集(training set),样本矩阵(训练集):X,结果标签(label of result)向量 y
ⓑ交叉验证集(cross validation set),确定正则化参数 Xval 和 yval
ⓒ测试集(test set) for evaluating performance,测试集中的数据 是从未出现在 训练集中的
将数据加载到Octave中如下:训练集中一共有12个训练实例,每个训练实例只有一个特征。故假设函数hθ(x) = θ0·x0 + θ1·x1 ,用向量表示成:hθ(x) = θT·x
一般地,x0 为 bais unit,默认 x0==1
数据可视化:
②正则化线性回归模型的代价函数
代价函数公式如下:
Octave代码实现如下:这里的代价函数是用向量(矩阵)乘法来实现的。
reg = (lambda / (2*m)) * ( ( theta( 2:length(theta) ) )' * theta(2:length(theta)) );
J = sum((X*theta-y).^2)/(2*m) + reg;
注意:由于θ0不参与正则化项的,故上面Octave数组下标是从2开始的(Matlab数组下标是从1开始的,θ0是Matlab数组中的第一个元素)。
③正则化的线性回归梯度
梯度的计算公式如下:
其中,下面公式的向量表示就是:[XT · (X·θ - y)]/m,用Matlab表示就是:X'*(X*theta-y) / m
梯度的Octave代码实现如下:
grad_tmp = X'*(X*theta-y) / m;
grad = [ grad_tmp(1:1); grad_tmp(2:end) + (lambda/m)*theta(2:end) ];
function [J, grad] = linearRegCostFunction(X, y, theta, lambda)
%LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear
%regression with multiple variables
% [J, grad] = LINEARREGCOSTFUNCTION(X, y, theta, lambda) computes the
% cost of using theta as the parameter for linear regression to fit the
% data points in X and y. Returns the cost in J and the gradient in grad % Initialize some useful values
m = length(y); % number of training examples % You need to return the following variables correctly
J = 0;
grad = zeros(size(theta)); % ====================== YOUR CODE HERE ======================
% Instructions: Compute the cost and gradient of regularized linear
% regression for a particular choice of theta.
%
% You should set J to the cost and grad to the gradient.
% reg = (lambda / (2*m)) * ( ( theta( 2:length(theta) ) )' * theta(2:length(theta)) );
J = sum((X*theta-y).^2)/(2*m) + reg;
grad_tmp = X'*(X*theta-y) / m;
grad = [ grad_tmp(1:1); grad_tmp(2:end) + (lambda/m)*theta(2:end) ]; % ========================================================================= grad = grad(:); end
④使用Octave的函数 fmincg 函数训练线性回归模型,得到模型的参数。
function [theta] = trainLinearReg(X, y, lambda)
%TRAINLINEARREG Trains linear regression given a dataset (X, y) and a
%regularization parameter lambda
% [theta] = TRAINLINEARREG (X, y, lambda) trains linear regression using
% the dataset (X, y) and regularization parameter lambda. Returns the
% trained parameters theta.
% % Initialize Theta
initial_theta = zeros(size(X, 2), 1); % Create "short hand" for the cost function to be minimized
costFunction = @(t) linearRegCostFunction(X, y, t, lambda); % Now, costFunction is a function that takes in only one argument
options = optimset('MaxIter', 200, 'GradObj', 'on'); % Minimize using fmincg
theta = fmincg(costFunction, initial_theta, options); end
⑤线性回归模型的图形化表示
上面已经通过 fmincg 求得了模型参数了,那么我们求得的模型 与 数据的拟合程度 怎样呢?看下图:
从上图中可以看出,由于我们的数据是二维的,但是却用一个线性模型去拟合,故很明显出现了 underfiting problem
在这里,我们很容易将模型以图形化方式表现出来,因为,我们的训练数据的特征很少(一维)。当训练数据的特征很多(feature variables)时,就很难画图了(三维以上很难直接用图形表示了...)。这时,就需要用 “学习曲线”来检查 训练出来的模型与数据是否很好地拟合了。
⑥偏差与方差之间的权衡
高偏差---欠拟合,underfit
高方差---过拟合,overfit
可以用学习曲线(learning curve)来诊断偏差--方差 问题。学习曲线的 x 轴是训练集大小(training set size),y 轴则是交叉验证误差和训练误差。
训练误差的定义如下:
注意:训练误差Jtrain(θ)是没有正则化项的,因此在调用linearRegCostFunction时,lambda==0。Octave实现如下(learningCurve.m)
function [error_train, error_val] = ...
learningCurve(X, y, Xval, yval, lambda)
%LEARNINGCURVE Generates the train and cross validation set errors needed
%to plot a learning curve
% [error_train, error_val] = ...
% LEARNINGCURVE(X, y, Xval, yval, lambda) returns the train and
% cross validation set errors for a learning curve. In particular,
% it returns two vectors of the same length - error_train and
% error_val. Then, error_train(i) contains the training error for
% i examples (and similarly for error_val(i)).
%
% In this function, you will compute the train and test errors for
% dataset sizes from 1 up to m. In practice, when working with larger
% datasets, you might want to do this in larger intervals.
% % Number of training examples
m = size(X, 1); % You need to return these values correctly
error_train = zeros(m, 1);
error_val = zeros(m, 1); % ====================== YOUR CODE HERE ======================
% Instructions: Fill in this function to return training errors in
% error_train and the cross validation errors in error_val.
% i.e., error_train(i) and
% error_val(i) should give you the errors
% obtained after training on i examples.
%
% Note: You should evaluate the training error on the first i training
% examples (i.e., X(1:i, :) and y(1:i)).
%
% For the cross-validation error, you should instead evaluate on
% the _entire_ cross validation set (Xval and yval).
%
% Note: If you are using your cost function (linearRegCostFunction)
% to compute the training and cross validation error, you should
% call the function with the lambda argument set to 0.
% Do note that you will still need to use lambda when running
% the training to obtain the theta parameters.
%
% Hint: You can loop over the examples with the following:
%
% for i = 1:m
% % Compute train/cross validation errors using training examples
% % X(1:i, :) and y(1:i), storing the result in
% % error_train(i) and error_val(i)
% ....
%
% end
% % ---------------------- Sample Solution ---------------------- for i = 1:m
theta = trainLinearReg(X(1:i, :), y(1:i), lambda);
error_train(i) = linearRegCostFunction(X(1:i, :), y(1:i), theta, 0);
error_val(i) = linearRegCostFunction(Xval, yval, theta, 0); % ------------------------------------------------------------- % ========================================================================= end
学习曲线的图形如下:可以看出欠拟合时,在 training examples 数目很少时,训练出来的模型还能拟合"一点点数据",故训练误差相对较小;但对于交叉验证误差而言,它是使用未知的数据得算出来到的,而现在模型欠拟合,故几乎不能 拟合未知的数据,因此交叉验证误差非常大。
随着 training examples 数目的增多,由于欠拟合,训练出来的模型越来越来能拟合一些数据了,故训练误差增大了。而对于交叉验证误差而言,最终慢慢地与训练误差一致并变得越来越平坦,此时,再增加训练样本(training examples)已经对模型的训练效果没有太大影响了---在欠拟合情况下,再增加训练集的个数也不能再降低训练误差了。
⑦多项式回归
从上面的学习曲线图形可以看出:出现了underfit problem,通过添加更多的特征(features),使用更高幂次的多项式来作为假设函数拟合数据,以解决欠拟合问题。
多项式回归模型的假设函数如下:
通过对特征“扩充”,以添加更多的features,代码实现如下:polyFeatures.m
for i = 1:p
X_poly(:,i) = X.^i;
end
“扩充”了特征之后,就变成了多项式回归了,但由于多项式回归的特征取值范围差距太大(比如有些特征的取值很小,而有些特征的取值非常大),故需要用到Normalization(归一化),归一化的代码如下:
function [X_norm, mu, sigma] = featureNormalize(X)
%FEATURENORMALIZE Normalizes the features in X
% FEATURENORMALIZE(X) returns a normalized version of X where
% the mean value of each feature is 0 and the standard deviation
% is 1. This is often a good preprocessing step to do when
% working with learning algorithms. mu = mean(X);
X_norm = bsxfun(@minus, X, mu); sigma = std(X_norm);
X_norm = bsxfun(@rdivide, X_norm, sigma); % ============================================================ end
继续再用原来的linearRegCostFunction.m计算多项式回归的代价函数和梯度,得到的多项式回归模型的假设函数的图形如下:(注意:lambda==0,没有使用正则化):
从多项式回归模型的 图形看出:它几乎很好地拟合了所有的训练样本数据。因此,可认为出现了:过拟合问题(overfit problem)---高方差
多项式回归模型的学习曲线 图形如下:
从多项式回归的学习曲线图形看出:训练误差几乎为0(非常贴近 x 轴了),这正是因为过拟合---模型几乎完美地穿过了训练数据集中的每个数据点,从而训练误差非常小。
交叉验证误差先是很大(训练样本数目为2时),然后随着训练样本数目的增多,cross validation error 变得越来越小了(训练样本数目2 增加到 5 过程中);然后,当训练样本数目再增多时(11个以上的训练样本时...),交叉验证误差又变得大了(过拟合导致泛化能力下降)。
⑧使用正则化来解决多项化回归模型的过拟合问题
设置正则化项 lambda == 1(λ==1)时,得到的模型假设函数图形如下:
可以看出:这里的拟合曲线不再是 lambda == 0 时 那样弯弯曲曲的了,也不是非常精准地穿过每一个点,而是变得相对比较平滑。这正是 正则化 的效果。
lambda==1 (λ==1) 时的学习曲线如下:
lambda==1时的学习曲线表明:该模型有较好的泛化能力,能够对未知的数据进行较好的预测。因为,它的交叉验证误差和训练误差非常接近,且非常小。(训练误差小,表明模型能很好地拟合数据,但有可能出现过拟合的问题,过拟合时,是不能很好地对未知数据进行预测的;而此处交叉验证误差也小,表明模型也能够很好地对未知数据进行预测)
最后来看下,多项式回归模型的正则化参数 lambda == 100(λ==100)时的情况:(出现了underfit problem--欠拟合--高偏差)
模型“假设函数”曲线如下:
学习曲线图形如下:
⑨如何自动选择合适的 正则化参数 lambda(λ) ?
从第⑧点中看出:正则化参数 lambda(λ) 等于0时,出现了过拟合, lambda(λ) 等于100时,又出现了欠拟合, lambda(λ) 等于1时,模型刚刚好。
那在训练过程中如何自动选择合适的lambda参数呢?
可以使用交叉验证集(根据交叉验证误差来选择合适的 lambda 参数)
Concretely, you will use a cross validation set to evaluate how good each lambda value is.
After selecting the best lambda value using the cross validation set,
we can then evaluate the model on the test set to estimate how well the model will perform on actual unseen data.
具体的选择方法如下:
首先有一系列的待选择的 lambda(λ) 值,在本λ作业中用一个lambda_vec向量保存这些 lambda 值(一共有10个):
lambda_vec = [0 0.001 0.003 0.01 0.03 0.1 0.3 1 3 10]'
然后,使用训练数据集 针对这10个 lambda 分别训练 10个正则化的模型。然后对每个训练出来的模型,计算它的交叉验证误差,选择交叉验证误差最小的那个模型所对应的lambda(λ)值,作为最适合的 λ 。(注意:在计算训练误差和交叉验证误差时,是没有正则化项的,相当于 lambda==0)
for i = 1:length(lambda_vec)
theta = trainLinearReg(X,y,lambda_vec(i));%对于每个lambda,训练出模型参数theta
%compute jcv and jval without regularization,causse last arguments(lambda) is zero
error_train(i) = linearRegCostFunction(X, y, theta, 0);%计算训练误差
error_val(i) = linearRegCostFunction(Xval, yval, theta, 0);%计算交叉验证误差
end
对于这10个不同的 lambda,计算出来的训练误差和交叉验证误差如下:

lambda Train Error Validation Error
0.000000 0.173616 22.066602
0.001000 0.156653 18.597638
0.003000 0.190298 19.981503
0.010000 0.221975 16.969087
0.030000 0.281852 12.829003
0.100000 0.459318 7.587013
0.300000 0.921760 4.636833
1.000000 2.076188 4.260625
3.000000 4.901351 3.822907
10.000000 16.092213 9.945508

训练误差、交叉验证误差以及 lambda 之间的关系 图形表示如下:
当 lambda >= 3 的时候,交叉验证误差开始上升,如果再增大 lambda 就可能出现欠拟合了...
从上面看出:lambda == 3 时,交叉验证误差最小。lambda==3时的拟合曲线如下:(可与 lambda==1时的拟合曲线及学习曲线对比一下,看有啥不同)
学习曲线如下:
Andrew NG 机器学习编程作业5 Octave的更多相关文章
- Andrew NG 机器学习编程作业4 Octave
问题描述:利用BP神经网络对识别阿拉伯数字(0-9) 训练数据集(training set)如下:一共有5000个训练实例(training instance),每个训练实例是一个400维特征的列向量 ...
- Andrew NG 机器学习编程作业3 Octave
问题描述:使用逻辑回归(logistic regression)和神经网络(neural networks)识别手写的阿拉伯数字(0-9) 一.逻辑回归实现: 数据加载到octave中,如下图所示: ...
- Andrew NG 机器学习编程作业2 Octave
问题描述:用逻辑回归根据学生的考试成绩来判断该学生是否可以入学 这里的训练数据(training instance)是学生的两次考试成绩,以及TA是否能够入学的决定(y=0表示成绩不合格,不予录取:y ...
- Andrew NG 机器学习编程作业6 Octave
问题描述:使用SVM(支持向量机 )实现一个垃圾邮件分类器. 在开始之前,先简单介绍一下SVM ①从逻辑回归的 cost function 到SVM 的 cost function 逻辑回归的假设函数 ...
- 【原】Coursera—Andrew Ng机器学习—编程作业 Programming Exercise 4—反向传播神经网络
课程笔记 Coursera—Andrew Ng机器学习—课程笔记 Lecture 9_Neural Networks learning 作业说明 Exercise 4,Week 5,实现反向传播 ba ...
- Andrew Ng机器学习编程作业: Linear Regression
编程作业有两个文件 1.machine-learning-live-scripts(此为脚本文件方便作业) 2.machine-learning-ex1(此为作业文件) 将这两个文件解压拖入matla ...
- Andrew Ng机器学习编程作业:Logistic Regression
编程作业文件: machine-learning-ex2 1. Logistic Regression (逻辑回归) 有之前学生的数据,建立逻辑回归模型预测,根据两次考试结果预测一个学生是否有资格被大 ...
- Andrew Ng机器学习编程作业:Regularized Linear Regression and Bias/Variance
作业文件: machine-learning-ex5 1. 正则化线性回归 在本次练习的前半部分,我们将会正则化的线性回归模型来利用水库中水位的变化预测流出大坝的水量,后半部分我们对调试的学习算法进行 ...
- Andrew Ng机器学习编程作业:Support Vector Machines
作业: machine-learning-ex6 1. 支持向量机(Support Vector Machines) 在这节,我们将使用支持向量机来处理二维数据.通过实验将会帮助我们获得一个直观感受S ...
随机推荐
- map映照容器
//map映照容器是由一个键值和一个映照数据组成的,键值与映照数据之间具有一一映照的关系 //map映照容器的键值不允许重复 ,比较函数值对元素 //的键值进行比较,元素的各项数据可通过键值检索出来 ...
- Transactional ejb 事务陷阱
对应ejb,默认是对整个类使用事务.所以所有方法都开启事务. 而对于用TransactionAttribute注释来引用容器管理的事务,只能在第一级的方法中使用.对应类中的方法再调用其它类中方法,注释 ...
- js 获取 url 参数
/** * 根据页面地址获取所有参数对象 * @return Object{} 返回所有参数 * ------------------------------ * 根据页面地址获取指定参数对象 * @ ...
- js jquery 遍历 for,while,each,map,grep
js jquery 遍历 一,for循环. // 第一种var arr = [1, 2, 3];for(var i = 0; i < arr.length; i++) { console.log ...
- A1123. Is It a Complete AVL Tree
An AVL tree is a self-balancing binary search tree. In an AVL tree, the heights of the two child sub ...
- 自制模态窗体闪烁效果: MessageBeep & FlashWindowEx
SetFocus(hwnd_frame_preview); //设置焦点 /** 模拟模态窗口动作 **/ MessageBeep(0xFFFFFFFF); //0xFFFFFFFF SystemDe ...
- opencv mat裁剪
主要记录的就是对Mat裁剪后,新Mat指向的内存和原来的Mat共用. OpenCV入门教程(3)-Mat类之选取图像局部区域
- 一个很适合初学者的selenium教程
http://www.cnblogs.com/hustar0102/p/5885115.html
- WCF博文链接
我的基于WCF的SOA架构项目实战 http://www.uml.org.cn/soa/201112201.asp WCF实战(一):创建服务器类 https://blog.csdn.net/qium ...
- delphi架构
概要介绍:Object Pascal语言的结构比较特殊,跟C有很大的不同,但是它秉承PASCAL语言的一贯结构化的传统,相信大家很容易就可以了解. 一:Program 单元 一个object ...