本章的思路在于揭示VC Dimension的意义,简单来说就是假设的自由度,或者假设包含的feature vector的个数(一般情况下),同时进一步说明了Dvc和,Eout,Ein以及Model Complexity Penalty的关系。

一回顾

由函数B(N,k)的定义,可以得到比较松的不等式mh(N)小于等于N^(k-1)(取第一项)。

这样就可以把不等式转化为仅仅只和VC Dimension和N相关了,从而得出如下结论:

1 mh(N)有break point k,那么其就是多项式级别的,我们认为假设数量不算多,是个好的假设;

2 N 足够大,这样我们便算有了好的抽样数据集(假设不含很多Noise);

=〉这两点由上述不等式可以推导这样的机器学习算法有好的泛化能力,其在全集上会有和在D上一致的表现;

3 如果算法选择的是小的Ein

=>最终我们可以推断机器可以学习,因为其在全集数据集错误率会较低。

二什么是VC Dimension

下面给出了VC Dimension的定义,

  • 它是该假设集能够shatter的最多inputs的个数,即最大完全正确的分类能力(注意,只要存在一种分布的input能够正确分类就算是,这才叫最大);
  • 它是最小的k-1,这个很好理解,最小的k是假设集不能shatter任何分布类型的inputs的最少个数,和VC Dimension正好相反;

同样,将Dvc替换k,得到mh(N)<=N^(Dvc)

三 VC Dimension 和 Feature 数量的关系,在PLA算法中

维的情况,对于多维呢?也就是说增加feature咋办?


这里又抛出了一个结论:Dvc = d+1, d为feature vector的维度。

要证明这个等式,可以将它分为两块证明,

1 证明 Dvc >= d+1;

2 证明 Dvc <= d+1;

因为Dvc >= d+1, 那么我们必然可以shatter 某一类的d+1的inputs,这个是VC Dimension的定义。这里用线性代数的方法表达了X矩阵的每一行是一个x向量的转置。这个有意构造的X便能够被shatter。首先,shatter的本质是H对X的每个判断都是对的即等于y,所以有如下不等式:

X*W = Y,我们注意到X是可逆的,所以W = X^(-1) * Y,所以我们只要让feature vector等于X的逆矩阵乘以Y就能给完全shatter X,言外之意,只要我们构造的inputs其有逆矩阵就能够被shatter!

下面证明等式二,Dvc<=d+1,也就是说对于d+2的inputs,其一定不能被shatter,同样我们构造一个X,这次是任意的,其包含d+2个inputs,我们发现这个矩阵的列为d+1而行为d+2,由线性代数的知识,我们知道这d+2个向量的某一个可以表示为另外d+1个向量的线性组合,假设这个向量为Xd+2,那么便有了如下等式:

w^Txd+2 = a1w^Tx1 + a2w^Tx2 + ... + ad+1w^Txd+1,

我们只要构造这样这组w,保证每一项是正的,例如假设a1是负的,那么我们构造w使得w^Tx1也是负的,这样就使得最终的值为正,从而我们没法分类其为负的情况,因为其值始终是正的。换句话说,因为d+2是前d+1的线性组合,这样一个限制导致了最终的结果。所以对于d+2我们无法完全分类,也即使Dvc<=d+1。

四 VC Dimension的直观理解

那么VC Dimension本质上到底是什么呢?

下图给了答案

自由度的概念,体现在我们能够包含多少feature w,能够有多少假设H的数量,以及我们最终的分类能力Dvc,也就是说Dvc本质上大体上是H的分类能力,同样可以理解为feature的个数,假设的个数,因为它们都是互相成正比的。

再次回到以前那个泛化不等式:

将它左右变形,求出Eout的的界限,我们比较关注上限,可知我们最终的机器学习算法其在整体的错误率和N,H,S的表达式(Model 复杂度的惩罚)有关。下图很直观的给出了它们之间的关系:

这个图说了:

1 Dvc越高 -> Ein下降(shatter能力变强)-> model complexity的penalty提高,导致Eout先降后升

2 Dvc越低 -> Ein升高 -> model complexity的penalty降低,Eout最终也是会上升

所以最好情况的Eout是我们选取Dvc在中间的情况,这样Ein和penalty都不高,即最终的Eout也不会太高。这也就是为什么,我们不能够盲目增加feature也不能有太少feature的原因。

五总结

本章主要描述了VC Dimension并给出了较为直观的解释,我们不能盲目增加VC Dimension也不能太低,而应该去中间值,这样既保证Ein不高也保证model complexity的penalty不高。

Coursera台大机器学习课程笔记6 -- The VC Dimension的更多相关文章

  1. Coursera台大机器学习课程笔记7 -- Noise and Error

    本章重点:  简单的论证了即使有Noise,机器依然可以学习,VC Dimension对泛化依然起作用:介绍了一些评价Model效果的Error Measurement方法. 一论证即使有Noisy, ...

  2. Coursera台大机器学习课程笔记4 -- Training versus Testing

     这节的主题感觉和training,testing关系不是很大,其根本线索在于铺垫并求解一个问题:    为什么算法PLA可以正确的work?因为前面的知识告诉我们,只有当假设的个数有限的时候,我们才 ...

  3. Coursera台大机器学习课程笔记3 – 机器学习的可能性

    提纲: 机器学习为什么可能? 引入计算橙球概率问题 通过用Hoeffding's inequality解决上面的问题,并得出PAC的概念,证明采样数据学习到的h的错误率可以和全局一致是PAC的 将得到 ...

  4. Coursera台大机器学习课程笔记15 -- Three Learning Principles

    这节课是最后一节,讲的是做机器学习的三个原则. 第一个是Occan's razor,即越简单越好.接着解释了什么是简单的hypothesis,什么是简单的model.关于为什么越简单越好,林老师从大致 ...

  5. Coursera台大机器学习课程笔记5 -- Theory of Generalization

    本章思路: 根据之前的总结,如果M很大,那么无论假设泛化能力差的概率多小,都无法忽略,所以问题转化为证明M不大,然后上章将其转化为证明成长函数:mh(N)为多项式级别.直接证明似乎很困难,本章继续利用 ...

  6. Coursera台大机器学习课程笔记14 -- Validation

    这节课是接着上节的正则化课程的,目的也是为了防止overfitting. 第一小节讲了模型的选择,前面讲了很多模型,那么如何做出正确的选择呢?我们的目标是选择最小的Eout目标函数.首先应避免视觉化选 ...

  7. Coursera台大机器学习课程笔记8 -- Linear Regression

    之前一直在讲机器为什么能够学习,从这节课开始讲一些基本的机器学习算法,也就是机器如何学习. 这节课讲的是线性回归,从使Ein最小化出发来,介绍了 Hat Matrix,要理解其中的几何意义.最后对比了 ...

  8. Coursera台大机器学习课程笔记13 -- Regularization

    这一节讲的是正则化,在优化中一直会用到正则化项,上课的时候老师一句话代过,没有作过多的解释.听完这节课后, 才明白好大学和野鸡大学的区别有多大.总之,这是很有收获的一节课. 首先介绍了为什么要正则化, ...

  9. Coursera台大机器学习课程笔记11 -- Nonlinear Transformation

    这一节讲的是如何将线性不可分的情况转为非线性可分以及转换的代价.特征转换是机器学习的重点. 最后得出重要的结论是,在做转换时,先从简单模型,再到复杂模型. 参考:http://www.cnblogs. ...

随机推荐

  1. js 闭包之一

    既然说闭包的化,我们就先来说说函数.慢慢的进入进入正题 (1)函数申明 f1(); function f1(){ alert(") }//结果 1 (2)函数定义 f1();var f1=f ...

  2. Docking Windows Phone controls to the bottom of a StackPanel

    <Grid> <Grid.RowDefinitions> <RowDefinition Height="*" /> <RowDefinit ...

  3. 【资源】HTML5工具篇:10个营销人也能轻松使用的在线编辑平台

    一 3, 2015 in 资源 作者:Teeya 2014年,HTML5 页面作为营销界新宠儿,“多快好省”的杰出代表,其灵活性高.开发成本低且制作周期短的种种特性使其在移动营销领域大放异彩. 此前, ...

  4. seajs实现JavaScript 的 模块开发及按模块加载

    seajs实现了JavaScript 的 模块开发及按模块加载.用来解决繁琐的js命名冲突,文件依赖等问题,其主要目的是令JavaScript开发模块化并可以轻松愉悦进行加载. 官方文档:http:/ ...

  5. FP error code老是忘记的看这里:只给出最常用的几个。

    把常见的几个记牢,不要在比赛时纠结. 错误2:输入文件未找到. 错误106:数据读入的格式错误,往往是读入语句出错. 错误200:被零除. 错误201:范围检查错误,数组越界. 错误202:栈溢出. ...

  6. 【转发】关于Java性能的9个谬论

    转载请注明出处,感谢大家的支持!本文来自优优码:http://www.uucode.net/201502/9%e4%b8%aa%e8%b0%ac%e8%ae%ba Java的性能有某种黑魔法之称.部分 ...

  7. springmvc HandlerInterceptoer WebRequestInterceptor MethodInterceptor使用

    HandlerInterceptoer拦截的是请求地址,所以针对请求地址做一些验证.预处理等操作比较合适.

  8. PHP 使用 debug_print_backtrace() 或 debug_backtrace() 打印栈轨迹

    <?php /* 使用debug_print_backtrace() 或 debug_backtrace() 打印栈轨迹 */ function fun1() { print "Hel ...

  9. 掌握Thinkphp3.2.0----标签库

    1.什么是内置标签?什么是标签扩展库? Cx.class.php 和 Html.class.php 2.怎么加载非内置标签,怎么使用? 两种方式加载 3.怎么扩展自定义的标签? 仿照Html.clas ...

  10. Java中Properties类知识的总结

    一.Properties类与配置文件 注意:是一个Map集合,该集合中的键值对都是字符串.该集合通常用于对键值对形式的配置文件进行操作. 配置文件:将软件中可变的部分数据可以定义到一个文件中,方便以后 ...