机器学习基石的泛化理论及VC维部分整理
第四讲 机器学习的可行性
一、Hoeffding's Inequality
\(P[\left | \nu -\mu \right |>\epsilon ] \leq 2exp(-2\epsilon^{2}N)\) (1)
in-sample error, 也就是在样本里出现的error,\(E_{in}\) is probably close to out-of-sample error \(E_{out}\) (within \(\epsilon\))
推出一个类似的公式: \(P[\left | E_{in} - E_{out} \right |>\epsilon ] \leq 2exp(-2\epsilon^{2}N)\) (2)
也就是说,公式(2)说明了问题可以学习的两个条件:
(1)\( E_{in} \approx E_{out}\) :这个代表 \( E_{out}\) 要和 \( E_{in}\)差不多大
(2)\( E_{in}(h) \approx 0\) :这个代表\( E_{in}\)要差不多是0
这就推出,\( h \approx f\) with respect to \(P\)
我们的学习思路就是,从一些hypothesis set 中找到最好的 \(h\),使得\( h \approx f\)
二、真实的学习
面对多个\( h \) 时,容易出现问题。
BAD Sample:\( E_{in} and E_{out} \) far away
那么,Bad Sample的概率有多大呢?我们认为,在众多的hypothesis set上的每一个\(h_{i}\),只要有一个是坏的,则都是坏的
\(P_{\mathfrak{D}}\left [ BAD \mathfrak{D} \right ] \)
\( = P_{\mathfrak{D}}\left [ BAD \mathfrak{D} for h_{1} or BAD \mathfrak{D} for h_{2} or ... or BAD \mathfrak{D} for h_{M} \right ] \)
\( \leq P_{D} \left [ BAD D for h_{1} \right ] + P_{D} \left [ BAD D for h_{2} \right] + ... + P_{D} \left [ BAD D for h_{M} \right] \)
(\( Union Bound \))
\( \leq 2exp(-2\epsilon^2N) + 2exp(-2\epsilon^2N) + ... + 2exp(-2\epsilon^2N) \)
\( = 2M\cdot exp(-2\epsilon^2N)\)
当hypothesis set为有限时,(\( M\) 固定),当\(N\)足够大时,因为后面的\(exp(-2\epsilon^2N)\) 随着\(N\)增大会变得特别小,故总体值是很小的。
此时学习是有效的。
当hypothesis set 为无穷大时,\( M = \infty \) 则有问题了,具体问题下一部分讨论。
机器学习基石的泛化理论及VC维部分整理的更多相关文章
- 机器学习基石的泛化理论及VC维部分整理(第六讲)
第六讲 第五讲主要讲了机器学习可能性,两个问题,(1)\(E_{in} 要和 E_{out}\) 有很接近,(2)\(E_{in}\)要足够小. 对于第一个假设,根据Hoefding's Inequa ...
- 机器学习基石的泛化理论及VC维部分整理(第五讲)
第五讲 Training versus Testing 一.问题的提出 \(P_{\mathcal{D}}\left [ BAD \mathcal{D} \right ] \leq 2M \cd ...
- 机器学习基石笔记:07 The VC Dimension
当N大于等于2,k大于等于3时, 易得:mH(N)被Nk-1给bound住. VC维:最小断点值-1/H能shatter的最大k值. 这里的k指的是存在k个输入能被H给shatter,不是任意k个输入 ...
- 【机器学习基石笔记】七、vc Dimension
vc demension定义: breakPoint - 1 N > vc dimension, 任意的N个,就不能任意划分 N <= vc dimension,存在N个,可以任意划分 只 ...
- 《机器学习基石》---VC维
1 VC维的定义 VC维其实就是第一个break point的之前的样本容量.标准定义是:对一个假设空间,如果存在N个样本能够被假设空间中的h按所有可能的2的N次方种形式分开,则称该假设空间能够把N个 ...
- 机器学习基石7-The VC Dimension
注: 文章中所有的图片均来自台湾大学林轩田<机器学习基石>课程. 笔记原作者:红色石头 微信公众号:AI有道 前几节课着重介绍了机器能够学习的条件并做了详细的推导和解释.机器能够学习必须满 ...
- 机器学习基石:07 The VC Dimension
当N大于等于2,k大于等于3时, 易得:mH(N)被Nk-1给bound住. VC维:最小断点值-1/H能shatter的最大k值. 这里的k指的是存在k个输入能被H给shatter,不是任意k个输入 ...
- 【转载】VC维的来龙去脉
本文转载自 火光摇曳 原文链接:VC维的来龙去脉 目录: 说说历史 Hoeffding不等式 Connection to Learning 学习可行的两个核心条件 Effective Number o ...
- 机器学习基石12-Nonlinear Transformation
注: 文章中所有的图片均来自台湾大学林轩田<机器学习基石>课程. 笔记原作者:红色石头 微信公众号:AI有道 上一节课介绍了分类问题的三种线性模型,可以用来解决binary classif ...
随机推荐
- poj 1987 树的分治
思路:1741的A1送 1. #include<iostream> #include<cstring> #include<algorithm> #include&l ...
- (转)C#模拟键盘鼠标事件
原文 1.模拟键盘事件System.Windows.Forms.SendKeys以下是 SendKeys 的一些特殊键代码表. 键 代码 BACKSPACE {BA ...
- CSS中link和@import的区别是:
Link属于html标签,而@import是CSS中提供的 在页面加载的时候,link会同时被加载,而@import引用的CSS会在页面加载完成后才会加载引用的CSS @import只有在ie5以上才 ...
- (转)linuxmint,ubuntu 下修改guake宽度方法
之前在网上找到修改guake.py的方式,但是我一直没能找到guake.py的文件,弄的我纠结,后来找到这个文章,这个确实是有效果的 Ubuntu12.04上Guake在唤出的时候滚动条会消失,主要原 ...
- css3 文本记
css3 文本 在css文本功能上主要分为三大类:字体,颜色和文本. text-shadow 设置文本阴影 text-shadow:color x-offset y-offset blur-radiu ...
- Ehcache(2.9.x) - API Developer Guide, Cache Loaders
About Cache Loaders A CacheLoader is an interface that specifies load() and loadAll() methods with a ...
- 2013年7月28日web前端学习笔记-------head相关标签应用
7月份快过完了.趁周日写写学过觉得有用的东西. 1.缩略图的展示问题,不要以为缩略图设置了width,height,就是缩略图了.比如一个300kb的500*500原始图片,用户请求web服务器后,展 ...
- 创建一个目录info,并在目录中创建一个文件test.txt,把该文件的信息读取出来,并显示出来
/*4.创建一个目录info,并在目录中创建一个文件test.txt,把该文件的信息读取出来,并显示出来*/ #import <Foundation/Foundation.h>#defin ...
- 4月8日学习笔记(js基础)
<script>标签放在<body>和<head> 放在 <head></head> 里的会比放在 <body></bod ...
- 一个封装好的C++比特数组BitArray,可以对位进行直接操作
本来仅仅只是用来做哈夫曼实验时的辅助,后来一想干脆封装好,省得以后又要用到比特位的操作. 基本用法示例: BitArray bits; bits[] = ; bits[] = ; cout<& ...