SVM学习笔记-线性支撑向量机
对于PLA算法来说,最终得到哪一条线是不一定的,取决于算法scan数据的过程。
从VC bound的角度来说,上述三条线的复杂度是一样的
Eout(w)≤Ein0+Ω(H)dvc=d+1
直观来看,最右边的线是比较好的hyperplane。
为什么最右边的分隔面最好?
对于测量误差的容忍度是最好的。例如对于每张图片中左下角的样本点,当未来要判定与该点非常接近的点(有可能它们的feature本来就是一样的,只不过因为测量的误差的存在,所以feature变得有点不同了)的label的时候,最右边的hyperplane对这些误差会有最大的容忍度。
tolerate more noise ⟶ more robust to overfitting
当对测量误差有更大的容忍度的时候,就能更加避免过拟合的情况出现。
所以我们想要找的超平面就是能够更大的容忍测量误差的超平面。直观上来说,就是找这样的一个超平面,离这个超平面最近的点的到这个超平面的距离也是很大的。
这里写图片描述
“胖”分割面
如下图所以,我们想要找的是“最胖”的那条线。
这里写图片描述
最大间隔分类超平面
maxwsubject to fatness(w)w classifies every (xn,yn) correctlyfatness(w)=minn−1,⋯,N distance(xn,w)
即我们要找一条线w,首先这条线要正确的划分每一个实例(w classifies every (xn,yn) correctly)。其次这条线要是最”胖”的(maxw fatness(w))。线w的”胖”的衡量方法是:到所有的点中距离最近的点的长度作为该w的fatness(胖瘦程度)。一句话:找能正确划分数据的最胖的线。
fatness: 正式的表达为margin
correctness: 要求yn=sign(wTxn)
上述的表达可以进一步数学化为:
maxwsubject to margin(w) every ynwTxn>0margin(w)=minn−1,⋯,N distance(xn,w)
goal: 找最大间隔(margin)的分类超平面
最大间隔问题
点到超平面的距离
上面提到了我们要找最“胖”的线,这里涉及到了一个距离的计算。那么怎么算一个点x到平面wTx+b=0的距离。
这里写图片描述
考虑在平面上的两个点x′,x′′, 那么有
wTx′=−b, wTx′′=−b
两式相减:
wT(x′′−x′)vector www.txfenfenc11.cn on hyperplane=0
所以可以得到w是该平面的法向量。(x′′−x′是该平面的任意向量,w和该平面的任意向量垂直)。
那么x到平面的距离公式如下(投影):
distance(x,b,w)=|wT||w||(x−x′)|=1||w|||wTx+b|
其中,b,w代表平面。距离即是求x−x′在w上投影的长度。第二步化简用到wTx′=−b。
到分隔超平面的距离
上一节中推导了点到平面的距离计算方法,
distance(x,b,w)=1||w|||wTx+b|
对于我们最终想要得到的分隔超平面,我们可以得到如下的结果:
yn(wTxn+b)>0
那么任意一个点到分隔超平面的距离可以变为:
distance(xn,b,w)=1||w||yn(wTxn+b)
即我们想要做的事情变为:
maxw.bsubject to margin(w,b) every yn(wTxn+b)>0margin(w,b)=minn=1,⋯,N 1||w||yn(wTxn+b)
我们最终想要找的是一个hyperplane,也就是wTx+b=0(我们现在在选择它的系数w和b)。情况是这样的: wTx+b=0和3wTx+3b=0是没有什么差别的,只是进行了系数的放缩,其实是一个超平面,在二维就表示一条直线。那么在这里我们考虑一个很特别的放缩使得:
minn=1,⋯,N yn(wTxn+b)=1
这样的放缩总是可以做到的。这样的话:
margin(w,b)=1||w||
原来的问题变为:
maxw.bsubject to 1||w|| every yn(wTxn+b)>0minn=1,⋯,N yn(wTxn+b)=1
进一步可以变为:
maxw.bs.t. 1||w|| minn=1,⋯,N yn(wTxn+b)=1
条件minn=1,⋯,N yn(wTxn+b) www.wmyl11.com =1包括every www.zbcppt.com yn(wTxn+b)>0, 所以后者可以去掉。
最大间隔问题
我们进一步得到了描述比较简单的间隔最大化问题的需求。
maxw.bs.t. 1||w|| www.caihonyule.com/ minn=1,⋯,N www.chushiyl.cn/ yn(wTxn+b)=1
现在的目标是要把条件中的min操作去掉。我们将条件minn=1,⋯,N yn(wTxn+b)=1放宽至:for all n都有yn(wTxn+b)≥1。现在我们担心的问题是:原来的条件要求最小的yn(wTxn+b)等于1, 而现在要求所有的yn(wTxn+b)大于等于1。那么在新的条件下会不会正好存在这样的w使得所有的yn(wTxn+b)都大于1了,这样我们放宽条件就出了问题,因为求得的解不在满足原来的条件了。
以下将证明,即使放宽了条件,最佳解依然满足
反证法:
如果最佳解使得所有的都是大于1的, 例如, 那么我们进行一下缩放可知也是放松后问题的解。但是此时显然比会有更大的。 所以假设:最佳解使得所有的都是大于1, 是错误的。
现在问题的形式变为:
变为最小为问题:
支撑向量机
一个特例
这里写图片描述
图中的样本点和信息如下:
根据最优化问题的要求我们需要满足一下4个条件:
根据以上的两个式子可以得到:
所以我们可以令。这样的话不仅仅满足了条件,也使得target function取得了最小的值。其中b的值可以通过计算一个范围得到。这样我们就得到了我们最想要的hyperplane:。这就是我们想要找的支撑向量机。
此时。
这里写图片描述
我们可以看到有一些离hyperplane很近的点,也就是如图用方框框起来的那些点。这些点就可以确定我们想要的hyperplane,我们把这些点叫做Support Vector。可以理解为这些支撑向量就可以确定我们想要的分割超平面,而不需要其他的点。
SVM的一般解法
通过分析可知,我们想要最小化的问题是个的二次函数,该问题的条件是的线性一次式。我们把这样的问题叫做二次规划(Quadratic programming)
所以我们的一个解法是将我们的问题表示为二次规划的标准形式,然后就可以调用二次规划的包进行运算。
标准的二次规划问题
所以我们要确定其中的系数
线性可分的硬间隔SVM算法
使用二次规划解决SVM
表示为规范的问题,
return as
note:
hard-margin:表明我们坚持要将正例和负例完全的分开。
linear:表明我们是在使用来训练SVM,我们得到的是在空间中的分割超平面。而没有经过任何的特转换
所以如果我们想要一个非线性的hyperplane,可以使用
SVM学习笔记-线性支撑向量机的更多相关文章
- 统计学习方法:支撑向量机(SVM)
作者:桂. 时间:2017-05-13 21:52:14 链接:http://www.cnblogs.com/xingshansi/p/6850684.html 前言 主要记录SVM的相关知识,参考 ...
- 8.支撑向量机SVM
1.什么是SVM 下面我们就来介绍一些SVM(Support Vector Machine),首先什么是SVM,它是做什么的?SVM,中文名是支撑向量机,既可以解决分类问题,也可以解决回归问题,我们来 ...
- 走过路过不要错过 包你一文看懂支撑向量机SVM
假设我们要判断一个人是否得癌症,比如下图:红色得癌症,蓝色不得. 看一下上图,要把红色的点和蓝色的点分开,可以画出无数条直线.上图里黄色的分割更好还是绿色的分割更好呢?直觉上一看,就是绿色的线更好.对 ...
- 支撑向量机(SVM)
转载自http://blog.csdn.net/passball/article/details/7661887,写的很好,虽然那人也是转了别人的做了整理(最原始文章来自http://www.blog ...
- SVM支撑向量机原理
转自:http://blog.csdn.net/v_july_v/article/details/7624837 目录(?)[-] 支持向量机通俗导论理解SVM的三层境界 前言 第一层了解SVM 1分 ...
- SVM学习笔记(一)
支持向量机即Support Vector Machine,简称SVM.一听这个名字,就有眩晕的感觉.支持(Support).向量(Vector).机器(Machine),这三个毫无关联的词,硬生生地凑 ...
- SVM学习笔记
一.SVM概述 支持向量机(support vector machine)是一系列的监督学习算法,能用于分类.回归分析.原本的SVM是个二分类算法,通过引入“OVO”或者“OVR”可以扩展到多分类问题 ...
- 模式识别笔记3-支持向量机SVM
1. 线性SVM 对两类点的划分问题,这里对比下逻辑回归和SVM的区别: 逻辑回归的思想是,将所有点到决策平面的距离作为损失来进行训练,目标是到决策平面的距离和最小 SVM的思想是,只关注支持向量(图 ...
- 第11章 支撑向量机SVM
Support Vector Machine , 问题:如果决策边界不唯一 , , , , , , , , s.t.(such that):之前都是全局最优化问题,这次是有条件的最优化问题 har ...
随机推荐
- BZOJ3252 攻略 贪心、长链剖分
传送门 给树竟直接给父子关系!!!真良心 首先一个贪心策略:每一次选择的链一定是所有链中权值最大的.这应该比较显然 那么我们接下来考虑如何维护这个贪心.我们可以使用长链剖分进行维护,对权值进行长链剖分 ...
- WPF中的Bitmap与byte
原文:WPF中的Bitmap与byte public MainWindow() { InitializeComponent(); byte[] b = GetPictureData(@"F: ...
- NoSql的三大基石:CAP理论&BASE&最终一致性
关系型数据库的局限 NoSql出现在关系型数据库之后,主要是为了解决关系型数据库的短板,我们先来看看随着软件行业的发展,关系型数据库面临了哪些挑战: 1.高并发 一个最典型的就是电商网站,例如双11, ...
- ABP从入门到精通(5):.扩展国际化语言资源
ABP的有些组件使用的该组件自带的语言包资源,所以在有些时候会因为我们当前使用的语言对应的语言包不全,而造成日志一直记录WARN.ABP给我们提供了扩展语言包资源的接口,可以解决这个问题. 以下示例代 ...
- 暴雪《争霸艾泽拉斯》*采用自适应 SSAO
在实时渲染过程中,屏幕空间环境光遮蔽 (SSAO) 常用于打造小范围环境光效果和接触阴影效果.它用于许多现代游戏,通常占用 5% 到 10% 的帧时间.在<争霸艾泽拉斯>* 游戏开发过程中 ...
- 利用Tarjan算法解决(LCA)二叉搜索树的最近公共祖先问题——数据结构
相关知识:(来自百度百科) LCA(Least Common Ancestors) 即最近公共祖先,是指在有根树中,找出某两个结点u和v最近的公共祖先. 例如: 1和7的最近公共祖先为5: 1和5的 ...
- rrd文件及rrd文件与实际数据的对比研究。
一,什么是rrd文件? 所 谓的“Round Robin” 其实是一种存储数据的方式,使用固定大小的空间来存储数据,并有一个指针指向最新的数据的位置.我们可以把用于存储数据的数据库的空间看成一个圆,上 ...
- D. Too Easy Problems
链接 [http://codeforces.com/group/1EzrFFyOc0/contest/913/problem/D] 题意 给你n个题目,考试时间T,对于每个问题都有一个ai,以及解决所 ...
- HTML编码规则
<!DOCTYPE html><!-- 为每一个HTML页面的第一行添加标准模式 --> <html lang="en-us"> <!-- ...
- 软件工程导论课后习题Github作业(把一个英文句子中的单词次序逆序,单词中字母正常排列)
Java源代码 package yly; import java.util.Scanner; public class ruanjian { public static void main(St ...