SVM-支持向量机总结
一、SVM简介
(一)Support Vector Machine
- 支持向量机(SVM:Support Vector Machine)是机器学习中常见的一种分类算法。
- 线性分类器,也可以叫做感知机,其中机表示的是一种算法。
- 在实际应用中,我们往往遇到这样的问题:
给定一些数据点,它们分别属于两个不同的类。我们现在要找到一个线性分类器把这些数据分成AB两类。最简单的办法当然是,画一条线,然后将它们分成两类。线的一侧,属于A类,另一侧,则属于B类。SVM算法可以让我们找到这样一个最佳的线(超平面),来划分数据。相比于KNN之类的算法,SVM算法只需要计算一次,得出最佳线(超平面)即可。面对测试数据,只需要判断数据点落在线的哪一侧,就可以知道该数据点所属分类了。比起KNN每次都需要计算一遍邻居点的分类,SVM算法显得简单无比。
(二)Sklearn参数详解—SVM
sklearn.svm.LinearSVC(penalty='l2', loss='squared_hinge', dual=True, tol=0.0001, C=1.0, multi_class='ovr', fit_intercept=True, intercept_scaling=1, class_weight=None, verbose=0, random_state=None, max_iter=1000)
penalty:
正则化参数,L1和L2两种参数可选,仅LinearSVC有。loss:
损失函数,有‘hinge’和‘squared_hinge’两种可选,前者又称L1损失,后者称为L2损失,默认是是’squared_hinge’,其中hinge是SVM的标准损失,squared_hinge是hinge的平方。dual:
是否转化为对偶问题求解,默认是True。tol:
残差收敛条件,默认是0.0001,与LR中的一致。C:
惩罚系数,用来控制损失函数的惩罚系数,类似于LR中的正则化系数。multi_class:
负责多分类问题中分类策略制定,有‘ovr’和‘crammer_singer’ 两种参数值可选,默认值是’ovr’,'ovr'的分类原则是将待分类中的某一类当作正类,其他全部归为负类,通过这样求取得到每个类别作为正类时的正确率,取正确率最高的那个类别为正类;‘crammer_singer’ 是直接针对目标函数设置多个参数值,最后进行优化,得到不同类别的参数值大小。fit_intercept:
是否计算截距,与LR模型中的意思一致。class_weight:
与其他模型中参数含义一样,也是用来处理不平衡样本数据的,可以直接以字典的形式指定不同类别的权重,也可以使用balanced参数值。verbose:
是否冗余,默认是False.random_state:
随机种子的大小。max_iter:
最大迭代次数,默认是1000。
对象
coef_
:各特征的系数(重要性)。intercept_
:截距的大小(常数值)。
sklearn.svm.NuSVC(nu=0.5, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None))
nu
:训练误差部分的上限和支持向量部分的下限,取值在(0,1)之间,默认是0.5kernel
:核函数,核函数是用来将非线性问题转化为线性问题的一种方法,默认是“rbf”核函数,常用的核函数有以下几种:
表示 |
解释 |
---|---|
linear |
线性核函数 |
poly |
多项式核函数 |
rbf |
高斯核函数 |
sigmod |
sigmod核函数 |
precomputed |
自定义核函数 |
degree
:当核函数是多项式核函数的时候,用来控制函数的最高次数。(多项式核函数是将低维的输入空间映射到高维的特征空间)gamma
:核函数系数,默认是“auto”,即特征维度的倒数。coef0
:核函数常数值(y=kx+b中的b值),只有‘poly’和‘sigmoid’核函数有,默认值是0。max_iter
:最大迭代次数,默认值是-1,即没有限制。probability
:是否使用概率估计,默认是False。decision_function_shape
:与'multi_class'参数含义类似。cache_size
:缓冲大小,用来限制计算量大小,默认是200M。
对象
support_
:以数组的形式返回支持向量的索引。support_vectors_
:返回支持向量。n_support_
:每个类别支持向量的个数。dual_coef_
:支持向量系数。coef_
:每个特征系数(重要性),只有核函数是LinearSVC的时候可用。intercept_
:截距值(常数值)。
sklearn.svm.SVC(C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None)
C:
惩罚系数。
SVC和NuSVC方法基本一致,唯一区别就是损失函数的度量方式不同(NuSVC中的nu参数和SVC中的C参数)
decision_function(X)
:获取数据集X到分离超平面的距离。fit(X, y)
:在数据集(X,y)上使用SVM模型。get_params([deep])
:获取模型的参数。predict(X)
:预测数据值X的标签。score(X,y)
:返回给定测试集和对应标签的平均准确率。
二、感知机简介
三、超平面
- 当我们的数据点集是二维的时候(意味着有两个特征),我们只需要用一根线,就可以将数据分成两个部分。
- 当我们的数据点集是三维的时候(意味着有三个特征),我们需要一个二维的平面,才能把数据分成两个部分。
- 当我们的数据点集为N维的时候(意味着有N个特征),此时我们需要一个N-1维的超平面,才可以把数据分成两个部分。
- 我们有无数个超平面可以将数据集分成两个部分,我们应该怎么找到最佳的分割线呢?https://www.kesci.com/home/project/5cf08e4dc84534002b03cdfd
虚线中心的绿色实线,就是我们在保持超平面方向不变的时候,得到的最佳超平面。
两条虚线之间的垂直距离,代表这这个超平面的分类间隔。
改变超平面的方向的时候,我们会得到不同方向的最佳超平面。
- “分类间隔”最大的那个超平面,就是真正的最佳超平面。即最佳超平面为两条虚线的中轴线
- 该平面所对应的两侧虚线穿过的样本点,就是SVM中的支持样本点,被称为“支持向量”
四、核函数
(一)核函数介绍
https://blog.csdn.net/batuwuhanpei/article/details/52354822
实际生活中,我们会碰到很多线性不可分的数据集,将其放在一个高维空间中去就有可能变得可分。如图所示:
理论上任意的数据样本都能够找到一个合适的映射,使得这些在低维空间不能划分的样本到高维空间中之后能够线性可分。以二维平面的数据为例,我们可以找到一个映射,将二维平面的点映射到三维平面之中。
常见的核函数有:
- Linear Kernel 线性核函数
- Polynomial Kernel 多项式核函数
- Radial Basis Function (RBF) kernel 径向基核函数(RBF) …………
常用核函数公式如下:
(二)核函数的选择
在选用核函数的时候,希望通过将输入空间内线性不可分的数据映射到一个高纬的特征空间内使得数据在特征空间内是可分的,如果我们对我们的数据有一定的先验知识,就利用先验来选择符合数据分布的核函数;如果不知道的话,通常使用交叉验证的方法,来试用不同的核函数,误差最下的即为效果最好的核函数,或者也可以将多个核函数结合起来,形成混合核函数。在吴恩达的课上,也曾经给出过一系列的选择核函数的方法:
- 如果特征的数量大到和样本数量差不多,则选用LR或者线性核的SVM;
- 如果特征的数量小,样本的数量正常,则选用SVM+高斯核函数;
- 如果特征的数量小,而样本的数量很大,则需要手工添加一些特征从而变成第一种情况。
五、乳腺癌数据集(选取2特征)实验
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm
from sklearn.datasets import make_blobs,load_breast_cancer print(load_breast_cancer().keys())
# dict_keys(['data', 'target', 'target_names', 'DESCR', 'feature_names', 'filename'])
data1 = load_breast_cancer().data
target1 = load_breast_cancer().target print('data1,target1',data1.shape,target1.shape)
# data1,target1 (569, 30) (569,)
#一共有三十列特征,可以任意选择特征的数目,这里以二维为例
data = load_breast_cancer().data[:, 0:2]
target = load_breast_cancer().target
print(np.unique(target)) #创建SVM模型
#选择核函数为'linear'
#C: 目标函数的惩罚系数C,用来平衡分类间隔margin和错分样本的,default C = 1.0;
#kernel:参数选择有RBF, Linear, Poly, Sigmoid, 默认的是"RBF" model = svm.SVC(kernel='linear',C=10000) #使用模型训练数据集
model.fit(data, target) #绘制数据集散点图
# plt.scatter(data[:, 0], data[:, 1], c=target)
plt.scatter(data[:, 0], data[:, 1], c=target, s=30, cmap=plt.cm.prism) #创建坐标轴刻度线
axis = plt.gca()
x_limit = axis.get_xlim()
y_limit = axis.get_ylim() x = np.linspace(x_limit[0], x_limit[1], 50)
y = np.linspace(y_limit[0], y_limit[1], 50)
print('x,y',x.shape,y.shape)#x,y (50,) (50,)
X, Y = np.meshgrid(x, y)
print('X, Y ',X.shape, Y.shape )#X, Y (50, 50) (50, 50)
xy = np.c_[X.ravel(), Y.ravel()]
print('xy',xy.shape)#xy (2500, 2) # 创建最佳分割线
decision_line = model.decision_function(xy).reshape(Y.shape) #计算样本点到分割超平面的函数距离
# 绘制分割线的图
axis.contour(X, Y, decision_line, colors = 'k', levels=[0],
linestyles=['-']) # 展示一下支持向量点
plt.scatter(model.support_vectors_[:, 0], model.support_vectors_[:, 1], s=100, linewidth=1, facecolors='none', edgecolors='k') plt.show()
(一)线性完全可分问题 hard margin classfication
https://www.jianshu.com/p/6ebdfe0cf1a4
# coding = utf-8
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm
from sklearn.datasets import make_blobs a,b = make_blobs()
print('make_blobs()',a.shape,b.shape)#make_blobs() (100, 2) (100,) x,y = make_blobs(n_samples=40,centers=2,random_state=9)
print('x,y',x.shape,y.shape)#x,y (40, 2) (40,) '''
centers就是数据分布点,我们现在解决的是二分类问题,\
那么就需要两个center,数据点都分别围绕着center进行分布
random_state确定一个数字后,每次运行都会出现相同的随机数。
'''
plt.scatter(x[:,0],x[:,1],c = y,cmap=plt.cm.Paired)
'''
plt.scatter中的c代表color,cmap代表colormap,可选
s是size, c=y是标签分类和plt.cm.Paired联合使用
'''
plt.show()
(二)线性不可分SVM
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm
import warnings
warnings.filterwarnings('ignore')
np.random.seed(0)
X=np.random.randn(300,2)
Y=np.logical_xor(X[:,0]>0, X[:,1]>0)
xx,yy = np.meshgrid(np.linspace(-3,3,500),np.linspace(-3,3,500))
#fit
clf = svm.SVC() #所有参数采用默认
clf.fit(X,Y)
xy = np.vstack([xx.ravel(),yy.ravel()]).T
Z=clf.decision_function(xy).reshape(xx.shape)
plt.imshow(Z, interpolation='nearest',extent=(xx.min(),xx.max(), yy.min(),yy.max(),),aspect='auto',origin='lower',cmap=plt.cm.PuOr_r) #这一段是背景设置
plt.contour(xx,yy,Z,levels=[0],linewidths=2,linestyle='-')
plt.scatter(X[:,0],X[:,1],s=30,c=Y,cmap=plt.cm.Paired, edgecolors='k')
plt.show()
(三)SVM-人脸识别
http://www.hongweipeng.com/index.php/archives/1406/
(四)make_blobs实验
https://www.jianshu.com/p/f7d2ed8aac54
六、拉格朗日乘子法
https://blog.csdn.net/on2way/article/details/47729419
- 有拉格朗日乘法的地方,必然是一个组合优化问题。
- 凸的就是开口朝一个方向(向上或向下),拉格朗日法是一定适合于凸问题的,不一定适合于其他问题。
- 有了约束(即等式 f(x)=2x**2+3y**2+7z**2,其中约束条件为2x+y=3,x+3z=9)不能直接求导,那么我们把这个约束乘一个系数加到目标函数中去,这样就相当于既考虑了原目标函数,也考虑了约束条件,即f(x)=2x**2+3y**2+7z**2+a(2x+y-3)+b(x+3z-9),分别对x\y\z求导等于零,带入约束条件,得到a\b;
七、KKT
- 带有不等式的约束问题怎么办?就需要用更一般化的拉格朗日乘法即KKT条件来解决这种问题了。
- KKT条件是解决最优化问题的时用到的一种方法,求其在指定作用域上的全局最小值。https://blog.csdn.net/on2way/article/details/47729419
- 任何原始问题约束条件无非最多3种,等式约束,大于号约束,小于号约束,而这三种最终通过将约束方程化简化为两类:约束方程等于0和约束方程小于0。
八、cancer数据集PCA
九、cancer数据集实验
十、总结
在分类问题中,SVM是一种很优秀的机器学习算法。
优点
- 可以有效的分离高维度的数据
- 更节省内存空间,因为只需要用向量来创建最佳超平面
- 是针对于可分离数据集的最佳方法
缺点
- 当数据量级较大的时候,分类效果不好
- 针对于不可分类的数据集,效果有些不太好
SVM-支持向量机总结的更多相关文章
- 机器学习实战 - 读书笔记(06) – SVM支持向量机
前言 最近在看Peter Harrington写的"机器学习实战",这是我的学习笔记,这次是第6章:SVM 支持向量机. 支持向量机不是很好被理解,主要是因为里面涉及到了许多数学知 ...
- Python实现SVM(支持向量机)
Python实现SVM(支持向量机) 运行环境 Pyhton3 numpy(科学计算包) matplotlib(画图所需,不画图可不必) 计算过程 st=>start: 开始 e=>end ...
- SVM支持向量机的基本原理
SVM支持向量机的基本原理 对于很多分类问题,例如最简单的,一个平面上的两类不同的点,如何将它用一条直线分开?在平面上我们可能无法实现,但是如果通过某种映射,将这些点映射到其它空间(比如说球面上等), ...
- 6-11 SVM支持向量机2
SVM支持向量机的核:线性核.进行预测的时候我们需要把正负样本的数据装载在一起,同时我们label标签也要把正负样本的数据全部打上一个label. 第四步,开始训练和预测.ml(machine lea ...
- 6-10 SVM支持向量机1
都是特征加上分类器.还将为大家介绍如何对这个数据进行训练.如何训练得到这样一组数据. 其实SVM支持向量机,它的本质仍然是一个分类器.既然是一个分类器,它就具有分类的功能.我们可以使用一条直线来完成分 ...
- SVM 支持向量机算法-实战篇
公号:码农充电站pro 主页:https://codeshellme.github.io 上一篇介绍了 SVM 的原理和一些基本概念,本篇来介绍如何用 SVM 处理实际问题. 1,SVM 的实现 SV ...
- [分类算法] :SVM支持向量机
Support vector machines 支持向量机,简称SVM 分类算法的目的是学会一个分类函数或者分类模型(分类器),能够把数据库中的数据项映射给定类别中的某一个,从而可以预测未知类别. S ...
- paper 25 :SVM支持向量机是什么意思?
转载来源:https://www.zhihu.com/question/21094489 作者:余洋链接:https://www.zhihu.com/question/21094489/answer/ ...
- 【机器学习算法-python实现】svm支持向量机(1)—理论知识介绍
(转载请注明出处:http://blog.csdn.net/buptgshengod) 1.背景 强烈推荐阅读(http://www.cnblogs.com/jerrylead/archiv ...
- SVM 支持向量机
学习策略:间隔最大化(解凸二次规划的问题) 对于上图,如果采用感知机,可以找到无数条分界线区分正负类,SVM目的就是找到一个margin 最大的 classifier,因此这个分界线(超平 ...
随机推荐
- 解决IE浏览器没有网络的情况
计算机能够连接到网络,但是IE浏览器却显示没有网络. 解决方案: 设置 >> IE internet选项: 选择“高级”: 选择“重置”: 勾选“删除个人设置”,点击重置: 重新打开IE, ...
- 使用postman调用webservice接口
通过wsdl查看接口地址: 填入xml报文: 配置相应的headers:
- LeetCode_303. Range Sum Query - Immutable
303. Range Sum Query - Immutable Easy Given an integer array nums, find the sum of the elements betw ...
- win8(x64)下,重新安装delphi 2007时出现“Invalid Serial Number”,如何解决?
1)在添加删除程序里卸载delphi 2007 2)删除C:\ProgramData\CodeGear 3)删除C:\Program Files (x86)CodeGear 4)删除d:\Progra ...
- Java分布式:分布式事务
Java分布式:分布式事务 分布式事务 分布式事务就是指事务的参与者.支持事务的服务器.资源服务器以及事务管理器分别位于不同的分布式系统的不同节点之上.简单的说,就是一次大的操作由不同的小操作组成,这 ...
- 系统调用system call以及strace/dtruss
计算机系统的各种硬件资源是有限的,在现代多任务操作系统上同时运行的多个进程都需要访问这些资源,进程是不允许直接操作这些资源的,所有对这些资源的访问都必须有操作系统控制.也就是说操作系统是使用这些资源的 ...
- Python爬取网址中多个页面的信息
通过上一篇博客了解到爬取数据的操作,但对于存在多个页面的网址来说,使用上一篇博客中的代码爬取下来的资料并不完整.接下来就是讲解该如何爬取之后的页面信息. 一.审查元素 鼠标移至页码处右键,选择检查元素 ...
- Winsock.简单UDP
PS:vs2017 编译C++代码 支持 XP:项目属性-->链接器-->系统-->需要的最小版本--> 输入 "5.1" 1.ZC:测试:c向s 发送长度 ...
- WXS-运算符
- htm5 css学习笔记整理
点击链接后退页面: <a href="javascript:history.go(-1)">回到上一个网页</a> ——修改placeholder提示的样式 ...