SMO(Sequential Minimal Optimization) 伪代码(注释)
Algorithm: Simplified SMO
这个版本是简化版的,并没有采用启发式选择,但是比较容易理解。
输入:
C: 调和系数
tol: 容差 (tolerance)
max passes: $\alpha$ 不改变时的最大迭代次数
$(x^{(1)}, y^{(1)}), . . . , (x^{(m)}, y^{(m)})$: 训练样本
输出:
$\alpha\in\mathbf{R}^m$: 所要求解的 Lagrange 乘子, $\alpha=(\alpha_1,\alpha_2,...,\alpha_m)$
$b\in\mathbf{R}$ : 阈值 b
采用的数学符号标准为:
1、上标表示序数(例如 $(x^{(m)},y^{(m)})$ 表示输入的第m个样本点与类别)
2、下标表示向量的分量或者维度(例如 $w_i$ 表示 w 的第 i 个分量)
伪代码中的变量说明:
num_changed_alphas: 改变的 $\alpha$ 分量的数目
m: 训练样本的数目
$\varepsilon$: 指定的精度
下面是伪代码($\alpha$ 初始值都为0,b 初始值也为0)
◦ 初始化 $\alpha_i = 0, i=1 \ldots m, b = 0$
◦ 初始化 passes = 0, max_passes=20
◦ 初始化 $\varepsilon = 10^{-5}$
◦ $while$ (passes < max_passes)
◦ num_changed_alphas = 0
◦ $for$ $i = 1 \ldots m$,
◦ 计算 $E_i = f(x^{(i)}) − y^{(i)}$, 公式为:$$ \begin{align*} f(x^{(i)}) &=\sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(i)} \rangle \\ E_i &= \sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(i)} \rangle-y^{(i)} \end{align*}$$
◦ $if$ $((y^{(i)}E_i < −tol$ && $\alpha_i < C)$ || $(y^{(i)}E_i > tol$ && $\alpha_i > 0))$
◦ 随机选择 $j \ne i$
◦ 计算 $E_j = f(x^{(j)}) − y^{(j)}$, 公式为:$$ \begin{align*} f(x^{(j)}) &=\sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(j)} \rangle \\ E_j &= \sum_{k=1}^{m}\alpha_k y^{(k)}\langle x^{(k)},x^{(j)} \rangle-y^{(j)} \end{align*}$$
◦ 保存旧 $\alpha$: $$\begin{align*}\alpha_i^{(old)} &= \alpha_i \\ \alpha_j^{(old)} &=\alpha_j\end{align*}$$
◦ 计算下限与上限: $L, H$, 公式为:$$\begin{cases} L=max(0,\alpha_j-\alpha_i),\; H=min(C, C+\alpha_j - \alpha_i) &if \;\; y^{(i)} \ne y^{(j)} \cr L=max(0,\alpha_j+\alpha_i-C),\; H=min(C, \alpha_j + \alpha_i) &if \;\; y^{(i)} = y^{(j)} \end{cases}$$
◦ $if \; (L == H)$
$continue$
◦ 计算 $\eta$, 公式为: $$\eta=2\langle x^{(i)},x^{(j)} \rangle - \langle x^{(i)},x^{(i)} \rangle - \langle x^{(j)},x^{(j)} \rangle$$
◦ $if$ $(\eta \ge 0)$
$continue$
◦ 计算新的 $\alpha_j$, 公式为: $$\alpha_j^{(new,unc)} := \alpha_j - \frac{y^{(j)}(E_i - E_j)}{\eta}$$
◦ 剪辑新的 $\alpha_j$, 公式为:$$\alpha_j^{(new)} := \begin{cases}H &if \;\; \alpha_j^{(new,unc)}\gt H \cr \alpha_j &if \;\; L\le\alpha_j^{(new,unc)}\le H \cr L &if \;\; \alpha_j^{(new,unc)}\lt L\end{cases}$$
◦ $if$ $(\left|\alpha_j^{(new)} − \alpha_j^{(old)} \right| \lt \varepsilon)$
$continue$
◦ 计算 $\alpha_i^{(new)}$, 公式为:$$\alpha_i^{(new)} := \alpha_i^{(old)}+y^{(i)}y^{(j)}(\alpha_j^{(old)}-\alpha_j^{(new)})$$
◦ 分别计算 $b_1$ 和 $b_2$,公式为:
$ b_1^{(new)} :=b^{(old)} - E_i - y^{(i)}(\alpha_i^{(new)} - \alpha_i^{(old)})\langle x^{(i)},x^{(i)} \rangle - y^{(j)}(\alpha_j^{(new)} - \alpha_j^{(old)})\langle x^{(i)},x^{(j)} \rangle $
$ b_2^{(new)} :=b^{(old)} - E_j - y^{(i)}(\alpha_i^{(new)} - \alpha_i^{(old)})\langle x^{(i)},x^{(j)} \rangle - y^{(j)}(\alpha_j^{(new)} - \alpha_j^{(old)})\langle x^{(j)},x^{(j)} \rangle $
◦ 计算 b,公式为:$$ b := \begin{cases} b_1 &if \;\; 0 \lt \alpha_i^{(new)} \lt C \cr b_2 &if \;\;0 \lt \alpha_j^{(new)} \lt C \cr \frac{b_1+b_2}{2} &otherwise \end{cases} $$
◦ num_changed_alphas := num_changed_alphas + 1
◦ $end$ $if$
◦ $end$ $for$
◦ $if$ (num changed alphas == 0) //此时 $\alpha$ 的每一个分量都不发生变化了,然后看外层循环(第一个变量)发生变化后的状况
passes := passes + 1
◦ $else$
passes := 0
◦ $end$ $if$
◦ $end \; while$
SMO(Sequential Minimal Optimization) 伪代码(注释)的更多相关文章
- SMO优化算法(Sequential minimal optimization)
原文:http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988419.html SMO算法由Microsoft Research的John C. ...
- Jordan Lecture Note-8: The Sequential Minimal Optimization Algorithm (SMO).
The Sequential Minimal Optimization Algorithm (SMO) 本文主要介绍用于解决SVM对偶模型的算法,它于1998年由John Platt在论文“Seque ...
- sequential minimal optimization,SMO for SVM, (MATLAB code)
function model = SMOforSVM(X, y, C ) %sequential minimal optimization,SMO tol = 0.001; maxIters = 30 ...
- Support Vector Machine (2) : Sequential Minimal Optimization
目录 Support Vector Machine (1) : 简单SVM原理 Support Vector Machine (2) : Sequential Minimal Optimization ...
- Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines 论文研读
摘要 本文提出了一种用于训练支持向量机的新算法:序列最小优化算法(SMO).训练支持向量机需要解决非常大的二 次规划(QP)优化问题.SMO 将这个大的 QP 问题分解为一系列最小的 QP 问题.这些 ...
- Sequential Minimal Optimization (SMO) 算法
SVM 最终关于 $a$ 目标函数为凸优化问题,该问题具有全局最优解,许多最优化算法都可以解决该问题,但当样本容量相对很大时,通常采用 SMO 算法(比如 LIBSVM),该算法为启发式算法,考虑在约 ...
- Sequential Minimal Optimization(SMO,序列最小优化算法)初探
什么是SVM SVM是Support Vector Machine(支持向量机)的英文缩写,是上世纪九十年代兴起的一种机器学习算法,在目前神经网络大行其道的情况下依然保持着生命力.有人说现在是神经网络 ...
- SMO算法(转)
作者:[已重置]链接:https://www.zhihu.com/question/40546280/answer/88539689来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请 ...
- SMO算法精解
本文参考自:https://www.zhihu.com/question/40546280/answer/88539689 解决svm首先将原始问题转化到对偶问题,而对偶问题则是一个凸二次规划问题,理 ...
随机推荐
- ASP.NET-FineUI开发实践-3
1.参照模拟数据库分页通过缓存重写内存分页,优化页面响应速度 Grid的响应速度是硬伤,我写了个通用方法把所有数据放在缓存中模拟数据库分页,比自带的缓存分页快很多,这里贴上实体类的通用方法,DataT ...
- OD: Ring0 & Kernel
开发技术讲究封装与模块化,安全技术强调底层安全性.安全技术需要打开封装.追根溯源! <0day 安全:软件漏洞分析技术(第2版)> 第21章 探索 Ring0 笔记 Intel x86 系 ...
- 刚接触js感觉好吃力啊
我是一个新手,最近刚刚开始学习js这门语言,感觉好难,有一种无从下手的感觉,不知道应该从哪里学习,虽然也看了很多的书,但是对于一个没有计算机基础的人来说,真的是一种煎熬,每一个名词都要去查.万事开头难 ...
- 【转】node-webkit:开发桌面+WEB混合型应用的神器
顾名思义,node-webkit就是nodejs+webkit. 这样做的好处显而易见,核心奥义在于,用nodejs来进行本地化调用,用webkit来解析和执行HTML+JS. 快速上手 下载node ...
- Nginx环境下常见的开源项目重写汇总
我们做PHP开发的,作者寒冰我觉得大部分时候都在跟开源的系统打交道.比如:Discuz.PHPCMS.ecshop.wordpress等开源系统.一般我们都是在本地搭建测试环境,用的web服务器都是a ...
- JAVA List与数组间相互转换
1.list转数组 例如: List<String> list = new ArrayList<String>(); list.add("aa"); li ...
- maven中pom.xml
1. GroupID是项目组织唯一的标识符,实际对应JAVA的包的结构,是main目录里java的目录结构. ArtifactID就是项目的唯一的标识符,实际对应项目的名称,就是项目根目录的名称.一般 ...
- JAVA多态需要注意的一些问题
public class MainTest { static class A { public int i; public void f() { System.out.println("AA ...
- QT5-控件-QLabel和QLCDNumber-标签显示图片或者视频,LCD用于上位机不错
#ifndef MAINWINDOW_H #define MAINWINDOW_H #include <QMainWindow> #include <QLabel> #incl ...
- InnoDB概览
InnoDB 采用了MVCC来支持高并发,并且实现了四个标准的隔离级别.其默认级别是REPEATABLE READ(可重复读) ,并且,通过间隙锁(next-key locking)策略防止幻读的出现 ...