1、原始问题

假设$f(x)$,$c_i(x)$,$h_j(x)$是定义在$R^n$上的连续可微函数,$x \in R^n$。考虑以下三类优化问题。

1、无约束的优化问题:

\begin{align*}
\mathop{min}\limits_{x \in R^n}f(x)
\end{align*}

这个只需对函数求导,求极值点即可。

2、如果增加等式约束条件,则变为如下优化问题:

\begin{align*}
& \mathop{min}\limits_{x \in R^n}f(x) \\
& s.t. \quad h_j(x) = 0, \quad j = 1,2,3 \cdots ,l
\end{align*}

该优化问题可通过拉格朗日乘子法解决。定义拉格朗日函数:

\begin{align*}
\mathcal{L}(x_1,\cdots ,x_n,\beta_1,\cdots ,\beta_l) = f(x_1,\cdots ,x_n) - \sum_{j=1}^{l}\beta_jh_j(x_1,\cdots ,x_n)
\end{align*}

函数$\mathcal{L}$的极值点包含原问题的所有极值点。对原问题求解时,我们只需求出$\mathcal{L}$的所有极值点,带入$f(x)$一一检验即可。

3、增加不等式约束条件:

\begin{align*}
&\mathop{min}\limits_{x \in R^n}f(x) \tag{C.1} \\
s.t. \quad & c_i(x) \leq 0, \quad i=1,2, \cdots , k \tag{C.2} \\
& h_j(x) = 0, \quad j = 1,2,\cdots ,l \tag{C.3}
\end{align*}

下面将讨论对该问题的求解。并将该优化问题称为原始问题(primal problem)。

首先定义广义拉格朗日函数(generalized Lagrange function):

\begin{align*}
\mathcal{L} = f(x) + \sum_{i=1}^{k}\alpha_i c_i(x) + \sum_{j=1}^{l}\beta_i h_j(x) \tag{C.4}
\end{align*}

其中,$x \in R^n$。$\alpha_i$、$\beta_i$是拉格朗日乘子并且满足$\alpha_i \geq 0$。考虑关于$x$的函数:

\begin{align*}
\theta_P(x) = \mathop{max}\limits_{\alpha \geq 0, \beta }\mathcal{L}(x, \alpha , \beta ) \tag{C.5}
\end{align*}

注意,这是一个以$x$为自变量的函数。求解过程是:给定一个$x_0$,求函数$\mathcal{L(x_0, \alpha, \beta)}$的最大值,此时$x_0$是定值(也就是常数),$\alpha$、$\beta$是自变量。

下标P表示原始(primal)问题。

给定某个$x$,如果$x$违反约束条件,也就是存在某个$i$满足$c_i(x) > 0$,或者存在某个j满足$h_j(x)  \neq 0$,可以得到以下结论:

\begin{align*}
\theta_P(x) = [f(x) + \sum_{i=1}^{k}\alpha_i c_i(x) + \sum_{j=1}^{l}\beta_j h_j(x)] = +\infty \tag{C.6}
\end{align*}

因为若存在某个$i$满足$c_i(x) > 0$,可取$\alpha_i = +\infty$,若存在某个j满足$c_j(x)  \neq 0$,可取$\beta_j = = +\infty$。其余的$\alpha$和$\beta$均取0。如此可得$\theta_P(x) = +\infty$。

如果$x$满足约束条件,由约束条件(C.3)可知$\sum_{j=1}^{l}\beta_j h_j(x) = 0$,由约束条件(C.2)和$\alpha_i \geq 0$可知$\sum_{i=1}^{k}\alpha_i c_i(x)  \leq  0$。可以得到:

\begin{align*}
\theta_P(x)  = f(x)
\end{align*}

并且此时满足$\sum_{i=1}^{k}\alpha_i c_i(x)  =  0$。再由(C.2)和$\alpha_i \geq 0$可知,必须满足$\alpha_i = 0$或者$c_i(x) = 0$。这是SVM的很多重要性质的来源,如支持向量的概念。

综上所述,

\begin{align*}
\theta_P(x) = \left\{\begin{matrix}
f(x), \quad c_i(x) \leq 0 \quad and \quad h_j(x) = 0 \\
+\infty , \quad c_i(x) > 0 \quad or \quad h_j(x) \neq 0
\end{matrix}\right. \tag{C.7}
\end{align*}

所以原问题(C.1)~(C.3)等价于:

\begin{align*}
\mathop{min}\limits_{x}\theta_P(x) = \mathop{min}\limits_{x} \mathop{max}\limits_{\alpha \geq 0, \beta} \mathcal{L}(x,\alpha ,\beta) \tag{C.8}
\end{align*}

为了方便,定义原问题的最优值:

\begin{align*}
p^* = \mathop{min}\limits_{x}\theta_P(x) \tag{C.9}
\end{align*}

2、对偶问题

定义关于$\alpha$、$\beta$的函数

\begin{align*}
\theta_D(\alpha, \beta) = \mathop{min}\limits_{x}\mathcal{L}(x,\alpha,\beta) \tag{C.10}
\end{align*}

可以得到最优化问题:

\begin{align*}
& \mathop{max}\limits_{\alpha,\beta}\theta_D(\alpha,\beta) = \mathop{max}\limits_{\alpha,\beta}\mathop{min}\limits_{x}\mathcal{L}(x,\alpha,\beta) \tag{C.12} \\
& s.t. \quad \alpha_i \geq 0, \quad i = 1,2,\cdots k \tag{C.13}
\end{align*}

该问题成为原问题的对偶问题。原问题和对偶问题并不是等价的。

定义对偶问题的最优解为$d^*$,则有$d^* \geq p^*$(证明略)。

定理C.2 考虑原始问题(C.1)~(C.3)和对偶问题(C.12)~(C.13)。假设$f(x)和c_i(x)$是凸函数,$h_j(x)$是仿射函数;并且假设不等式约束$c_i(x)$是严格可行的,即存在$x$,对所有$i$有$c_i(x)<0$,则存在$x^*$,$\alpha^*$,$\beta^*$,使$x^*$是原始问题的解,$\alpha^*$,$\beta^*$是对偶问题的解,并且:

\begin{align*}
p^* = d^* = L(x^*,\alpha^*,\beta^*) \tag{C.20}
\end{align*}

定理C.3 对原问题的对偶问题, 假设$f(x)$和$c_i(x)$是凸函数,$h_j(x)$是仿射函数(一阶多项式,可理解为线性函数),并且不等式约束是严格可行的(即存在$x$,对所有的$i$有$c_i(x) < 0$),则原问题和对偶问题具有相同解的充要条件是最优解$x^*$,$\alpha^*$,$\beta^*$满足下面的KKT条件:

\begin{align*}
& \nabla_x \mathcal{L}(x^*,\alpha^*,\beta^*) = 0 \\
& \nabla_{\alpha} \mathcal{L}(x^*,\alpha^*,\beta^*) = 0 \\
& \nabla_{\beta} \mathcal{L}(x^*,\alpha^*,\beta^*) = 0 \\
& \alpha_i^* c_i(x^*) = 0 \\
& c_i(x^*) \leq 0 \\
& \alpha_i^* \geq 0 \\
& h_j(x^*) = 0
\end{align*}

参考文献:

李航:《统计学习方法》 附录C

wikipedia:拉格朗日乘数

支持向量机(SVM)必备知识(KKT、slater、对偶)

SVM系列第七讲--KKT条件

附录C--拉格朗日对偶性的更多相关文章

  1. 3. 支持向量机(SVM)拉格朗日对偶性(KKT)

    1. 感知机原理(Perceptron) 2. 感知机(Perceptron)基本形式和对偶形式实现 3. 支持向量机(SVM)拉格朗日对偶性(KKT) 4. 支持向量机(SVM)原理 5. 支持向量 ...

  2. 拉格朗日对偶性(Lagrange duality)

    目录 拉格朗日对偶性(Lagrange duality) 1. 从原始问题到对偶问题 2. 弱对偶与强对偶 3. KKT条件 Reference: 拉格朗日对偶性(Lagrange duality) ...

  3. A-08 拉格朗日对偶性

    目录 拉格朗日对偶性 一.原始问题 1.1 约束最优化问题 1.2 广义拉格朗日函数 1.3 约束条件的考虑 二.对偶问题 三.原始问题和对偶问题的关系 3.1 定理1 3.2 推论1 3.3 定理2 ...

  4. 简易解说拉格朗日对偶(Lagrange duality)(转载)

    引言:尝试用最简单易懂的描述解释清楚机器学习中会用到的拉格朗日对偶性知识,非科班出身,如有数学专业博友,望多提意见! 1.原始问题 假设是定义在上的连续可微函数(为什么要求连续可微呢,后面再说,这里不 ...

  5. 简易解说拉格朗日对偶(Lagrange duality)

    引言:尝试用最简单易懂的描述解释清楚机器学习中会用到的拉格朗日对偶性知识,非科班出身,如有数学专业博友,望多提意见! 1.原始问题 假设是定义在上的连续可微函数(为什么要求连续可微呢,后面再说,这里不 ...

  6. 支持向量机 (一): 线性可分类 svm

    支持向量机(support vector machine, 以下简称 svm)是机器学习里的重要方法,特别适用于中小型样本.非线性.高维的分类和回归问题.本系列力图展现 svm 的核心思想和完整推导过 ...

  7. svm 之 线性可分支持向量机

    定义:给定线性可分训练数据集,通过间隔最大化或等价的求解凸二次规划问题学习获得分离超平面和分类决策函数,称为线性可分支持向量机. 目录: • 函数间隔 • 几何间隔 • 间隔最大化 • 对偶算法 1. ...

  8. 【十大经典数据挖掘算法】SVM

    [十大经典数据挖掘算法]系列 C4.5 K-Means SVM Apriori EM PageRank AdaBoost kNN Naïve Bayes CART SVM(Support Vector ...

  9. [Machine Learning & Algorithm]CAML机器学习系列2:深入浅出ML之Entropy-Based家族

    声明:本博客整理自博友@zhouyong计算广告与机器学习-技术共享平台,尊重原创,欢迎感兴趣的博友查看原文. 写在前面 记得在<Pattern Recognition And Machine ...

  10. 机器学习笔记—svm算法(上)

    本文申明:本文原创,如转载请注明原文出处. 引言:上一篇我们讲到了logistic回归,今天我们来说一说与其很相似的svm算法,当然问题的讨论还是在线性可分的基础下讨论的. 很多人说svm是目前最好的 ...

随机推荐

  1. LIRe 源代码分析 1:整体结构

    ===================================================== LIRe源代码分析系列文章列表: LIRe 源代码分析 1:整体结构 LIRe 源代码分析 ...

  2. 如何在VS2013中进行Boost单元测试

    对于如何在VS2013中进行Boost单元测试,这方面资料太少.自己也因此走了不少弯路.下文将会阐述一下如何在VS2013中进行Boost单元测试. 在开始Boost单元测试之前,我们需要先安装VS2 ...

  3. iOS监听模式系列之本地通知Notification

    本地通知 本地通知是由本地应用触发的,它是基于时间行为的一种通知形式,例如闹钟定时.待办事项提醒,又或者一个应用在一段时候后不使用通常会提示用户使用此应用等都是本地通知.创建一个本地通知通常分为以下几 ...

  4. Leetcode_252_Implement Stack using Queues

    本文是在学习中的总结,欢迎转载但请注明出处:http://blog.csdn.net/pistolove/article/details/48598773 Implement the followin ...

  5. STM32中GPIO的8种工作模式

    一.推挽输出:可以输出高.低电平,连接数字器件:推挽结构一般是指两个三极管分别受两个互补信号的控制,总是在一个三极管导通的时候另一个截止.高低电平由IC的电源决定.形象点解释:推挽,就是有推有拉,任何 ...

  6. cocapods 使用及问题

    一.CocoaPods的安装 (1)使用淘宝的Ruby镜像替换官方的ruby源,在终端输入命令 $ gem sources --remove https://rubygems.org/ $ gem s ...

  7. 远离压力,提高效率——Getting things done读书笔记

    一.确定时间.空间和工具   二.收集阶段:填充工作篮         1. 这有助于你认识到自己面对的工用量.         2. 同时让你清楚"隧道的终点"在哪        ...

  8. jvm栈-运行控制,jvm-堆运行存储共享单元

     JVM-栈 2012-09-17 15:43:53 分类: Java 原文转自:http://www.blogjava.net/nkjava/archive/2012/03/15/371971.ht ...

  9. access treeview读取数据表成树并与子窗体联动

    Private Sub Form_Load()Dim i As IntegerDim rst As DAO.RecordsetSet rst = CurrentDb.OpenRecordset(&qu ...

  10. TopShelf安装多实例

    Topshelf 安装多实例命令: .\ConsoleApp1.exe -instance "newinstallname" install 多实例有一个好处就是容灾,当一个服务部 ...