Softmax 回归 vs. k 个二元分类器】的更多相关文章

如果你在开发一个音乐分类的应用,需要对k种类型的音乐进行识别,那么是选择使用 softmax 分类器呢,还是使用 logistic 回归算法建立 k 个独立的二元分类器呢? 这一选择取决于你的类别之间是否互斥,例如,如果你有四个类别的音乐,分别为:古典音乐.乡村音乐.摇滚乐和爵士乐,那么你可以假设每个训练样本只会被打上一个标签(即:一首歌只能属于这四种音乐类型的其中一种),此时你应该使用类别数 k = 4 的softmax回归.(如果在你的数据集中,有的歌曲不属于以上四类的其中任何一类,那么你可…
转载请注明出处:http://www.cnblogs.com/BYRans/ 多分类问题 在一个多分类问题中,因变量y有k个取值,即.例如在邮件分类问题中,我们要把邮件分为垃圾邮件.个人邮件.工作邮件3类,目标值y是一个有3个取值的离散值.这是一个多分类问题,二分类模型在这里不太适用. 多分类问题符合多项分布.有许多算法可用于解决多分类问题,像决策树.朴素贝叶斯等.这篇文章主要讲解多分类算法中的Softmax回归(Softmax Regression) 推导思路为:首先证明多项分布属于指数分布族…
目录 类别不平衡(class-imbalance) Softmax回归模型 类别不平衡(class-imbalance) 当不同类别的训练样本数目差别很大,则会对学习过程造成困扰.如有998个反例,但正例只有2个. 从线性分类器的角度讨论,用\(y=w^Tx+b\)对新样本\(x\)进行分类时,事实上是在用预测出的\(y\)值与一个阈值进行比较.如通过在\(y>0.5\)时判别为正例,否则为反例.几率\(\frac{y}{1-y}\)则反映了正例可能性与反例可能性之比值.阈值设为0.5表明分类器…
在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 可以取两个以上的值. Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字.Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合.(译者注: MNIST 是一个手写数字识别库,由NYU 的Yann LeCun 等人维护.http://yann.lecun.com/exdb/mnist/ ) 回想…
转自http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 简介 在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 可以取两个以上的值. Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字.Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合.(译者注: MNIST…
Softmax回归是Logistic回归在多分类问题上的推广,是有监督的. 回归的假设函数(hypothesis function)为,我们将训练模型参数,使其能够最小化代价函数: 在Softmax回归中,我们解决的是多分类问题,类标y可以取k个不同的值.对于给定的测试输入x,我们想用假设函数针对每一个类别j估算出概率值.也就是说,我们想估计x的每一种分类结果的概率.因此,我们的假设函数将要输出一个k维的向量(向量元素的和为1)来表示这k个估计的概率值.具体地说,我们的假设函数形式如下: 其中,…
简介 在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签  可以取两个以上的值. Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字.Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合.(译者注: MNIST 是一个手写数字识别库,由NYU 的Yann LeCun 等人维护.http://yann.lecun.com/exdb/mnist/ …
Softmax回归 Contents [hide] 1 简介 2 代价函数 3 Softmax回归模型参数化的特点 4 权重衰减 5 Softmax回归与Logistic 回归的关系 6 Softmax 回归 vs. k 个二元分类器 7 中英文对照 8 中文译者 转自:http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 简介 在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上…
转自http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 简介 在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签  可以取两个以上的值. Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字.Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合.(译者注: MNIS…
Softmax回归:K分类问题, 2分类的logistic回归的推广.其概率表示为: 对于一般训练集:                     系统参数为:      Softmax回归与Logistic回归的关系 当Softmax回归用于2分类问题,那么可以得到:      令θ=θ0-θ1,就得到了logistic回归.所以实际上logistic回归虽然有2个参数向量,但这2个参数向量可以退化到1个参数向量.推广到K个类别,那么就需要K-1个参数向量 参数求解 类似于logistic reg…
Reference: http://ufldl.stanford.edu/wiki/index.php/Softmax_regression http://deeplearning.net/tutorial/logreg.html 起源:Logistic的二类分类 Softmax回归是Logistic回归的泛化版本,用于解决线性多类(K类)的分类问题. Logistic回归可以看作是Softmax回归在K=2时的特例.Softmax函数即是K分类版的Logistc函数. 裸Softmax回归的效…
一.感知机     详细参考:https://blog.csdn.net/wodeai1235/article/details/54755735 1.模型和图像: 2.数学定义推导和优化: 3.流程 二.线性回归      1.定义及解析解: a=(XTX) -1 XTy,如加2范数约束则解析解为a=(XTX+λI) -1 XTy     2.总结: 速度快,对异常值敏感.可以采用梯度下降法. 三.逻辑斯蒂回归 1.sigmod: 见 https://www.cnblogs.com/Esther…
Softmax回归   1. softmax回归模型 softmax回归模型是logistic回归模型在多分类问题上的扩展(logistic回归解决的是二分类问题). 对于训练集,有. 对于给定的测试输入,我们相拥假设函数针对每一个类别j估算出概率值.也就是说,我们估计得每一种分类结果出现的概率.因此我们的假设函数将要输入一个维的向量来表示这个估计得概率值.假设函数形式如下: 其中是模型的参数.这一项对概率分布进行归一化,舍得所有概率之和为1. softmax回归的代价函数: 上述公式是logi…
LR是一个传统的二分类模型,它也可以用于多分类任务,其基本思想是:将多分类任务拆分成若干个二分类任务,然后对每个二分类任务训练一个模型,最后将多个模型的结果进行集成以获得最终的分类结果.一般来说,可以采取的拆分策略有: one vs one策略 假设我们有N个类别,该策略基本思想就是不同类别两两之间训练一个分类器,这时我们一共会训练出种不同的分类器.在预测时,我们将样本提交给所有的分类器,一共会获得N(N+1)个结果,最终结果通过投票产生. one vs all策略 该策略基本思想就是将第i种类…
Softmax回归用于处理多分类问题,是Logistic回归的一种推广.这两种回归都是用回归的思想处理分类问题.这样做的一个优点就是输出的判断为概率值,便于直观理解和决策.下面我们介绍它的原理和实现. 1.原理 a.问题 考虑\(K\)类问题,假设已知训练样本集\(D\)的\(n\)个样本\(\{(x_{i},t_{i})| i=1,...,n\}\) ,其中,\(x_i \in R^d\) 为特征向量,\(t_{i} \) 为样本类别标签,和一般而分类问题不同,Softmax回归采用了标签向量…
UFLDL Tutorial 翻译系列:http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial 第四章:SoftMax回归 简介:见 AI : 一种现代方法.Chapter21. Reinforce Learning p.703 Softmax函数为多个变量的Logitic函数的泛化. 为什么使用SoftMax方法:因为反向传播和更新方法简单,更直接且直观. 1.先做练习 Exercise:Softmax Regression…
目录 Softmax回归 一.Softmax回归详解 1.1 让步比 1.2 不同类之间的概率分布 1.3 目标函数 1.4 目标函数最大化 二.Softmax回归优缺点 2.1 优点 2.2 缺点 更新.更全的<机器学习>的更新网站,更有python.go.数据结构与算法.爬虫.人工智能教学等着你:https://www.cnblogs.com/nickchen121/ Softmax回归 Softmax回归属于多分类\(c_1,c_2,\ldots,c_k\)模型,它通过估计某个样本属于\…
本系列文章允许转载,转载请保留全文! [请先阅读][说明&总目录]http://www.cnblogs.com/tbcaaa8/p/4415055.html 1. 泊松回归 (Poisson Regression) 在生活中,经常会遇到一类问题需要对一段时间内某一小概率事件的发生次数建模,例如癌症.火灾等. 假设向量x表示引起这一事件发生的因素,向量θ表示因素的权重,则使用hθ(x)=exp(θTx)表示事件发生次数的期望.θTx位于指数位置,意味着其每增加1个单位,将导至事件发生次数的期望值翻…
考虑一个多分类问题,即预测变量y可以取k个离散值中的任何一个.比如一个邮件分类系统将邮件分为私人邮件,工作邮件和垃圾邮件.由于y仍然是一个离散值,只是相对于二分类的逻辑回归多了一些类别.下面将根据多项式分布建模. 考虑将样本共有k类,每一类的概率分别为,由于,所以通常我们只需要k-1个参数即可 , 为了推导,引入表达式: 上面T(y)是k-1维列向量,其中y = 1, 2, ...k. T(y)i 表示向量T(y)的第i个元素. 还要引入表达式 ,如果大括号里面为真,则真个表达式就为1,否则为0…
关于Andrew Ng的machine learning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章. 下面,对Logistic回归做一个简单的小结: 给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步: ① 计算逻辑回归假设函数的取值hθ(x),其中n是样本的特征维度 ② 如果hθ(x)>=0.5,则x输入正类,否则,x属于负类 或者直接利用判别边界进行判断,即:如果θ'x>=0,则x输入正类,否则,x属于负类 所…
logistic回归 在 logistic 回归中,我们的训练集由  个已标记的样本构成:.由于 logistic 回归是针对二分类问题的,因此类标记 . 假设函数(hypothesis function):  代价函数(损失函数): 我们的目标是训练模型参数,使其能够最小化代价函数. 假设函数就相当于我们在线性回归中要拟合的直线函数. softmax回归 在 softmax回归中,我们的训练集由  个已标记的样本构成:.由于softmax回归是针对多分类问题(相对于 logistic 回归针对…
UFLDL深度学习笔记 (二)Softmax 回归 本文为学习"UFLDL Softmax回归"的笔记与代码实现,文中略过了对代价函数求偏导的过程,本篇笔记主要补充求偏导步骤的详细推导. 1. 详细推导softmax代价函数的梯度 经典的logistics回归是二分类问题,输入向量$ x^{(i)}\in\Re^{n+1}$ 输出0,1判断\(y^{(i)}\in{\{0,1\}}\),Softmax回归模型是一种多分类算法模型,如图所示,输出包含k个类型,\(y^{(i)}\in{\…
前面我们已经说了logistic回归,训练样本是,(且这里的是d维,下面模型公式的x是d+1维,其中多出来的一维是截距横为1,这里的y=±1也可以写成其他的值,这个无所谓不影响模型,只要是两类问题就可以),训练好这个模型中参数θ以后(或者是这个模型,这俩是一个模型),然后给入一个新的,我们就可以根据模型来预测对应label=1或0的概率了. 前面处理的是两类问题,我们想把这个两类问题扩展,即根据训练好的模型,给入一个新的,我们就可以根据模型来预测对应label=1,2,…k等多个值的概率.我们首…
多分类问题 在一个多分类问题中,因变量y有k个取值,即.例如在邮件分类问题中,我们要把邮件分为垃圾邮件.个人邮件.工作邮件3类,目标值y是一个有3个取值的离散值.这是一个多分类问题,二分类模型在这里不太适用. 多分类问题符合多项分布.有许多算法可用于解决多分类问题,像决策树.朴素贝叶斯等.这篇文章主要讲解多分类算法中的Softmax回归(Softmax Regression)  推导思路为:首先证明多项分布属于指数分布族,这样就可以使用广义线性模型来拟合这个多项分布,由广义线性模型推导出的目标函…
前言            以下内容是个人学习之后的感悟,转载请注明出处~ softmax回归 首先,我们看一下sigmod激活函数,如下图,它经常用于逻辑回归,将一个real value映射到(0,1)的区间(当然也可以是 (-1,1)),这样可以用来做二分类. 接下来,我们再看一下softmax函数,其函数类型如下: 那么,softmax又是怎么实现的呢?softmax把一个k维的real value向量(a1,a2,a3,a4….)映射成一个(b1,b2,b3,b4….) 其中bi是一个0…
介绍softmax之前先讲讲sigmoid: 逻辑回归模型常用的函数:sigmoid函数(用来做二分类) 表达式:f(x)=L/(1+exp-k(x-x0)) 其图像: 本质:将一个真值映射到(0,1)之间 softmax函数(用作多分类) 形式: 本质:把一个k维的向量映射为另一个K维向量(该向量元素都在0-1之间),然后可以根据每一个向量元素的大小进行多分类的任务. 来自链接(http://ufldl.stanford.edu/wiki/index.php/Softmax回归) softma…
Haskell手撸Softmax回归实现MNIST手写识别 前言 初学Haskell,看的书是Learn You a Haskell for Great Good, 才刚看到Making Our Own Types and Typeclasses这一章. 为了加深对Haskell的理解,便动手写了个Softmax回归.纯粹造轮子,只用了base. 显示图片虽然用了OpenGL,但是本文不会提到关于OpenGL的内容.虽说是造轮子, 但是这轮子造得还是使我受益匪浅.Softmax回归方面的内容参考…
在下面的内容中,我们用C来表示需要分的类数. 最后一层的隐藏单元个数为4,为所分的类的数目,输出的值表示属于每个类的概率. Softmax函数的具体步骤如下图: 简单来说有三步: 计算z值(4×1矩阵) 将z作为指数,得到中间变量t(维度同z) 对t归一化,得到a(维度同t,同z). Softmax激活函数的特殊之处在于,输入一个向量,最后输出一个向量. Softmax的示例 下面我们来来考虑一个只有输出层没有隐藏层的神经网络. 在这张图表中,我们所做的是选择图中的数据作为训练集,用数据的C种标…
分类问题 在机器学习中,主要有两大类问题,分别是分类和回归.下面我们先主讲分类问题. MINST 这里我们会用MINST数据集,也就是众所周知的手写数字集,机器学习中的 Hello World.sk-learn 提供了用于直接下载此数据集的方法: from sklearn.datasets import fetch_openml minst = fetch_openml('mnist_784', version=1) minst.keys() >dict_keys(['data', 'targe…
对于 \(Softmax\) 回归的正向传播非常简单,就是对于一个输入 \(X\) 对每一个输入标量 \(x_i\) 进行加权求和得到 \(Z\) 然后对其做概率归一化. Softmax 示意图 下面看一个简单的示意图: 其中 \(X\in\mathbb{R}^{n\times m}\) 是一个向量或矩阵,这取决于传入的是一个训练样本还是一组训练样本,其中 \(n\) 是输入特征的数量,\(m\) 是传入的训练样本数量:此图只是示意的一个简单的 Softmax 的传播单元,可以把它理解为一个神经…