本文讨论的关键词:Logistic Regression(逻辑回归)、Neural Networks(神经网络)

之前在学习LR和NN的时候,一直对它们独立学习思考,就简单当做是机器学习中的两个不同的models,从来没有放在一起观察过,最近通过阅读网络资料,才发现,原来LR和NN之间是有一定的联系的,了解它们之间的联系后,可以更好地理解


Logistic Regression(逻辑回归)和Neural Networks(神经网络)

  • Logistic Regression:典型的二值分类器,用来处理两类分类问题,当然,也可以用来处理多类问题,但要转换为One-vs-All或者是One-vs-One问题;Andrew Ng的机器学习课程中有对此的详细介绍

    • 专门用来进行多类分类问题的多维逻辑回归器为: 
      Softmax regression / multinomial Logistic Regression;
    • 虽然逻辑回归器有许多的kernelized variants,但standard model(即最原始的LR)是一个线性分类器,主要用来处理数据集为more or less线性可分的情况;
  • Neural Networks:神经网络,由多个神经元构造,可以有多个输入、多个输出

Logistic Regression(逻辑回归)和Neural Networks(神经网络)之间到底有什么关系呢?

Logistic Regression

Basically, we can think of logistic regression as a one layer neural network.

实际上,可以将Logistic Regression看做是仅含有一个神经元的单层的神经网络!

  • 下面以图例的方式给出了Logistic Regression的结构,该图清晰地展示了Logistic Regression的结构 

    图中的Activation function为sigmoid function(也称为logistic activation functions),该激活函数的示意图如下: 
  • 从该图中可以看到,LR结构图的前半部分(不包含step function的部分,如下图红框所示)其实就是一个简单的神经元模型(关于神经网络的介绍见下文) 
  • 上图中绿色框中的部分为LR的threshold function(这里使用了step function),用来对前面激活函数的输出进行相应的阈值处理,从而实现两类分类问题(例如,threshold function函数输出为0时,对应类1,threshold function函数输出为1时,对应类2)

Softmax regression

Softmax regression其实是多维的Logistic regression,它其实可以看做是单层多个神经元的神经网络!

下图给出了softmax regression的基本结构,可以看到,其实,softmax regression可以看做是含有k个神经元的一层神经网络, 

这里应该注意到:

  • 如果仅仅是要进行类别的预测,那么,只需要计算到sigma即可,不需要再求后面的softmax函数(上图所示的函数,注意,它与logistic regression中用到的sigmoid函数是不同的)
  • 使用softmax函数,只是为了使输出具有概率意义,并且,有利于利用训练集去学习网络的权值;也可以这样理解,其实,softmax function只是在train的时候比较有用,利用它学习完网络参数后,在做predict的时候,其实就不需要它了(因为它是增函数) 


神经网络的激活函数

神经元对应的激活函数 
在神经网络中,神经元的激活函数多用sigmoid function,上面提到的logistic regression也用到了该函数,但实际上,另外一个激活函数:tanh函数的效果要比sigmoid函数好些,因为tanh函数并不会将神经元的输出局限于大于0,tanh的函数输出值区间为[-1,1] 
tanh = the hyperbolic tangent

仍考虑具有sigmoid fucntion的神经元:logistic regression的一个优点是logistic cost fucntion (or max-entropy) 是一个凸函数,可以求得全局最小值。

关于神经网络的代价函数

但是,对于神经网络而言,由于它将多个sigmoid function连接在一起了,这种凸函数的性质将不存在了。对于仅含有一个权值的多层神经网络(认为其他权值都为已知),它的cost function也具有非常崎岖的性质,如下图所示,可以看到,该cost function具有多个局部最小值 

实际应用中,对于仅含有一个或者两个隐藏层的神经网络而言,它的cost function虽然是非凸的,但是利用误差反向传播算法,可以得到还不错的效果,虽然可能得到的是个局部极小值(a local minima),但分类效果还是不错的。

转载自 http://blog.csdn.net/tina_ttl/article/details/51547428

逻辑回归与神经网络还有Softmax regression的关系与区别的更多相关文章

  1. 【原】Coursera—Andrew Ng机器学习—编程作业 Programming Exercise 3—多分类逻辑回归和神经网络

    作业说明 Exercise 3,Week 4,使用Octave实现图片中手写数字 0-9 的识别,采用两种方式(1)多分类逻辑回归(2)多分类神经网络.对比结果. (1)多分类逻辑回归:实现 lrCo ...

  2. 逻辑回归的分布式实现 [Logistic Regression / Machine Learning / Spark ]

    1- 问题提出 2- 逻辑回归 3- 理论推导 4- Python/Spark实现 # -*- coding: utf-8 -*- from pyspark import SparkContext f ...

  3. SAS LOGISTIC 逻辑回归中加(EVENT='1')和不加(EVENT='1')区别

    区别在于:最大似然估计分析中估计是刚好正负对调加上EVENT:%LET DVVAR = Y;%LET LOGIT_IN = S.T3;%LET LOGIT_MODEL = S.Model_Params ...

  4. Python实践之(七)逻辑回归(Logistic Regression)

    机器学习算法与Python实践之(七)逻辑回归(Logistic Regression) zouxy09@qq.com http://blog.csdn.net/zouxy09 机器学习算法与Pyth ...

  5. 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)

    http://blog.csdn.net/zouxy09/article/details/20319673 机器学习算法与Python实践之(七)逻辑回归(Logistic Regression) z ...

  6. 逻辑回归原理_挑战者飞船事故和乳腺癌案例_Python和R_信用评分卡(AAA推荐)

    sklearn实战-乳腺癌细胞数据挖掘(博客主亲自录制视频教程) https://study.163.com/course/introduction.htm?courseId=1005269003&a ...

  7. 100天搞定机器学习|Day17-18 神奇的逻辑回归

    前情回顾 机器学习100天|Day1数据预处理 100天搞定机器学习|Day2简单线性回归分析 100天搞定机器学习|Day3多元线性回归 100天搞定机器学习|Day4-6 逻辑回归 100天搞定机 ...

  8. Coursera《machine learning》--(6)逻辑回归

    六 逻辑回归(Logistic Regression:LR) 逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就是由于这个逻辑函数,使得 ...

  9. 转载:逻辑回归的python实现

    转载自:http://blog.csdn.net/zouxy09/article/details/20319673 一.逻辑回归(LogisticRegression) Logistic regres ...

随机推荐

  1. 547. Friend Circles

    There are N students in a class. Some of them are friends, while some are not. Their friendship is t ...

  2. [转] 设置div的overflow:scroll,但是在手机上滑动的时候有点卡顿

    设置div的overflow:scroll,但是在手机上滑动的时候有点卡顿,所以在这个div上加一个css: -webkit-overflow-scrolling : touch; 在苹果手机上使用- ...

  3. php函数xml转化数组

    /** * xml转数组 * @param $xml * @return array */ function xml_to_array( $xml ) { $reg = "/<(\\w ...

  4. noi2018d2t1

    题解: ex-crt 学习见https://www.cnblogs.com/Miracevin/p/9254795.html hdu2891 #include <cstdio> #incl ...

  5. python排序算法之冒泡,选择,插入

    1.参考 一本关于排序算法的 GitBook 在线书籍 <十大经典排序算法>,使用 JavaScript & Python & Go 实现 2.冒泡排序:两两比较,互换位置 ...

  6. bitset里面一些函数的用法

  7. 启动tomcat出现Removing obsolete files from server... Could not clean server of obsolete ……错误

    在Eclipse启动tomcat出现"Removing obsolete files from server... Could not clean server of obsolete …… ...

  8. Python dictionary 字典 常用法

    Python dictionary 字典 常用法 d = {} d.has_key(key_in)       # if has the key of key_in d.keys()          ...

  9. Java 之 Web前端(一)

    1.http a.定义:超文本传输协议 b.作用:web服务器与web浏览器之间通信 c.步骤: ①客户端与web服务器建立连接(IP地址与端口号) ②客户端发送http请求(请求资源路径) ③服务器 ...

  10. TF:利用TF的train.Saver载入曾经训练好的variables(W、b)以供预测新的数据—Jason niu

    import tensorflow as tf import numpy as np W = tf.Variable(np.arange(6).reshape((2, 3)), dtype=tf.fl ...