原文:http://blog.sina.com.cn/s/blog_593af2a70102uwhl.html

一早出发,8点20就赶到现场, 人越聚越多,Ng提前几分钟到达现场,掌声一片。

   Ng的报告总体上提到了五个方向。
   1)Deep Learning相比于传统方法的优势
          首先,一个很直观的图,随着训练量的提高,传统方法很快走到天花板,而Deep Learning的效果还能持续走高,后来这个在提问环节也有同学问道,是否会一直提高,Andrew Ng也坦诚需要面对不同的问题来讨论,而且任何方法都有天花板。
         
         这个问题蛮关键的,我补充回答一下,其实这是一个特征表达力的问题,传统方法特征表达力,不如Deep Learning的多层学习得到的更有效果的表达。举个例子,假定有一种疾病,这种疾病容易在个高且胖的人群,以及个矮且瘦的人群中易感。那么任意从给一个特征角度上看,比如肥胖,那么胖的这部分人中,得此病的概率为50%,不胖的也是50%,那么"胖"这个特征没有表达力。
        

用学术上的术语来说,身高和体型是两个Marginally independent的变量,即如果观察到了他们产生的结果,他们就不独立了。也就是如果身高和体型在用于检测这种疾病的时候,他们就不独立了,因此需要有一种特征表示的方式来表示他们的这种不独立性,能够combine他们以形成更好的特征。而这种更结构化的特征,需要大量的语料才能training到位。而独立性的特征,往往少部分语料就可以获得很好的结果,但随着语料数量的提高,无法observe到结构化的特征,因此更多的语料就浪费了。我们都知道这是AI领域的XOR问题,也就是二层

神经网络就能求解,换言之,多层神经网络mining出来更好的特征。

     
     接着Ng也直观的展示了,从像素级特征(表达力最弱)到edges级特征,直到object级特征。 从edges特征大家看到的这个形式,其实是深度神经网络的edges中的一个小块,就是input layer到第一个hidden layer之间的一组边(如果是RBM 的话)或者是第一个hidden layer到output layer的一组边,这组边可以理解成training的成果。而hidden layer是一个sparse coding的向量,用来combine不同组的边来还原出input layer。
   
     因此可以看到,通过深度学习的处理,无需tagged data,通过自学习的方式,就可以做到特征的表达力从像素级,提高到了 object models,多么美妙啊,难怪Ng用了Amazing这个词,而且再一次地露出了特有的微笑。
   2)Deep Learning存在的问题
       Ng提到了,通常学生试验在10 million connections这个水平,因为在大已经超出计算的能力,但如果采用并发的方法,160000万个CPUs的情况下,可以达到1 billion connections这个水平。如果采用特制的GPU来计算,可以达到10 billion connections的水平。
      从我自己的实验结果看,目前做千万connection是没问题的,时机成熟我就开放出来,但受限于CPU在向量计算的劣势,再大的话,每一轮训练的时间就会大大提高,变得不可计算,而分布式Parameter server的搞法,虽然能够第一步把语料shard一下,然后各自训练,到了最高层用类似transform learning的法子再combine(这段话是我自己猜测的,Ng的报告这里我没听太懂,图片是按照记忆画出)
     
 
       我个人的理解,就是一个巨大语料切成n个部分,每个部分产生表达力强的特征,而这些表达力强的特征在一个阶段,就是那个长条哪里进行combine,也就是这个hidden layer可以很好的表达来自不同shard的特征,最后在展开各层,用不同shard上的tagged data 来进一步调整每条边的权重。
  
   3)Deep Learning的Idea
       

这个可能没什么可说的,但我认为很重要,这段话不难翻译,人脑中大部分感知器是一个非常简单的计算过程。但通过组合可以达到很高的理解力。但问题是如何组合,感知的过程如何从低级阶段到高级阶段,从明暗,色彩的感知,到人类喜怒哀乐的情感,整个过程的每一步可能都是naive得,但整个认知链条的末端一定是语义的,有感情的,上升到概念的。另外,通常还有一个体会,比如看一本小说,脑海中就能自然浮现画面,可见不同神经感知器也不是完全独立的,而是彼此联系的。

 
    4)Deep Learning的一些成果
       报告中提到很多成果,特别是提到了图像识别中,在DL面前,SIFT特征提取算法弱爆了,我还是为Ng的自信和霸气,略震了一下。按照常规,学术界的同志应该谦虚,尊重下老前辈,尊重下传统的。。
      后来的提问环节,也有同学问到,那些old 算法框架怎么办呢?Ng说无论怎样,这就是科学技术的趋势,当一个东西产生明显效果后,越来越多的方法会采用这些新方法,而传统方法,不是说研究者就立马到zero,但的确会fewer and fewer。当时我心里想,无论如何如何,总得有留下少部分坚守的同志,没准10年后翻身也难说,但大部队应该扑新方法的。
      
    5)未来趋势
     
 

未来趋势基本是一些喜闻乐见的东西,没什么新意,包括后来提问环节也有人提问,让Ng透露未来的一些计划。Ng说未来的事情总是千变万化的,如果真是希望了解产业界的一些计划,可以来百度打工,和最优秀的工程师一起做事。

      

   提问环节有很多有趣的话题,比如有人问百度,以及Andrew Ng本人对Spark的评价,Ng回答到,百度用了很多开源工具,但机器学习的很多问题太Uniq了,太特殊了,而Spark这种通用的东西很难满足需求,当然不是说SPark不好,只是Ng本人也很少用(用了Less这个词汇)。还有包括为什么效忠百度,Ng说了三个原因,第一他认为机器学习是Transform世界,Transform互联网的一种方式,相比coursera更加感兴趣。第二百度拥有大量优秀的科学家,高质量的同事,比如余凯,张潼,徐伟同志等等。第三,百度拥有大量的data, 还有个同学要DL的Reading List,Ng给了个这个:http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Recommended_Readings ,还说里面有邓侃号召中国青年的贡献在里面。另外根据网友@fiona_duan 的反馈。最后Andrew提到的是他出生于香港,长在英国和新加坡,之后在美求学和生活。他和媳妇都在美国。他媳妇叫Carol Reiley. Carol 是约翰·霍普金斯大学的医学博士以及在读计算机博士,研究方向是生物医学方向的机器人应用。
 
      整个报告大概就是这样,我的理解也难免偏颇,水平难免有限,但我坐在第一排,努力的听每一个细节,并快速思考,能量消耗蛮大的,另外就是百度来了几个美女,看上去比较有知识,跑前跑后的拍照。
 
     上次在清华的报告,这里也一并推荐阅读下:http://blog.sina.com.cn/s/blog_593af2a70101bqyo.html

2014-7 Andrew Ng 自动化所报告听后感的更多相关文章

  1. Andrew NG 自动化所演讲(20140707):DeepLearning Overview and Trends

    出处 以下内容转载于 网友 Fiona Duan,感谢作者分享 (原作的图片显示有问题,所以我从别处找了一些附上,小伙伴们可以看看).最近越来越觉得人工智能,深度学习是一个很好的发展方向,应该也是未来 ...

  2. 斯坦福大学机器学习(Andrew Ng@2014)--自学笔记

    今天学习Andrew NG老师<机器学习>之6 - 6 - Advanced Optimization,做笔记如下: 用fminunc函数求代价函数最小值,分两步: 1.自定义代价函数 f ...

  3. 百度首席科学家 Andrew Ng谈深度学习的挑战和未来(转载)

    转载:http://www.csdn.net/article/2014-07-10/2820600 人工智能被认为是下一个互联网大事件,当下,谷歌.微软.百度等知名的高科技公司争相投入资源,占领深度学 ...

  4. 斯坦福大学Andrew Ng教授主讲的《机器学习》公开课观后感[转]

    近日,在网易公开课视频网站上看完了<机器学习>课程视频,现做个学后感,也叫观后感吧. 学习时间 从2013年7月26日星期五开始,在网易公开课视频网站上,观看由斯坦福大学Andrew Ng ...

  5. Andrew Ng 机器学习公开课 - 线性回归

    我的机器学习系列从现在开始将会结合Andrew Ng老师与sklearn的api是实际应用相结合来写了. 吴恩达(1976-,英文名:Andrew Ng),华裔美国人,是斯坦福大学计算机科学系和电子工 ...

  6. 机器学习笔记(一)- from Andrew Ng的教学视频

    最近算是一段空闲期,不想荒废,记得之前有收藏一个机器学习的链接Andrew Ng的网易公开课,其中的overfiting部分做组会报告时涉及到了,这几天有时间决定把这部课程学完,好歹算是有个粗浅的认识 ...

  7. Andrew Ng机器学习课程笔记(五)之应用机器学习的建议

    Andrew Ng机器学习课程笔记(五)之 应用机器学习的建议 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7368472.h ...

  8. Logistic回归Cost函数和J(θ)的推导----Andrew Ng【machine learning】公开课

    最近翻Peter Harrington的<机器学习实战>,看到Logistic回归那一章有点小的疑问. 作者在简单介绍Logistic回归的原理后,立即给出了梯度上升算法的code:从算法 ...

  9. 第19月第8天 斯坦福大学公开课机器学习 (吴恩达 Andrew Ng)

    1.斯坦福大学公开课机器学习 (吴恩达 Andrew Ng) http://open.163.com/special/opencourse/machinelearning.html 笔记 http:/ ...

随机推荐

  1. servlet三种实现方式之三通过继承HttpServlet开发servlet

    servlet有三种实现方式: 1.实现servlet接口 2.继承GenericServlet 3.通过继承HttpServlet开发servlet 第三种: import java.io.*; i ...

  2. codeforces 626E. Simple Skewness 三分

    题目链接 给n个数, 让你去掉一些数, 使得剩下的数的平均值-中位数的差值最大. 先将数组排序, 然后枚举每一个数作为中位数的情况, 对于每个枚举的数, 三分它的左右区间长度找到一个平均值最大的情况, ...

  3. 字符串匹配算法1-KMP

    前面介绍过,字符串搜索一般来说有三种方式,前缀搜索,后缀搜索,子串搜索.KMP使用的是前缀搜索. 假设p的偏移是i,也就是窗口的位置是i,匹配到位置j+1时发现了不匹配.现在的问题是向前移动窗口到什么 ...

  4. night Mode 夜间模式css

    *,*:before,*:after,html[mode='nightmode'] * { color: #61615f !important; border-color: #212a32 !impo ...

  5. MVC-04 视图(2)

    三.View如何从Aciton取得数据 从Action取得数据,在ASP.NET MVC可区分成两种方式,一种是“使用弱类型取得数据”,另一种则是“使用强类型取得数据”,两者的差别在于View页面最上 ...

  6. php命名空间及和autoload结合使用问题。

    在讨论如何使用命名空间之前,必须了解 PHP 是如何知道要使用哪一个命名空间中的元素的.可以将 PHP 命名空间与文件系统作一个简单的类比.在文件系统中访问一个文件有三种方式: 相对文件名形式如foo ...

  7. 网络爬虫返回json处理数据

    JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式.它基于JavaScript(Standard ECMA-262 3rd Edition - Decembe ...

  8. Linux系统服务 1 ---- rSyslog日志服务

    1 日志 1 日志是系统用来记录系统运行时候的一些相关的信息的纯文本文件 2 日志的目的是保存相关程序的运行状态,错误信息等.为了对系统进行分析,保存历史记录以及在出现错误的时候发现分析错误使用 3 ...

  9. swift3.0 hello swift(1)

    一直对swift感兴趣,在前段时间的新闻中,大多是swift3.0发布和xcode8.0的改进,因为改动比较大,以前使用swift2.x做项目的人,都在担心其项目从2.x迁移到3.0+的问题.以前简单 ...

  10. 什么是Thrift

    起源 百度百科怎么说 thrift是一个软件框架,用来进行可扩展且跨语言的服务的开发. 它结合了功能强大的软件堆栈和代码生成引擎,以构建在 C++, Java, Python, PHP, Ruby, ...