头脑一热,坐几十个小时的硬座北上去天津大学去听了门4天的深度学习课程,课程预先的计划内容见:http://cs.tju.edu.cn/web/courseIntro.html。上课老师为微软研究院的大牛——邓力,群(qq群介绍见:Deep learning高质量交流群)里面有人戏称邓力(拼音简称DL)老师是天生注定能够在DL(Deep learning)领域有所成就的,它的个人主页见:http://research.microsoft.com/en-us/people/deng/。这次我花费这么大的力气参加这个课程,是期望能达到3个目的的:一、把DL中一些常见基础算法弄明白,特别是跟能量模型等相关的算法。二、站在更上一层的角度来理解DL,知道下一步该学哪些知识。三、和群友交流下科研心得,多认识几个朋友。实践表明,第二和第三个目的基本达到,但关于第一个有点小失望。

  下面简单回忆下邓老师这4天大概讲了些什么内容(没做太多笔记,记忆有些模糊)。

  Day1:其课件主要见Lecture-Slides-DayOne.由于邓老师讲课时喜欢插入一些他和其它DL大牛(比如Hinton)之间的故事,所以这个课件没有讲完(课件本身内容页太多),大概讲了前面100页,后面几天还有不少内容是基于这个课件的。在这一天的课程中,他列出了一些DL研究小组的网页,并给出了一些常见的学习工具。主要是从语音处理领域介绍DL,Dynamic model,以及两者的结合;具体内容有:DL是分布式的表示;感知机介绍,SVM其实本质也是感知机;为什么BP算法在90年代末期被扔掉的原因;比较详细的介绍了RBM以及RBM的训练过程,对比了RBM和GMM模型;介绍了DBN模型,以及DBN在生成数据和识别上的使用方法;DNN模型(用generative method pre-training后的深度网络);从优化角度和过拟合角度介绍了为什么pre-training会有效果;RBM等价于一个无穷层的DBN;微软在语音识别领域的历史进展;DBN(动态贝叶斯模型)在语音处理上的使用;DL和动态贝叶斯的结合。

  Day2:课件见Lecture-Slides-DayTwo,课件内容非常少。因为这一天放了一天的video,video内容都是coursera上的课程,其中一门课是Hintion的Neural Networks for Machine Learning,另一门课程是从生物角度介绍神经科学的:Computational Neuroscience。可能每个人基础不同以及所期望的目的不同吧,反正本人对那一天的课程比较失望。因为那些课程都是网上公开的,课件和视频网上都可以看得到,而邓老师却用了一天的时间在课程上放这些。比较好的方法应该是列出它要放的视频的重点(几页ppt就可以搞定),然后大致提一下其内容,让学员回去后对照看即可(比较大家千里迢迢跑来听课是想多学点东西)。这一天的内容中邓老师是想从生物神经的角度来推导出DL,因为DL的数学理论太差,这点经常遭他人抨击。而邓老师的观点是,DL其实是生物神经模型通过N步简化而来的,具有一定的生物基础,所以有一定的道理。这就是那一天的主要内容,交叉放生物神经模型和工程神经网络的视频教程。听说现场有些搞科研的老师听完当天的课程后收获非常大,因为受到邓老师很多观点的启发,有了很多自己新的想法。另外,在第二天的课程中,邓老师比较客观的介绍了他自己认为DL能够适用的领域(比如语音,图像,文本等),以及DL不擅长的领域(比如说Malware detection,movie recommender, speaker/language detection),理由是一些有感知机制的AI比较适合用DL,而一些Data Matching不太适合。

  Day3:课件虽为Lecture-Slides-DayThree,但是由于第二天有人反应上课方式和内容不太好,所以把邓老师的计划弄乱了,因此这一天的内容是想到哪方面还没介绍就讲哪方面的知识。主要内容好像是CNN;目标识别;dropout;SGD;Hopfield能量模型;RNN的介绍以及一些常见的RNN learning方法,包括long short term memory, Hessian Free optimization, Echo State Network等,主要还是用Hintion的NN课件。

  Day4:当天的内容更没有预先的计划,像打补丁似的想到哪就讲到哪,课件主要用的是第一天没有讲完的内容和hintion的课件,还有一些是ICML2013的一些keynote,比如Vincent Vanhoucke的。主要讲的内容有Deep AutoEncoder;DL在IR中的应用,重点讲了邓老师自己提出的模型DSN;DL在NLP领域的应用;DL在语音处理中的acoustic model中的应用。下午的安排主要是邓老师回答同学的提问,问题是前一天通过已发邮件给胡老师(胡老师个人主页:http://cs.tju.edu.cn/faculty/huqinghua/)整理过的,在邓老师回答这些问题前请科大讯飞和中科院自动化所的人分享了一些Deep learning领域的心得,其中一个报告毫无内容,另一个没太听懂。同学提的问题比较多,从邓老师的回答过程中也收获了不少。

  总结:邓老师还是相当厉害的,从他上课激动的语言可以看出,他对DL的未来还是比较乐观的,他并不是盲目推崇DL,比如他也比较客观的分析了哪些领域适合DL,哪些领域不适合DL。这次上课虽然没有收获太多的DL基本算法细节,但是也知道了后续一段时间如果想继续DL的,该看哪方面的知识。比如说至少知道了coursera是个很好的自学平台。另外和群友一起参加小讨论,逛校园,聚餐,整个过程还是相当愉快的,认识了不少朋友。

  10号到学校后花了3天多时间把Hition的课程Neural Networks for Machine Learning大概学了一遍。共16节课。感觉这个课程还是比较不错的(很早以前有看过其中的一节RBM,完全不知所云,所以第一印象是他的课程不好),有很多工程经验性的东西在里面,因为课程主要是从工程角度上讲解的,所以如果你对所将内容有过实际项目和实验经验的话,收获会很大。这么课的基本内容是:从什么是机器学习,为什么要使用机器学习到怎样常见的NN算法在机器学习中的应用;从感知机的学习到BP算法;从NN在预测下一个单词到图片目标识别的应用;从梯度下降法到常见的NN优化算法;从Hopfield Nets到RNN网络以及其训练方法,从模型泛化到模型平均;从BM到RBM以及从RBM到DBN,DBM;从SBN到Week-Sleep算法;从PCA到Deep AutoEncoder;从joint model到Hierachy part model;还有各种DL在语音,图像,文本上的应用,以及DL的未来都给出了一定的介绍。课程覆盖的内容相当广泛;相信随着自己今后具体实践时回过图来参考这些课件,会很有帮助。

  总的来说说,”北伐”的这几天,收获还是不错的。感谢龙星计划和天津大学的组织者,感谢邓老师这几天辛苦的付出!

Deep learning:四十(龙星计划2013深度学习课程小总结)的更多相关文章

  1. 【RS】A review on deep learning for recommender systems: challenges and remedies- 推荐系统深度学习研究综述:挑战和补救措施

    [论文标题]A review on deep learning for recommender systems: challenges and remedies  (Artificial Intell ...

  2. 深度学习课程笔记(十八)Deep Reinforcement Learning - Part 1 (17/11/27) Lectured by Yun-Nung Chen @ NTU CSIE

    深度学习课程笔记(十八)Deep Reinforcement Learning - Part 1 (17/11/27) Lectured by Yun-Nung Chen @ NTU CSIE 201 ...

  3. 【Deep Learning Nanodegree Foundation笔记】第 0 课:课程计划

    第一周 机器学习的类型,以及何时使用机器学习 我们将首先简单介绍线性回归和机器学习.这将让你熟悉这些领域的常用术语,你需要了解的技术进展,并了解深度学习在更大的机器学习背景中的位置. 直播:线性回归 ...

  4. Deep Learning 8_深度学习UFLDL教程:Stacked Autocoders and Implement deep networks for digit classification_Exercise(斯坦福大学深度学习教程)

    前言 1.理论知识:UFLDL教程.Deep learning:十六(deep networks) 2.实验环境:win7, matlab2015b,16G内存,2T硬盘 3.实验内容:Exercis ...

  5. 深度学习课程笔记(十四)深度强化学习 --- Proximal Policy Optimization (PPO)

    深度学习课程笔记(十四)深度强化学习 ---  Proximal Policy Optimization (PPO) 2018-07-17 16:54:51  Reference: https://b ...

  6. 深度学习课程笔记(十二) Matrix Capsule

    深度学习课程笔记(十二) Matrix Capsule with EM Routing  2018-02-02  21:21:09  Paper: https://openreview.net/pdf ...

  7. 深度学习课程笔记(四)Gradient Descent 梯度下降算法

    深度学习课程笔记(四)Gradient Descent 梯度下降算法 2017.10.06 材料来自:http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS1 ...

  8. 深度学习课程笔记(十七)Meta-learning (Model Agnostic Meta Learning)

    深度学习课程笔记(十七)Meta-learning (Model Agnostic Meta Learning) 2018-08-09 12:21:33 The video tutorial can ...

  9. 深度学习课程笔记(十六)Recursive Neural Network

    深度学习课程笔记(十六)Recursive Neural Network  2018-08-07 22:47:14 This video tutorial is adopted from: Youtu ...

随机推荐

  1. HTML5按钮的点击态问题

    开始在网页上实现点击态是mousedown mouseup来实现但是手机HTML5实现点击态怎么就不可以了呢 经过查资料才知道手机浏览器来实现点击态是通过 touchstart touchend实现

  2. ASP.NET MVC 学习笔记(一)

    很久很久没有在博客园写过东西了,很多大虾也说过展示自己最好的地方就是有一个博客作为笔记,展示一下自己的学习和研究成果. 最近决心将公司的一款产品改用MVC的方式实现,于是乎就开始在园子里面疯狂的寻找各 ...

  3. 将SQL SERVER数据库改成MySql

    (www.helpqy.com) 架构在阿里云上,最先想采用SQL SERVER,想大家都是微软家族的嘛.但是发现SQL SERVER需要的配置比较高,需要的银子也比较多,最后在纠结之下换成了MySq ...

  4. 《C#图解教程》读书笔记之五:委托和事件

    本篇已收录至<C#图解教程>读书笔记目录贴,点击访问该目录可获取更多内容. 一.委托初窥:一个拥有方法的对象 (1)本质:持有一个或多个方法的对象:委托和典型的对象不同,执行委托实际上是执 ...

  5. 使用ACE_Task管理线程

    为什么要使用ACE_Task来管理线程 从C#转到C++后,感觉到C++比C#最难的地方,就是在系统编程时,C#中有对应的类库,我接触到一个类后,就可以通过这个类,知道很多相关的功能.而在C++中,必 ...

  6. 开启Ubuntu root 远程登录

    很早就遇到这问题了,但是今天才想到解决.也就是说Ubuntu在安装的时候,远程SSH登录是禁止的.每次你必须使用普通的用户SSH远程登录以后,然后su切换到root这样,对于强迫症的我实在是很难容忍的 ...

  7. navigationController pop的几种方法

    一,popViewControllerAnimated [self.navigationController popViewControllerAnimated:YES]; 二,popToRootVi ...

  8. 黑马程序员_java08_多线程

    转载于:http://www.itxuexiwang.com/plus/view.php?aid=148 线程是程序中可以并行执行的任务. java运行系统总是选当前优先级最高的处于就绪状态的线程来执 ...

  9. Thrift架构~windows下安装和Hello World及编码引起的错误

    最近开始正式接触Thrift架构,很牛B的技术,它被apache收纳了,属于开源中的一员,呵呵. 概念: Thrift源于大名鼎鼎的facebook之手,在2007年facebook提交Apache基 ...

  10. 搭建jekyll博客

    使用jekyll将markdown文件生成静态的html文件,并使用主题有序的进行布局,形成最终的博客页面. 特点 基于ruby 使用Markdown书写文章 无需数据库 可以使用GitHub Pag ...