中文译文:深度学习、自然语言处理和表征方法

http://blog.jobbole.com/77709/

英文原文:Deep Learning, NLP, and Representations

http://colah.github.io/posts/2014-07-NLP-RNNs-Representations/

总结:

这篇文章中主要提到了单层神经网络,单词嵌入(word embeddings),表征这几个概念,结合具体的实例,写的是通俗易懂,在引用参考文献的位置都给出了对应的链接,一些参考文献中的工作还是挺有意思的。

关于单层神经网络,介绍的浅显易懂,把神经网络比作查询表,很直观。

关于单词嵌入,文中介绍的意思是把一个词转换为一个多维向量,还用t-SNE工具直观的给出了单词嵌入空间的图,加上表格中的例子,更加易懂了。比较有意思的就是相同的词在单词嵌入空间中的距离是很近的,这个特点很有利用价值,利用这一点,提到了一些具体的应用场景,例如语法错误检查,性别类中不同代词(男-女,叔叔-阿姨,国王-王后等)之间的距离也是很相似的。关于这些应用,原文的作者的评价是,这些都是在研究方法的过程中所得的副产品。

关于表征representation,单词嵌入应该就算是一种吧,文中重点介绍了共同表征/共享嵌入(shared representation),将多个不同空间的嵌入信息映射到同一个空间,并介绍了两个很好的应用场景——双语单词嵌入和图像-文字嵌入。

双语单词嵌入,把两个语言中的单词嵌入空间用图像直观的看的话,形状是相似的,相似的词在图像中所处的位置是临近的。

图像-文字嵌入,也是相同概念的信息比较接近,例如猫的图像距离文字“猫”就很近,汽车的图像距离“汽车”就很近。这里引用了斯坦福一个小组和谷歌一个小组的工作,感觉挺有意思。

最后介绍了递归神经网络以及为什么适用于NLP。

整体来看,这篇文章更像是一篇不错的科普文章,个人认为读完之后还是有收获的,尤其是Word Embedding这个概念。

昨天搜了一下关于深度学习的相关博客,感觉很有难度。

感觉自己还是只知其一不知其二,不知道怎么在NLP中使用DL。

下面是英文原文中一些个人认为不错的概念和句子。

1:It’s true, essentially, because the hidden layer can be used as a lookup table.

2:word embeddings;

3:It seems natural for a network to make words with similar meanings have similar vectors.

4:You’ve seen all the words that you understand before, but you haven’t seen all the sentences that you understand before. So too with neural networks.

5:Word embeddings exhibit an even more remarkable property: analogies between words seem to be encoded in the difference vectors between words.

6:This general tactic – learning a good representation on a task A and then using it on a task B – is one of the major tricks in the Deep Learning toolbox. It goes by different names depending on the details: pretraining, transfer learning, and multi-task learning. One of the great strengths of this approach is that it allows the representation to learn from more than one kind of data.

There’s a counterpart to this trick. Instead of learning a way to represent one kind of data and using it to perform multiple kinds of tasks, we can learn a way to map multiple kinds of data into a single representation!

7:Shared Representations

(1)Bilingual Word Embeddings;

(2)Embed images and words in a single representation;

8:By merging sequences of words, A takes us from representing words to representing phrases or even representing whole sentences! And because we can merge together different numbers of words, we don’t have to have a fixed number of inputs.

ZH奶酪:【阅读笔记】Deep Learning, NLP, and Representations的更多相关文章

  1. (Deep) Neural Networks (Deep Learning) , NLP and Text Mining

    (Deep) Neural Networks (Deep Learning) , NLP and Text Mining 最近翻了一下关于Deep Learning 或者 普通的Neural Netw ...

  2. [论文阅读笔记] Adversarial Learning on Heterogeneous Information Networks

    [论文阅读笔记] Adversarial Learning on Heterogeneous Information Networks 本文结构 解决问题 主要贡献 算法原理 参考文献 (1) 解决问 ...

  3. 论文笔记: Deep Learning based Recommender System: A Survey and New Perspectives

    (聊两句,突然记起来以前一个学长说的看论文要能够把论文的亮点挖掘出来,合理的进行概括23333) 传统的推荐系统方法获取的user-item关系并不能获取其中非线性以及非平凡的信息,获取非线性以及非平 ...

  4. 深度学习阅读列表 Deep Learning Reading List

    Reading List List of reading lists and survey papers: Books Deep Learning, Yoshua Bengio, Ian Goodfe ...

  5. 深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes

    来自:CVPR 2014   作者:Yi Sun ,Xiaogang Wang,Xiaoao Tang 题目:Deep Learning Face Representation from Predic ...

  6. 阅读笔记Multi-task Learning for Stock Selection [NIPS1996]

    Multi-task Learning for Stock Selection  Joumana Ghosn and Yoshua Bengio 摘要 用人工神经网络预测未来回报以便于做出对应的金融决 ...

  7. (Stanford CS224d) Deep Learning and NLP课程笔记(一):Deep NLP

    Stanford大学在2015年开设了一门Deep Learning for Natural Language Processing的课程,广受好评.并在2016年春季再次开课.我将开始这门课程的学习 ...

  8. Deep Learning for Natural Language Processing1

    Focus, Follow, and Forward Stanford CS224d 课程笔记 Lecture1 Stanford CS224d 课程笔记 Lecture1 Stanford大学在20 ...

  9. Rolling in the Deep (Learning)

    Rolling in the Deep (Learning) Deep Learning has been getting a lot of press lately, and is one of t ...

随机推荐

  1. 洛谷P3119 USACO15JAN 草鉴定

    题目描述 In an effort to better manage the grazing patterns of his cows, Farmer John has installed one-w ...

  2. python学习两月总结_汇总大牛们的思想_值得收藏

    下面是我汇总的我学习两个月python(version:3.3.2)的所有笔记 你可以访问:http://www.python.org获取更多信息 你也可以访问:http://www.cnblogs. ...

  3. HowTo: Restart SSH Service under Linux / UNIX

    How do I restart SSH service under Linux or UNIX operating systems? The command to restart ssh are a ...

  4. java基础学习总结——GUI编程(一)

    一.AWT介绍

  5. Pig系统分析(5)-从Logical Plan到Physical Plan

    Physical Plan生成过程 优化后的逻辑运行计划被LogToPhyTranslationVisitor处理,生成物理运行计划. 这是一个经典的Vistor设计模式应用场景. 当中,LogToP ...

  6. iOS内存优化及排查方法

    1.IBOutlet 对象需要release 2.不停的往UIView,特别是UIScrollView上add相同SubView.一定要记得清除之前的SubView,并且在dealloc函数中执行该方 ...

  7. 如何使用 Core Plot 的 API 帮助文档

    Core Plot 可是 iOS 下绝好的图表组件,虽说它的相关资料不甚丰富,特别是中文的,英文的还是有几篇不错的文章,不过 Core Plot 自身提供的 API 帮助文档,以及代码示例其实很有用的 ...

  8. 【java】关于Map的排序性的一次使用,有序的Map

    关于Map的排序性的一次使用,有序的Map >>>>> hashmap是按key的hash码排序的,而treemap是利用comparator 进行key的自然排序的 / ...

  9. Windows Embedded Compact 7初体验

    Windows Embedded Compact 7初体验 Windows Embedded Compact 7已经出来半年多了,一直没时间搞.最近它又出了Refresh的版本,电脑也换了个1T的硬盘 ...

  10. svn(subversion)版本控制系统学习与理解

    定义:Apache Subversion(简称SVN,svn),一个开放源代码的版本控制系统,相较于RCS.CVS,它采用了分支管理系统,它的设计目标就是取代CVS. 从这段话,我们可以得到四点信息: ...