目录 1. 相关工作 2. 方法细节 2.1 收听器 2.2 注意力和拼写 本文提出了一个基于神经网络的语音识别系统List, Attend and Spell(LAS),能够将语音直接转录为文字. 进步性:LAS将声学.发音和语言模型融合为一个神经模型,因此可以实现端到端.LAS只包含两部分:收听器(listener)和拼写器(speller).收听器是一个金字塔循环网络编码器,拼写器是一个基于注意力机制的循环网络解码器. 1. 相关工作 当前最先进的语音识别器包含多个组分:声学模型.语言模型…
LAS是Listen(Encoder),Attend,和Spell(Decoder)的简称 第一个步骤Listen(Encoder) listen的作用是输入一段语音信号,输出一段向量,去掉语音中的杂序,只保留和语音有关的部分. 上图中acoustic features表示的是每一帧的声音信号. listen进行encoder RNN CNN 将fliter沿着时间的方向扫过每一个acoustic features ,每一个fliter会吃一个范围的acoustic features进去得到一个…
本文介绍了Alex net 在imageNet Classification 中的惊人表现,获得了ImagaNet LSVRC2012第一的好成绩,开启了卷积神经网络在cv领域的广泛应用. 1.数据集 ImageNet [6], which consists of  over 15 million labeled high-resolution images in over 22,000 categories. here,ILSVRC uses a subset of ImageNet with…
今天给大家带来一篇来自CVPR 2017关于人脸识别的文章. 文章题目:Deep Convolutional Neural Network using Triplets of Faces, Deep Ensemble, and 摘要: 文章动机:人脸识别在一个没有约束的环境下,在计算机视觉中是一个非常有挑战性的问题.同一个身份的人脸当呈现不同的装饰,不同的姿势和不同的表情都可以使人脸看起来完全不同.这种相同身份的变化可以压倒不同身份的变化,这样给人脸识别带来更大的挑战,特别是在没有约束的环境下.…
How Transformers Work --- The Neural Network used by Open AI and DeepMind Original English Version link:https://towardsdatascience.com/transformers-141e32e69591 Chinese version by 量子位. 本文的主要内容:RNN, LSTM, Attention, CNN, Transformer, Self-Attention, M…
Recurrent Neural Network 2016年07月01日  Deep learning  Deep learning 字数:24235   this blog from: http://jxgu.cc/blog/recent-advances-in-RNN.html    References Robert Dionne Neural Network Paper Notes Baisc Improvements 20170326 Learning Simpler Language…
转自:http://www.asimovinstitute.org/neural-network-zoo/ THE NEURAL NETWORK ZOO POSTED ON SEPTEMBER 14, 2016 BY FJODOR VAN VEEN   With new neural network architectures popping up every now and then, it's hard to keep track of them all. Knowing all the a…
Reference:   Alex Graves的[Supervised Sequence Labelling with RecurrentNeural Networks] Alex是RNN最著名变种,LSTM发明者Jürgen Schmidhuber的高徒,现加入University of Toronto,拜师Hinton. 统计语言模型与序列学习 1.1 基于频数统计的语言模型 NLP领域最著名的语言模型莫过于N-Gram. 它基于马尔可夫假设,当然,这是一个2-Gram(Bi-Gram)模…
Progressive Neural Network  Google DeepMind 摘要:学习去解决任务的复杂序列 --- 结合 transfer (迁移),并且避免 catastrophic forgetting (灾难性遗忘) --- 对于达到 human-level intelligence 仍然是一个关键性的难题.本文提出的 progressive networks approach 朝这个方向迈了一大步:他们对 forgetting 免疫,并且可以结合 prior knowledg…
Convolutional Neural Networks are great: they recognize things, places and people in your personal photos, signs, people and lights in self-driving cars, crops, forests and traffic in aerial imagery, various anomalies in medical images and all kinds…
catalogue . 引言 . Neural Networks Transform Space - 神经网络内部的空间结构 . Understand the data itself by visualizing high-dimensional input dataset - 输入样本内隐含的空间结构 . Example : Word Embeddings in NLP - text word文本词语串内隐含的空间结构 . Example : Paragraph Vectors in NLP…
1.BP neural network optimized by PSO algorithm on Ammunition storage reliability prediction 文献简介文献来源:https://ieeexplore.ieee.org/document/8242856 文献级别:EI检索 摘要:Storage reliability of the ammunition dominates the efforts in achieving the mission reliab…
题目:利用自适应概率网络设计一种在线脑机接口楼方法控制手部抓握 概要:这篇文章提出了一种新的脑机接口方法,控制手部,系列手部抓握动作和张开在虚拟现实环境中.这篇文章希望在现实生活中利用脑机接口技术控制抓握.BCI研究的一个难点是被试者训练问题.现在,大多数方法采用的离线的无反馈训练 我们研究了被试者在进行运动想象时候,是否能够在没有离线训练而直接就在线训练中取得良好的表现. 另外一个重要的话题是设计在线BCI系统,机器学习的方法分类以不同天数标记的大脑信号. 设计了概率神经网络 只在线训练了三分…
下面的RNN,LSTM,GRU模型图来自这里 简单的综述 1. RNN 图1.1 标准RNN模型的结构 2. BiRNN 3. LSTM 图3.1 LSTM模型的结构 4. Clockwork RNN 5. Depth Gated RNN 6. Grid LSTM 7. DRAW 8. RLVM 9. GRU 图9.1 GRU模型的结构 10. NTM 11. QRNN 图11.1 f-pooling时候的QRNN结构图 图11.2 fo-pooling时候的QRNN结构图 图11.3 ifo-…
0.引言 我们发现传统的(如前向网络等)非循环的NN都是假设样本之间无依赖关系(至少时间和顺序上是无依赖关系),而许多学习任务却都涉及到处理序列数据,如image captioning,speech synthesis,music generation是基于模型输出序列数据:如time series prediction,video analysis,musical information retrieval是基于模型输入需要序列数据:而如translating natural language…
Person Re-identification with Deep Similarity-Guided Graph Neural Network 2018-07-27 17:41:45 Paper: https://128.84.21.199/pdf/1807.09975.pdf 本文将 Graph Neural Network (GNN) 应用到 person re-ID 的任务中,用于 model 不同 prob-gallery 之间的关系,将该信息也用于 feature learning…
A NEW HYPERSPECTRAL BAND SELECTION APPROACH BASED ON CONVOLUTIONAL NEURAL NETWORK 文章地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8127792 写在前面:各位朋友好,这是本人第一篇博客,为了不打击自己,决定从一篇易懂的paper的阅读笔记开始写起,写的不好不对的地方望各位朋友不吝赐教,在此先行谢过. 1.文章简介: 这是一篇运用卷积神经网…
Kalchbrenner’s Paper Kal的这篇文章引用次数较高,他提出了一种名为DCNN(Dynamic Convolutional Neural Network)的网络模型,在上一篇(Kim’s Paper)中的实验结果部分也验证了这种模型的有效性.这个模型的精妙之处在于Pooling的方式,使用了一种称为动态Pooling的方法. 下图是这个模型对句子语义建模的过程,可以看到底层通过组合邻近的词语信息,逐步向上传递,上层则又组合新的Phrase信息,从而使得句子中即使相离较远的词语也…
Finally pass all the Deeplearning.ai courses in March! I highly recommend it! If you already know the basic then you may be interested in course 4 & 5, which shows many interesting cases in CNN and RNN. Although I do think that 1 & 2 is better str…
今年去参加了ASPLOS 2017大会,这个会议总体来说我感觉偏系统和偏软一点,涉及硬件的相对少一些,对我这个喜欢算法以及硬件架构的菜鸟来说并不算非常契合.中间记录了几篇相对比较有趣的paper,今天简单写一篇. SC-DCNN: Highly-Scalable Deep Convolutional Neural Network using Stochastic Computing 单位作者: 我们知道在神经网络计算中,最主要的计算就是乘加,本篇重点就是解释了什么是Stochastic Comp…
neural network and deep learning 这本书看了陆陆续续看了好几遍了,但每次都会有不一样的收获. DL领域的paper日新月异.每天都会有非常多新的idea出来,我想.深入阅读经典书籍和paper,一定能够从中发现remian open的问题.从而有不一样的视角. PS:blog主要摘取书中重要内容简述. 摘要部分 Neural networks, a beautiful biologically-inspired programming paradigm which…
A Survey of Model Compression and Acceleration for Deep Neural Network时s 本文全面概述了深度神经网络的压缩方法,主要可分为参数修剪与共享.低秩分解.迁移/压缩卷积滤波器和知识精炼,论文对每一类方法的性能.相关应用.优势和缺陷等方面进行了独到分析. 研究背景 在神经网络方面,早在上个世纪末,Yann LeCun 等人已经使用神经网络成功识别了邮件上的手写邮编.至于深度学习的概念是由 Geoffrey Hinton 等人首次提出…
代码:https://github.com/Yochengliu/Relation-Shape-CNN 文章:https://arxiv.org/abs/1904.07601 作者直播:https://www.bilibili.com/video/av61824733 作者维护了一个收集一系列点云论文.代码.数据集的github仓库:https://github.com/Yochengliu/awesome-point-cloud-analysis 这篇paper是CVPR 2019 Oral…
作者简介: 吴天龙  香侬科技researcher 公众号(suanfarensheng) 导言 图(graph)是一个非常常用的数据结构,现实世界中很多很多任务可以描述为图问题,比如社交网络,蛋白体结构,交通路网数据,以及很火的知识图谱等,甚至规则网格结构数据(如图像,视频等)也是图数据的一种特殊形式,因此图是一个很值得研究的领域. 针对graph的研究可以分为三类: 1.经典的graph算法,如生成树算法,最短路径算法,复杂一点的二分图匹配,费用流问题等等: 2.概率图模型,将条件概率表达为…
[论文标题]Automatic recommendation technology for learning resources with convolutional neural network (2016 ISET) [论文作者]Xiaoxuan Shen, Baolin Yi*, Zhaoli Zhang,Jiangbo Shu, and Hai Liu [论文链接]Paper(5-pages // Double column) <札记非FY> [摘要] 自动学习资源推荐已经成为一个越来…
MetaPruning: Meta Learning for Automatic Neural Network Channel Pruning 2019-08-11 19:48:17 Paper: https://arxiv.org/pdf/1903.10258.pdf Code: https://github.com/liuzechun/MetaPruning 1. Background and Motivation:…
ImageNet Classification with Deep Convolutional Neural Network 利用深度卷积神经网络进行ImageNet分类 Abstract We trained a large, deep convolutional neural network to classify the 1.2 million high-resolution images in the ImageNet LSVRC-2010 contest into the 1000 d…
MetaPruning 2019-ICCV-MetaPruning Meta Learning for Automatic Neural Network Channel Pruning Zechun Liu (HKUST).Xiangyu Zhang (MEGVII).Jian Sun(MEGVII) GitHub:251 stars Citation:20 Motivation A typical pruning approach contains three stages: training…
目录 摘要 一.引言 二.相关工作 基于视图和体素的方法 点云上的深度学习 相关性学习 三.形状意识表示学习 3.1关系-形状卷积 建模 经典CNN的局限性 变换:从关系中学习 通道提升映射 3.2性质 置换不变性 对刚性变换鲁棒 点相互作用 权重共享 3.3再讨论2D网格卷积 3.4用于点云分析的RS-CNN 3.5应用细节 四.实验 4.1点云分析 形状分类 形状部件分割 法向量估计 4.2 RS-CNN设计分析 消融研究 聚合函数A 映射函数M 低级关系h 点置换和刚性变换的鲁棒性 4.3…
作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明.谢谢! 本文翻译自 RECURRENT NEURAL NETWORKS TUTORIAL, PART 1 – INTRODUCTION TO RNNS . Recurrent Neural Networks(RNNS) ,循环神经网络,是一个流行的模型,已经在许多NLP任务上显示出巨大的潜力.尽管它最近很流行,但是我发现能够解释RNN如何工作,以及如何实现RNN的资料很少…