原文链接 小样本学习与智能前沿 . 在这个公众号后台回复"DKNN",即可获得课件电子资源. 文章已经表明,对于将知识从整体模型或高度正则化的大型模型转换为较小的蒸馏模型,蒸馏非常有效.在MNIST上,即使用于训练蒸馏模型的迁移集缺少一个或多个类别的任何示例,蒸馏也能很好地工作.对于Android语音搜索所用模型的一种深层声学模型,我们已经表明,通过训练一组深层神经网络实现的几乎所有改进都可以提炼成相同大小的单个神经网络,部署起来容易得多. 对于非常大的神经网络,甚至训练一个完整的集成…
论文内容 G. Hinton, O. Vinyals, and J. Dean, "Distilling the Knowledge in a Neural Network." 2015. 如何将一堆模型或一个超大模型的知识压缩到一个小模型中,从而更容易进行部署? 训练超大模型是因为它更容易提取出数据的结构信息(为什么?) 知识应该理解为从输入到输出的映射,而不是学习到的参数信息 模型的泛化性来源于错误答案的相对概率大小(一辆宝马被误判为卡车的概率大于被误判为萝卜的概率),而泛化性是学…
url: https://arxiv.org/abs/1503.02531 year: NIPS 2014   简介 将大模型的泛化能力转移到小模型的一种显而易见的方法是使用由大模型产生的类概率作为训练小模型的"软目标"  其中, T(temperature, 蒸馏温度), 通常设置为1的.使用较高的T值可以产生更软的类别概率分布. 也就是, 较高的 T 值, 让学生的概率分布可以更加的接近与老师的概率分布, 下面通过一个直观的例子来感受下 def softmax_with_T(…
今年去参加了ASPLOS 2017大会,这个会议总体来说我感觉偏系统和偏软一点,涉及硬件的相对少一些,对我这个喜欢算法以及硬件架构的菜鸟来说并不算非常契合.中间记录了几篇相对比较有趣的paper,今天简单写一篇. SC-DCNN: Highly-Scalable Deep Convolutional Neural Network using Stochastic Computing 单位作者: 我们知道在神经网络计算中,最主要的计算就是乘加,本篇重点就是解释了什么是Stochastic Comp…
论文地址:TCNN:时域卷积神经网络用于实时语音增强 论文代码:https://github.com/LXP-Never/TCNN(非官方复现) 引用格式:Pandey A, Wang D L. TCNN: Temporal convolutional neural network for real-time speech enhancement in the time domain[C]//ICASSP 2019-2019 IEEE International Conference on Ac…
Decoupled Deep Neural Network for Semi-supervised Semantic Segmentation xx…
ReNet: A Recurrent Neural Network Based Alternative to Convolutional Networks2018-03-05  11:13:05   1. 引言: 本文尝试用 基于四个方向的 RNN 来替换掉 CNN中的 convolutional layer(即:卷积+Pooling 的组合).通过在前一层的 feature 上进行四个方向的扫描,完成特征学习的过程. The recurrent layer ensures that each…
今天看到一篇1988年的老文章谈到了训练一个简单网络是NPC问题[1].也就是下面的网络结构,在线性激活函数下,如果要找到参数使得输入数据的标签估计准确,这个问题是一个NPC问题.这个文章的意义在于宣判了找简单的神经网络来降低计算难度是行不通的,同时找多项式内求解的算法也不用再考虑了. 站在时代的背景上,这篇文章反应了算力不足时期神经网络的尴尬位置,告诉我们算力设备是搞神经网络不可缺少的资源. [1] A. Blum and R. L. Rivest, "Training a 3-Node Ne…
原来交叉熵还有一个tempature,这个tempature有如下的定义: \[ q_i=\frac{e^{z_i/T}}{\sum_j{e^{z_j/T}}} \] 其中T就是tempature,一般这个T取值就是1,如果提高: In [6]: np.exp(np.array([1,2,3,4])/2)/np.sum(np.exp(np.array([1,2,3,4])/2)) Out[6]: array([0.10153632, 0.1674051 , 0.27600434, 0.45505…
最近读到了一本很好的关于机器学习-深度学习的书值得推荐下并特意做了这个学习总结. 为什么推荐 在我认为好书(计算机类)的评判有几个标准: 试图以通俗的语言阐述,并在引入任何新概念的时候都讲述来龙去脉,在无法详细展开的地方提供深入阅读的资料或者线索供读者自己去挖掘: 有易操作上手的实践: 没有明显的错误,花了足够的思考时间: 目前为止,我读到能符合上述标准的好书不多,例如深入理解计算机系统,汇编语言(王爽),再就是这本<如何从零开始构建神经网络>. 遇到这本书也是一种机缘,当下深度学习非常火热,…