- Fire modules consisting of a 'squeeze' layer with 1*1 filters feeding an 'expand' layer with 1*1 and 3*3 filters(Fire模塊包含一個'1*1濾波器的'擠壓'層和一個1*1和3*3濾波器的'擴展'層) - AlexNet level accuracy on ImageNet with 50x fewer parameters(具有AlexNet水平的精度,卻少了50倍的參數量) -…
论文地址:https://arxiv.org/abs/1602.07360 模型地址:https://github.com/DeepScale/SqueezeNet 1. 论文思想 提出一种新的卷积组合方式替代原来的3*3的卷积.类似于bottleneck layer减少参数数目.但是不太像MobileNet是提出了一种新的卷积计算方式来减少参数,加速计算. 2. 网络结构设计策略 用3*3的替代1*1的filter. (NiN, GoogLeNet) 减少3*3的输入channel数目. (b…
论文阅读笔记 转载请注明出处: http://www.cnblogs.com/sysuzyq/p/6186518.html By 少侠阿朱…
This Blog is a compilation of various methods of passing Request Parameters in JSF (2.0 +) (1)  f:viewParam One of the features added in JSF 2.0 is "View Parameters"; Simply speaking it allows adding "Query string" or "Request Par…
自 2012 年 AlexNet 以来,卷积神经网络在图像分类.目标检测.语义分割等领域获得广泛应用.随着性能要求越来越高,AlexNet 已经无法满足大家的需求,于是乎各路大牛纷纷提出性能更优越的 CNN 网络,如 VGG.GoogLeNet.ResNet.DenseNet 等.由于神经网络的性质,为了获得更好的性能,网络层数不断增加,从 7 层 AlexNet 到 16 层 VGG,再从 16 层 VGG 到 GoogLeNet 的 22 层,再到 152 层 ResNet,更有上千层的 R…
前言 深度卷积网络除了准确度,计算复杂度也是考虑的重要指标.本文列出了近年主流的轻量级网络,简单地阐述了它们的思想.由于本人水平有限,对这部分的理解还不够深入,还需要继续学习和完善. 最后我参考部分列出来的文章都写的非常棒,建议继续阅读. 复杂度分析 理论计算量(FLOPs):浮点运算次数(FLoating-point Operation) 参数数量(params):单位通常为M,用float32表示. 对比 std conv(主要贡献计算量) params:\(k_h\times k_w\ti…
欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 技术交流QQ群:433250724,欢迎对算法.技术感兴趣的同学加入. 继续前面关于深度学习CNN经典模型的整理,之前介绍了CNN网络Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning(点击查看)的网络结构. 本文讲一下最新由UC Berkeley和Stanford研究人员一起完成的SqueezeNet[1]网络结构和设计思想.SqueezeNet设计目标…
虽然网络性能得到了提高,但随之而来的就是效率问题(AlexNet VGG GoogLeNet Resnet DenseNet) 效率问题主要是模型的存储问题和模型进行预测的速度问题. Model Compression: 从模型权重数值角度压缩 从网络架构角度压缩 对于效率问题,通常的方法即在已经训练好的模型上进行压缩,使得网络携带更少的网络参数,从而解决内存问题,同时解决速度问题. 相比于在已经训练好的模型上进行处理,轻量化模型模型设计则是另辟蹊径.轻量化模型设计主要思想在于设计更高效的「网络…
SqueezeNet系列是比较早期且经典的轻量级网络,SqueezeNet使用Fire模块进行参数压缩,而SqueezeNext则在此基础上加入分离卷积进行改进.虽然SqueezeNet系列不如MobieNet使用广泛,但其架构思想和实验结论还是可以值得借鉴的.   来源:晓飞的算法工程笔记 公众号 SqueezeNet 论文: SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size 论…
这里翻译下<Deep face recognition: a survey v4>. 1 引言 由于它的非侵入性和自然特征,人脸识别已经成为身份识别中重要的生物认证技术,也已经应用到许多领域,如军事,进入,公共安全和日常生活.FR自然在CVPR会议中也占据了十分长的时间.早在1990年代,随着特征脸的提出[157],FR就成为了一个比较热门的研究领域.过去基于特征进行FR的里程碑方法在图1中有所展示 如图1所示,其中介绍了4个主流技术的发展过程: holistic 方法:通过某种分布假设去直接…
本文由云+社区发表 导语:卷积神经网络日益增长的深度和尺寸为深度学习在移动端的部署带来了巨大的挑战,CNN模型压缩与加速成为了学术界和工业界都重点关注的研究领域之一. 前言 自从AlexNet一举夺得ILSVRC 2012 ImageNet图像分类竞赛的冠军后,卷积神经网络(CNN)的热潮便席卷了整个计算机视觉领域.CNN模型火速替代了传统人工设计(hand-crafted)特征和分类器,不仅提供了一种端到端的处理方法,还大幅度地刷新了各个图像竞赛任务的精度,更甚者超越了人眼的精度(LFW人脸识…
126 篇殿堂级深度学习论文分类整理 从入门到应用 | 干货 雷锋网 作者: 三川 2017-03-02 18:40:00 查看源网址 阅读数:66 如果你有非常大的决心从事深度学习,又不想在这一行打酱油,那么研读大牛论文将是不可避免的一步.而作为新人,你的第一个问题或许是:“论文那么多,从哪一篇读起?” 本文将试图解决这个问题——文章标题本来是:“从入门到绝望,无止境的深度学习论文”.请诸位备好道具,开启头悬梁锥刺股的学霸姿势. 开个玩笑. 但对非科班出身的开发者而言,读论文的确可以成为一件很…
Where can I start with Deep Learning? By Rotek Song, Deep Reinforcement Learning/Robotics/Computer Vision/iOS | 03/01/2017   If you are a newcomer to the Deep Learning area, the first question you may have is “Which paper should I start reading from?…
转自:https://github.com/ritchieng/the-incredible-pytorch The Incredible PyTorch What is this? This is inspired by the famous Awesome TensorFlow repository where this repository would hold tutorials, projects, libraries, videos, papers, books and anythi…
Convolutional Neural Networks ImageNet Models Architecture Design Activation Functions Visualization Fast Convolution Low-Rank Filter Approximation Low Precision Parameter Pruning Transfer Learning Theory 3D Data Hardware ImageNet Models 2017 CVPR Xc…
caffe的伯克利主页:http://caffe.berkeleyvision.org/caffe的github主页:https://github.com/BVLC/caffe caffe的models: http://dl.caffe.berkeleyvision.org/ Index of / ../ mit_mini_places/ 01-Mar-2016 12:18 - bvlc_alexnet.caffemodel 22-Aug-2014 04:36 243862414 bvlc_go…
    Pull requestsIssues Marketplace Explore             Learn Git and GitHub without any code! Using the Hello World guide, you’ll start a branch, write comments, and open a pull request. Read the guide Watch 2,133  Star23,826 Fork5,417 floodsung/Dee…
自己搭建神经网络时,一般都采用已有的网络模型,在其基础上进行修改.从2012年的AlexNet出现,如今已经出现许多优秀的网络模型,如下图所示. 主要有三个发展方向: Deeper:网络层数更深,代表网络VggNet Module: 采用模块化的网络结构(Inception),代表网络GoogleNet Faster: 轻量级网络模型,适合于移动端设备,代表网络MobileNet和ShuffleNet Functional: 功能型网络,针对特定使用场景而发展出来.如检测模型YOLO,Faste…
微调 Torchvision 模型 在本教程中,我们将深入探讨如何对 torchvision 模型进行微调和特征提取,所有这些模型都已经预先在1000类的Imagenet数据集上训练完成.本教程将深入介绍如何使用几个现代的CNN架构,并将直观展示如何微调任意的PyTorch模型.由于每个模型架构是有差异的,因此没有可以在所有场景中使用的微调代码样板.然而,研究人员必须查看现有架构并对每个模型进行自定义调整. 在本文档中,我们将执行两种类型的转移学习:微调和特征提取.在微调中,我们从预训练模型开始…
CNN结构演变总结(一)经典模型 导言: 上一篇介绍了经典模型中的结构演变,介绍了设计原理,作用,效果等.在本文,将对轻量化模型进行总结分析. 轻量化模型主要围绕减少计算量,减少参数,降低实际运行时间,简化底层实现方式等这几个方面,提出了深度可分离卷积,分组卷积,可调超参数降低空间分辨率和减少通道数,新的激活函数等方法,并针对一些现有的结构的实际运行时间作了分析,提出了一些结构设计原则,并根据这些原则来设计重新设计原结构. 注:除了以上这种直接设计轻量的.小型的网络结构的方式外,还包括使用知识蒸…
Torchvision模型微调 本文将深入探讨如何对 torchvision 模型进行微调和特征提取,所有这些模型都已经预先在1000类的magenet数据集上训练完成.将深入介绍如何使用几个现代的CNN架构,并将直观展示如何微调任意的PyTorch模型.由于每个模型架构是有差异的,因此没有可以在所有场景中使用的微调代码样板.然而,研究人员必须查看现有架构,对每个模型进行自定义调整. 将执行两种类型的转移学习:微调和特征提取. 在微调中,从预训练模型开始,更新新任务的所有模型参数,实质上是重新训…
论文地址:面向基于深度学习的语音增强模型压缩 论文代码:没开源,鼓励大家去向作者要呀,作者是中国人,在语音增强领域 深耕多年 引用格式:Tan K, Wang D L. Towards model compression for deep learning based speech enhancem…
在论文<SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE>中,作者对模型进行压缩的核心我感觉就是利用许多的Fire Module模块来替代原来的conv+pool 其中所谓的"Fire Module"就是一种专门设计的结构,具体而言是由两部分构成:sequeeze以及后面连接的enpand两部分,其中的sequeeze部分是卷积核为1*1的卷积层,后面的…
转自:https://github.com/terryum/awesome-deep-learning-papers Awesome - Most Cited Deep Learning Papers A curated list of the most cited deep learning papers (since 2010) I believe that there exist classic deep learning papers which are worth reading re…
本文来自<MobileFaceNets: Efficient CNNs for Accurate Real-Time Face Verification on Mobile Devices>,时间线为2018年4月.是北京交通大学和握奇数据公司的作品. 人脸发展至今,效果相比传统方法有了很大的提升,然而受限于机器资源和实时性部署等需求,需要考虑诸如MobileNet等网络的使用. 0 引言 在越来越多的手机和嵌入式设备上,人脸验证变成越来越流行的一个认证技术.然而,现在高准确度的人脸验证模型都…
两派 1. 新的卷机计算方法 这种是直接提出新的卷机计算方式,从而减少参数,达到压缩模型的效果,例如SqueezedNet,mobileNet SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size 修改网络结构,类似于mobileNet MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Appli…
1. Parameter pruning and sharing 1.1 Quantization and Binarization Compressing deep convolutional networks using vector quantization Quantized convolutional neural networks for mobile devices Improving the speed of neural networks on cpus Deep learni…
用 Distiller 压缩 PyTorch 模型 作者: PyTorch 中文网发布: 2018年7月15日 5,101阅读 0评论 近日,Intel 开源了一个用于神经网络压缩的开源 Python 软件包 Distiller,它可以减少深度神经网络的内存占用.加快推断速度及节省能耗.Distiller 为 PyTorch 环境提供原型和分析压缩算法,例如产生稀疏性张量的方法和低精度运算等. 项目地址:https://github.com/NervanaSystems/distiller/ 文…
MANIFEST文件是Level DB的元信息文件,它里面的格式是leveldb的Log格式,一个menifest是一个record: void VersionEdit::EncodeTo(std::string* dst) const { if (has_comparator_) { // 记录Comparator PutVarint32(dst, kComparator); PutLengthPrefixedSlice(dst, comparator_); } if (has_log_num…
一:项目需求,前端有一个页面,页面中可以手动输入一些参数数据,通过点击前端的按钮,使输入的数据保存到后台生成的.xml文件中 二:我在前端使用的是easyui的propertygrid,这个能通过data-options中的URL: '/task1/com/guodiantong/servlet/JsonToJspServlet.action'这个地址对应后台的servlet,要求在对应的servlet中必须有json格式的字符串输出: String ss=javaToGson.javaToSt…