LeNet,AlexNet,VGG,GoogLeNet
卷积神经网络-LeNet
理解channel:卷积操作完成后输出的 out_channels
,取决于卷积核的数量。此时的 out_channels
也会作为下一次卷积时的卷积核的 in_channels
C1 层功能解读:卷积核(filter)实际上就是小的特征模版(5×5 feature window),卷积的作用就是用 特征模版在全图(input image)逐点计算每个点及其邻域 与该模版的符合度
S2 层功能解读:S2 层将 C1 层的 6 个特征图分别缩小 1 倍,在尺寸缩小的前提下,要保留 C1 层特 征图中的显著特征,这种保留分两个方面解读:位置、输出
C3 层功能解读:这一层将前层的 6 个特征按 16 种方式组合成 16 个组合卷积核(combined filters), 用这种卷积核对前层的 6 个特征图,做卷积、加截距(偏差)、通过激活函数,获得 16 个新的特征 图,每个特征图对应一个组合卷积核所表达的组合特征
S4 层功能解读:S4 层将 C3 层的 16 个特征图分别缩小 1 倍,在尺寸缩小的前提下,要保留 C3 层 特征图中的显著特征。
C5 层功能解读:这一层将前层的 16 个特征按全参加的方式组合成 120 个组合卷积核(combined filters),用这种卷积核对前层的 16 个特征图,做卷积、加截距、通过激活函数,获得 120 个新的 特征图(实际上只是一个特征值),每个特征值对应一个组合卷积核所表达的全图组合特征
F6 层功能解读:这一层将前层的 120 个神经元输出值按全连接方式得到本层的 84 个单元
F7 层功能解读:这一层将前层的 84 个神经元输出值按全连接方式得到本层的 10 个单元
代价函数:而网络学习的目的就是要通过修改网络权值,从而 降低这个代价值,使得网络输出尽量靠近对应的标签
Gradient Descent :
神经网络训练的目的就是选择合适的 θ使得代价函数取得极小
Cross Entropy Loss Function
是与Softmax网络相匹配的代价函数
基于信息熵的解释:
NiN块
一个卷积层后跟两个全连接层
步幅为1, 无填充, 输出形状跟卷积层输出一样
起到全连接层的作用
架构:
无全连接层
交替使用NiN块和步幅为2的最大池 化层,逐步减少高度和最大通道数
最后使用全局平均池化层得到输出,其输入通道数是类别数
LeNet,AlexNet,VGG,GoogLeNet的更多相关文章
- AlexNet,VGG,GoogleNet,ResNet
AlexNet: VGGNet: 用3x3的小的卷积核代替大的卷积核,让网络只关注相邻的像素 3x3的感受野与7x7的感受野相同,但是需要更深的网络 这样使得参数更少 大多数内存占用在靠前的卷积层,大 ...
- CNN Architectures(AlexNet,VGG,GoogleNet,ResNet,DenseNet)
AlexNet (2012) The network had a very similar architecture as LeNet by Yann LeCun et al but was deep ...
- LeNet, AlexNet, VGGNet, GoogleNet, ResNet的网络结构
1. LeNet 2. AlexNet 3. 参考文献: 1. 经典卷积神经网络结构——LeNet-5.AlexNet.VGG-16 2. 初探Alexnet网络结构 3.
- #Deep Learning回顾#之LeNet、AlexNet、GoogLeNet、VGG、ResNet
CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Paper,当时提到,2006年虽然Deep Learning的概念被提出来了,但是学术界的大家还是表示不服.当时有流传的段 ...
- LeNet,AlexNet,GoogleLeNet,VggNet等网络对比
CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Paper,当时提到,2006年虽然Deep Learning的概念被提出来了,但是学术界的大家还是表示不服.当时有流传的段 ...
- Deep Learning 经典网路回顾#之LeNet、AlexNet、GoogLeNet、VGG、ResNet
#Deep Learning回顾#之LeNet.AlexNet.GoogLeNet.VGG.ResNet 深入浅出——网络模型中Inception的作用与结构全解析 图像识别中的深度残差学习(Deep ...
- 五大经典卷积神经网络介绍:LeNet / AlexNet / GoogLeNet / VGGNet/ ResNet
欢迎大家关注我们的网站和系列教程:http://www.tensorflownews.com/,学习更多的机器学习.深度学习的知识! LeNet / AlexNet / GoogLeNet / VGG ...
- (转)ResNet, AlexNet, VGG, Inception: Understanding various architectures of Convolutional Networks
ResNet, AlexNet, VGG, Inception: Understanding various architectures of Convolutional Networks by KO ...
- 深度学习方法(五):卷积神经网络CNN经典模型整理Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning
欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 技术交流QQ群:433250724,欢迎对算法.技术感兴趣的同学加入. 关于卷积神经网络CNN,网络和文献中 ...
- 经典深度学习CNN总结 - LeNet、AlexNet、GoogLeNet、VGG、ResNet
参考了: https://www.cnblogs.com/52machinelearning/p/5821591.html https://blog.csdn.net/qq_24695385/arti ...
随机推荐
- 华为eNSP 基础企业级WLAN配置
目标:STA可以扫描并连接到两个ssid,STA可以ping通ip:200.200.200.200 步骤:1 实现AP与AC之间的连通性. 2 在AC上配置与WLAN相关的各项参数 3 把AP ...
- 安卓逆向 ARM基础篇 二
1.寄存器寻址的八中方法 1.立即寻址 二 寄存器寻址 三 寄存器移位寻址 过程 R2 移位 传给R0 四 寄存器间接寻址 五 基址寻址 六 多寄存器寻址 七 堆栈寻址 七 堆栈寻址
- JZOJ 5351. 【NOIP2017提高A组模拟9.7】简单无向图
题目大意 给定 \(n\) 个度数为 \(\in [1,2]\) 之间的点,求能组成多少种简单无向图(可不连通,点与点之间有别) 分析 显然答案只与 \(n1,n2\) 有关 那么 \(dp\)?(我 ...
- Linux 下安装Nginx两种方法- yum安装 and Centos7下yum安装配置nginx与php
转载csdn: Linux 下安装Nginx两种方法- yum安装_在电脑前深思的博客-CSDN博客 Linux安装Nginx(两种方式)_HHRunning的博客-CSDN博客_linux 是否安装 ...
- 用Python绘图(数据分析与挖掘实战)
代码1:餐饮日销额数据异常值检测(箱型图) import pandas as pd import numpy as np catering_sale = "D:\\360MoveData\\ ...
- 抗TNF治疗改变JIA患者PBMC基因表达谱,可预测疗效
抗TNF治疗改变JIA患者PBMC基因表达谱,可预测疗效 Moorthy LN, et al. ACR 2007. Presentation No:1713. 背景:我们假设儿童期发生的特发性关节炎( ...
- word、excel、pdf等多种格式在线预览
第一种方式: 具体功能说明: http://view.xdocin.com/index.html 调用案例: <a href="http://www.xdocin.com/xdoc?_ ...
- 01#Vue Transition 过渡:基于 CSS 过渡
过渡的阶段 上图是过渡的 6 个阶段示意图.总体是进入和离开两个阶段,进入和离开又各自有两个阶段.下表格是对每一个阶段的解释: 进入和离开实现过渡效果使用的是 CSS 样式,过度的样式相当于重写覆盖了 ...
- pip换源和制作虚拟环境操作步骤讲解
目录 一.pip换源及虚拟环境 二.虚拟环境 一.pip换源及虚拟环境 我们Python的强大之处就是有非常多的牛逼的第三方模块,后面的程序员只需要下载第三方模块,然后站在大佬们的肩膀上开发,第三方开 ...
- LeetCode-622 设计循环队列
来源:力扣(LeetCode)链接:https://leetcode.cn/problems/design-circular-queue 题目描述 设计你的循环队列实现. 循环队列是一种线性数据结构, ...