转载:Network In Network学习笔记
转载原文1:http://blog.csdn.net/hjimce/article/details/50458190
转载原文2:http://blog.csdn.net/mounty_fsc/article/details/51746111
一、相关理论
本篇博文主要讲解2014年ICLR的一篇非常牛逼的paper:《Network In Network》,过去一年已经有了好几百的引用量,这篇paper改进了传统的CNN网络,采用了少量的参数就松松击败了Alexnet网络,Alexnet网络参数大小是230M,采用这篇paper的算法才29M,减小了将近10倍啊。这篇paper提出的网络结构,是对传统CNN网络的一种改进(这种文献少之又少,所以感觉很有必要学习)。
传统的卷积神经网络一般来说是由:线性卷积层、池化层、全连接层堆叠起来的网络。卷积层通过线性滤波器进行线性卷积运算,然后在接个非线性激活函数,最终生成特征图。以Relu激活函数为例,特征图的计算公式为:
其中(i,j)表示图片像素点的位置索引,xij表示我们卷积窗口中的图片块,k则表示我们要提取的特征图的索引。
一般来说,如果我们要提取的一些潜在的特征是线性可分的话,那么对于线性的卷积运算来说这是足够了。然而一般来说我们所要提取的特征一般是高度非线性的。在传统的CNN中,也许我们可以用超完备的滤波器,来提取各种潜在的特征。比如我们要提取某个特征,于是我就用了一大堆的滤波器,把所有可能的提取出来,这样就可以把我想要提取的特征也覆盖到,然而这样存在一个缺点,那就是网络太恐怖了,参数太多了。
这篇文章有两个很重要的观点:
1×1卷积的使用
文中提出使用mlpconv网络层替代传统的convolution层。mlp层实际上是卷积加传统的mlp(多层感知器),因为convolution是线性的,而mlp是非线性的,后者能够得到更高的抽象,泛化能力更强。在跨通道(cross channel,cross feature map)情况下,mlpconv等价于卷积层+1×1卷积层,所以此时mlpconv层也叫cccp层(cascaded cross channel parametric pooling)。CNN网络中不使用FC层(全连接层)
文中提出使用Global Average Pooling取代最后的全连接层,因为全连接层参数多且易过拟合。做法即移除全连接层,在最后一层(文中使用mlpconv)层,后面加一层Average Pooling层。
以上两点,之所以重要,在于,其在较大程度上减少了参数个数,确能够得到一个较好的结果。而参数规模的减少,不仅有利用网络层数的加深(由于参数过多,网络规模过大,GPU显存等不够用而限制网络层数的增加,从而限制模型的泛化能力),而且在训练时间上也得到改进。
二、MLP卷积层(文献创新点1)
这个是文献的大创新点,也就是提出了mlpconv层。Mlpconv层可以看成是每个卷积的局部感受野中还包含了一个微型的多层网络。其实在以前的卷积层中,我们局部感受野窗口的运算,可以理解为一个单层的网络,如下图所示:
线性卷积层
CNN层的计算公式如下:
然而现在不同了,我们要采用多层的网络,提高非线性,
单通道mlpconv层
跨通道mlpconv层(cccp层)
由图可知,mlpconv=convolution+mlp(图中为2层的mlp)。
在caffe中实现上,mlpconv=convolution+1×1convolution+1×1convolution(2层的mlp)
于是mlpconv层的网络结构图如下:
Mlpconv层
从上面的图可以看到,说的简单一点呢,利用多层mlp的微型网络,对每个局部感受野的神经元进行更加复杂的运算,而以前的卷积层,局部感受野的运算仅仅只是一个单层的神经网络罢了。对于mlpconv层每张特征图的计算公式如下:
- layers {
- bottom: "data"
- top: "conv1"
- name: "conv1"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.01
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "conv1"
- top: "conv1"
- name: "relu0"
- type: RELU
- }
- layers {
- bottom: "conv1"
- top: "cccp1"
- name: "cccp1"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp1"
- top: "cccp1"
- name: "relu1"
- type: RELU
- }
- layers {
- bottom: "cccp1"
- top: "cccp2"
- name: "cccp2"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp2"
- top: "cccp2"
- name: "relu2"
- type: RELU
- }
传统的卷积神经网络卷积运算一般是出现在低层网络。对于分类问题,最后一个卷积层的特征图通过量化然后与全连接层连接,最后在接一个softmax逻辑回归分类层。这种网络结构,使得卷积层和传统的神经网络层连接在一起。我们可以把卷积层看做是特征提取器,然后得到的特征再用传统的神经网络进行分类。
然而,全连接层因为参数个数太多,往往容易出现过拟合的现象,导致网络的泛化能力不尽人意。于是Hinton采用了Dropout的方法,来提高网络的泛化能力。
本文提出采用全局均值池化的方法,替代传统CNN中的全连接层。与传统的全连接层不同,我们对每个特征图一整张图片进行全局均值池化,这样每张特征图都可以得到一个输出。这样采用均值池化,连参数都省了,可以大大减小网络,避免过拟合,另一方面它有一个特点,每张特征图相当于一个输出特征,然后这个特征就表示了我们输出类的特征。这样如果我们在做1000个分类任务的时候,我们网络在设计的时候,最后一层的特征图个数就要选择1000,下面是《Network In Network》网络的源码,倒数一层的网络相关参数:
- layers {
- bottom: "cccp7"
- top: "cccp8"
- name: "cccp8-1024"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- #num_output:
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.01
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
全局均值池化层的相关参数如下:
- layers {
- bottom: "cccp8"
- top: "pool4"
- name: "pool4"
- type: POOLING
- pooling_param {
- pool: AVE
- kernel_size:
- stride:
- }
- }
因为在Alexnet网络中,最后一个卷积层输出的特征图大小刚好是6*6,所以我们pooling的大小选择6,方法选择:AVE。
四、总体网络架构
根据上面的作者对传统CNN的两个改进,利用其进行1000物体分类问题,于是作者最后设计了一个:4层的NIN+全局均值池化,网络如下:
Caffe中4层网络示意图(ImageNet)
说明:
1.方框为网络层,椭圆为blob
2.黄色pool4为Average Pooling
caffe网络数据数据如下(crop size=224)
Layer | channels | Filter size | Filter stride | Padding size | Input size |
---|---|---|---|---|---|
conv1 | 96 | 11 | 4 | - | 224×224 |
cccp1 | 96 | 1 | 1 | - | 54×54 |
cccp2 | 96 | 1 | 1 | - | 54×54 |
pool1 | 96 | 3 | 2 | - | 54×54 |
conv2 | 256 | 5 | 1 | 2 | 27×27 |
cccp3 | 256 | 1 | 1 | - | 27×27 |
cccp4 | 256 | 1 | 1 | - | 27×27 |
pool2 | 256 | 3 | 2 | - | 27×27 |
conv3 | 384 | 3 | 1 | 1 | 13×13 |
cccp5 | 384 | 1 | 1 | - | 13×13 |
cccp6 | 384 | 1 | 1 | - | 13×13 |
pool3 | 384 | 3 | 2 | - | 13×13 |
conv4-1024 | 1024 | 3 | 1 | 1 | 6×6 |
cccp7-1024 | 1024 | 1 | 1 | - | 6×6 |
cccp8-1000 | 1000 | 1 | 1 | - | 6×6 |
pool4-ave | 1000 | 6 | 1 | - | 6×6 |
accuracy | 1000 | - | - | - | 1×1 |
- 对于crop size = 227,则input size的变化为227, 55, 27, 13, 6, 1。
个人总结:个人感觉这篇文献很有价值,实现方式也很简单,一开始我还以为需要caffe的c++源码来实现NIN网络,结果发现实现NIN的源码实现方式其实就是一个1*1的卷积核,实现卷积运算,所以实现起来相当容易,不需要自己写源码,只需要简简单单的把卷积核的大小变一下,然后最后一层的全连接层直接用avg pooling替换一下就ok了。个人评价:网络浅显易懂,简单实现,却可以改进原来的网络,提高精度,减小模型大小,所以是一篇很值得学习的文献。后续即将讲解另外几篇2015年,也是对CNN网络结构改进的牛逼文献:《Spatial Transformer Networks》、《Striving For Simplicity:The All Convolutional Net》、《Stacked What-Where Auto-encoders》,敬请期待,毕竟这样的文章敢于挑战传统的CNN结构,对其不知做出改进,所以我们需要一篇一篇的学。
参考文献:
1、《Network In Network》
2、https://github.com/BVLC/caffe/wiki/Model-Zoo
3、https://gist.github.com/mavenlin/d802a5849de39225bcc6
4、《Maxout Networks》
整个网络结构:
- name: "nin_work"
- layers {
- top: "data"
- top: "label"
- name: "data"
- type: DATA
- data_param {
- source: "./data/nintrain"
- backend: LMDB
- batch_size:
- }
- transform_param {
- crop_size:
- mirror: true
- mean_file: "./data/net_mean.binaryproto"
- }
- include: { phase: TRAIN }
- }
- layers {
- top: "data"
- top: "label"
- name: "data"
- type: DATA
- data_param {
- source: "./data/nintest"
- backend: LMDB
- batch_size:
- }
- transform_param {
- crop_size:
- mirror: false
- mean_file: "./data/net_mean.binaryproto"
- }
- include: { phase: TEST }
- }
- layers {
- bottom: "data"
- top: "conv1"
- name: "conv1"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.01
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "conv1"
- top: "conv1"
- name: "relu0"
- type: RELU
- }
- layers {
- bottom: "conv1"
- top: "cccp1"
- name: "cccp1"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp1"
- top: "cccp1"
- name: "relu1"
- type: RELU
- }
- layers {
- bottom: "cccp1"
- top: "cccp2"
- name: "cccp2"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp2"
- top: "cccp2"
- name: "relu2"
- type: RELU
- }
- layers {
- bottom: "cccp2"
- top: "pool0"
- name: "pool0"
- type: POOLING
- pooling_param {
- pool: MAX
- kernel_size:
- stride:
- }
- }
- layers {
- bottom: "pool0"
- top: "conv2"
- name: "conv2"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- pad:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "conv2"
- top: "conv2"
- name: "relu3"
- type: RELU
- }
- layers {
- bottom: "conv2"
- top: "cccp3"
- name: "cccp3"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp3"
- top: "cccp3"
- name: "relu5"
- type: RELU
- }
- layers {
- bottom: "cccp3"
- top: "cccp4"
- name: "cccp4"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp4"
- top: "cccp4"
- name: "relu6"
- type: RELU
- }
- layers {
- bottom: "cccp4"
- top: "pool2"
- name: "pool2"
- type: POOLING
- pooling_param {
- pool: MAX
- kernel_size:
- stride:
- }
- }
- layers {
- bottom: "pool2"
- top: "conv3"
- name: "conv3"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- pad:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.01
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "conv3"
- top: "conv3"
- name: "relu7"
- type: RELU
- }
- layers {
- bottom: "conv3"
- top: "cccp5"
- name: "cccp5"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp5"
- top: "cccp5"
- name: "relu8"
- type: RELU
- }
- layers {
- bottom: "cccp5"
- top: "cccp6"
- name: "cccp6"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp6"
- top: "cccp6"
- name: "relu9"
- type: RELU
- }
- layers {
- bottom: "cccp6"
- top: "pool3"
- name: "pool3"
- type: POOLING
- pooling_param {
- pool: MAX
- kernel_size:
- stride:
- }
- }
- layers {
- bottom: "pool3"
- top: "pool3"
- name: "drop"
- type: DROPOUT
- dropout_param {
- dropout_ratio: 0.5
- }
- }
- layers {
- bottom: "pool3"
- top: "conv4"
- name: "conv4-1024"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- pad:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "conv4"
- top: "conv4"
- name: "relu10"
- type: RELU
- }
- layers {
- bottom: "conv4"
- top: "cccp7"
- name: "cccp7-1024"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.05
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp7"
- top: "cccp7"
- name: "relu11"
- type: RELU
- }
- layers {
- bottom: "cccp7"
- top: "cccp8"
- name: "cccp8-1024"
- type: CONVOLUTION
- blobs_lr:
- blobs_lr:
- weight_decay:
- weight_decay:
- convolution_param {
- num_output:
- kernel_size:
- stride:
- weight_filler {
- type: "gaussian"
- mean:
- std: 0.01
- }
- bias_filler {
- type: "constant"
- value:
- }
- }
- }
- layers {
- bottom: "cccp8"
- top: "cccp8"
- name: "relu12"
- type: RELU
- }
- layers {
- bottom: "cccp8"
- top: "pool4"
- name: "pool4"
- type: POOLING
- pooling_param {
- pool: AVE
- kernel_size:
- stride:
- }
- }
- layers {
- name: "accuracy"
- type: ACCURACY
- bottom: "pool4"
- bottom: "label"
- top: "accuracy"
- include: { phase: TEST }
- }
- layers {
- bottom: "pool4"
- bottom: "label"
- name: "loss"
- type: SOFTMAX_LOSS
- include: { phase: TRAIN }
- }
1×1卷积的作用
以下内容摘抄自:http://www.caffecn.cn/?/question/136
问:发现很多网络使用了1X1卷积核,这能起到什么作用呢?另外我一直觉得,1X1卷积核就是对输入的一个比例缩放,因为1X1卷积核只有一个参数,这个核在输入上滑动,就相当于给输入数据乘以一个系数。不知道我理解的是否正确
答1:
对于单通道的feature map和单个卷积核之间的卷积来说,题主的理解是对的,CNN里的卷积大都是多通道的feature map和多通道的卷积核之间的操作(输入的多通道的feature map和一组卷积核做卷积求和得到一个输出的feature map),如果使用1x1的卷积核,这个操作实现的就是多个feature map的线性组合,可以实现feature map在通道个数上的变化。接在普通的卷积层的后面,配合激活函数,就可以实现network in network的结构了(本内容作者仅授权给CaffeCN社区(caffecn.cn)使用,如需转载请附上内容来源说明。)
答2:
我来说说我的理解,我认为1×1的卷积大概有两个方面的作用吧:
1. 实现跨通道的交互和信息整合
2. 进行卷积核通道数的降维和升维
下面详细解释一下:
1. 这一点孙琳钧童鞋讲的很清楚。1×1的卷积层(可能)引起人们的重视是在NIN的结构中,论文中林敏师兄的想法是利用MLP代替传统的线性卷积核,从而提高网络的表达能力。文中同时利用了跨通道pooling的角度解释,认为文中提出的MLP其实等价于在传统卷积核后面接cccp层,从而实现多个feature map的线性组合,实现跨通道的信息整合。而cccp层是等价于1×1卷积的,因此细看NIN的caffe实现,就是在每个传统卷积层后面接了两个cccp层(其实就是接了两个1×1的卷积层)。
2. 进行降维和升维引起人们重视的(可能)是在GoogLeNet里。对于每一个Inception模块(如下图),原始模块是左图,右图中是加入了1×1卷积进行降维的。虽然左图的卷积核都比较小,但是当输入和输出的通道数很大时,乘起来也会使得卷积核参数变的很大,而右图加入1×1卷积后可以降低输入的通道数,卷积核参数、运算复杂度也就跟着降下来了。以GoogLeNet的3a模块为例,输入的feature map是28×28×192,3a模块中1×1卷积通道为64,3×3卷积通道为128,5×5卷积通道为32,如果是左图结构,那么卷积核参数为1×1×192×64+3×3×192×128+5×5×192×32,而右图对3×3和5×5卷积层前分别加入了通道数为96和16的1×1卷积层,这样卷积核参数就变成了1×1×192×64+(1×1×192×96+3×3×96×128)+(1×1×192×16+5×5×16×32),参数大约减少到原来的三分之一。同时在并行pooling层后面加入1×1卷积层后也可以降低输出的feature map数量,左图pooling后feature map是不变的,再加卷积层得到的feature map,会使输出的feature map扩大到416,如果每个模块都这样,网络的输出会越来越大。而右图在pooling后面加了通道为32的1×1卷积,使得输出的feature map数降到了256。GoogLeNet利用1×1的卷积降维后,得到了更为紧凑的网络结构,虽然总共有22层,但是参数数量却只是8层的AlexNet的十二分之一(当然也有很大一部分原因是去掉了全连接层)。
最近大热的MSRA的ResNet同样也利用了1×1卷积,并且是在3×3卷积层的前后都使用了,不仅进行了降维,还进行了升维,使得卷积层的输入和输出的通道数都减小,参数数量进一步减少,如下图的结构。(不然真不敢想象152层的网络要怎么跑起来TAT)
[1]. https://gist.github.com/mavenlin/d802a5849de39225bcc6
[2]. http://www.caffecn.cn/?/question/136
转载:Network In Network学习笔记的更多相关文章
- 【转载】.NET Remoting学习笔记(三)信道
目录 .NET Remoting学习笔记(一)概念 .NET Remoting学习笔记(二)激活方式 .NET Remoting学习笔记(三)信道 参考:♂风车车.Net .NET Framework ...
- 【转载】.NET Remoting学习笔记(二)激活方式
目录 .NET Remoting学习笔记(一)概念 .NET Remoting学习笔记(二)激活方式 .NET Remoting学习笔记(三)信道 参考:百度百科 ♂风车车.Net 激活方式概念 在访 ...
- 【转载】.NET Remoting学习笔记(一)概念
目录 .NET Remoting学习笔记(一)概念 .NET Remoting学习笔记(二)激活方式 .NET Remoting学习笔记(三)信道 背景 自接触编程以来,一直听过这个名词Remotin ...
- [转载]SharePoint 2013搜索学习笔记之搜索构架简单概述
Sharepoint搜索引擎主要由6种组件构成,他们分别是爬网组件,内容处理组件,分析处理组件,索引组件,查询处理组件,搜索管理组件.可以将这6种组件分别部署到Sharepoint场内的多个服务器上, ...
- [转载]SharePoint 2013搜索学习笔记之自定义结果源
搜索中心新建好之后在搜索结果页上会默认有所有内容,人员,对话,视频这四个结果分类,每个分类会返回指定范围的搜索结果,这里我再添加了部门日志结果分类,搜索这个分类只会返回部门日志内容类型的搜索结果,要实 ...
- 【转载】JExcelApi(JXL)学习笔记
在公司的项目中,有excel生成.导出的需求,因此学习了用JXL读写excel,做个简单的笔记,以供参考. 实现用java操作excel的工具,一般用的有两个:一个是JXL,另一个是apac ...
- 【转载】OpenStack Swift学习笔记
免责声明: 本文转自网络文章,转载此文章仅为个人收藏,分享知识,如有侵权,请联系博主进行删除. 原文作者:崔炳华 原文地址:http://blog.csdn.net/i_ch ...
- 【转载】Django,学习笔记
[转自]https://www.cnblogs.com/jinbchen/p/11133225.html Django知识笔记 基本应用 创建项目: django-admin startproje ...
- [转载]EF Code First 学习笔记:约定配置
要更改EF中的默认配置有两个方法,一个是用Data Annotations(在命名空间System.ComponentModel.DataAnnotations;),直接作用于类的属性上面;还有一个就 ...
- 【转载】Android开发学习笔记:Intent的简介以及属性的详解
http://liangruijun.blog.51cto.com/3061169/634411/ 一.Intent的介绍 Intent的中文意思是“意图,意向”,在Android中提供了Intent ...
随机推荐
- 用iptables做NAT代理,使内网机器上外网
现状:服务器A只有一个内网IP,不能上外网,内网IP与服务器B内网相通:服务器B有一个内网IP和公网IP.想实现服务器A也能上外网. 1 2 3 4 服务器A:内网网卡:eth0 内网IP:192.1 ...
- https://v2ex.com/t/170386
https://v2ex.com/t/170386 https://cnodejs.org/topic/5566952ad4ca459f5267ac59 https://segmentfault.co ...
- 通过idea 打包 spring maven项目打包为可执行jar包
用assembly打包一直报错: shangyanshuodeMacBook-Pro:target shangyanshuo$ java -jar jobscrawler-1.0-SNAPSHOT-j ...
- Yasm 1.3.0 Release Notes
Yasm 1.3.0 Release Notes http://yasm.tortall.net/releases/Release1.3.0.html Target Audience Welcome ...
- HTML5 Canvas 绘制库存变化折线 增加超储告罄线
<!DOCTYPE html> <html lang="utf-8"> <meta http-equiv="Content-Type&quo ...
- jQuery (样式篇)
1.$(document).ready 的作用是等页面的文档(document)中的节点都加载完毕后,再执行后续的代码,因为我们在执行代码的时候,可能会依赖页面的某一个元素,我们要确保这个元素真正的的 ...
- js map、filter、forEach
1.map方法 <!DOCTYPE html> <html lang="zh"> <head> <meta charset="U ...
- matlab中syms与sym有什么差别
syms x y %就是定了符号变量x y以后x y就能够直接使用了,有他们运算出来的结果也是符号变量 当然上面的也能够x=sym('x'),y=sym('y') sys('a+b')%就是将a+b转 ...
- Linux下配置两个或多个Tomcat启动
Linux下配置两个或多个Tomcat启动 (2012-08-14 11:59:31) 转载▼ 标签: 杂谈 分类: linux_tomcat 步骤如下: (1)修改/etc/profile文件.添加 ...
- I2S与pcm的区别
I2S仅仅是PCM的一个分支,接口定义都是一样的, I2S的采样频率一般为44.1KHZ和48KHZ做,PCM采样频率一般为8K,16K.有四组信号: 位时钟信号,同步信号,数据输入,数据输出. I2 ...