本文大致记录使用caffe的一次完整流程

Process

1 下载mnist数据集(数据量很小),解压放在data/mnist文件夹中;
2 运行create_mnist.sh,生成lmdb格式的数据(data+label);
$CAFFEROOT/build/tools/convert_imageset 可以用来做把原始图片转换为LevelDB或者 Lmdb格式。

3 运行build/tools/caffe train --solver=examples/mnist/lenet_solver.prototxt

usage: caffe <command> <args>
commands:
train train or finetune a model
test score a model
device_query show GPU diagnostic information
time benchmark model execution time
caffe的args采用第三方库gflags解析,具体可以在tools/caffe.cpp中找到定义。
使用方法
--solver=examples/mnist/lenet_solver.prototxt

-solver (The solver definition protocol buffer text file.)
type: string
DEFINE_string(solver, "",
"The solver definition protocol buffer text file.");

#note#
A 需要在caffe的根目录下运行example中的脚本,因为脚本的相对路径都是相当于caffe根目录写的;
B 运行shell脚本的时候,可能会出一些小问题,阅读脚本源码很容易排除;
C 报错: Cannot use GPU in CPU-only Caffe: check mode.
修改定义训练超参数的prototxt(lenet_solver.prototxt)中的训练模式
# solver mode: CPU or GPU
solver_mode: CPU;
D 关于第三方库 gflags
API
//显示信息
gflags::SetUsageMessage("information");

//instance
//定义可在命令行调用时出现的变量
DEFINE_bool(isvip, false, "If Is VIP");
DEFINE_string(ip, "127.0.0.1", "connect ip");
DEFINE_int32(port, 80, "listen port");
//main函数接受参数之后,启动库的解析功能
google::ParseCommandLineFlags(&argc, &argv, true);
//读取相应的变量
std::cout<<"ip:"<<FLAGS_ip<<std::endl;
std::cout<<"port:"<<FLAGS_port<<std::endl;
google::ParseCommandLineFlags(&argc, &argv, true);

4 讲训练之后的权值参数应用到项目中去,使用matlab实现网络,并使用权值参数用于测试应用

熟练的使用这一套流程,最好的方式就是参考一篇论文
Image Super-Resolution Using Deep Convolutional Networks
这篇文章将CNN应用到超分辨率中,网络结构简单,代码可得,很适合初学者阅读

解决问题:
回顾caffe的prototxt的写法
使用matlab,构建定义的网络,并且利用训练好的权重参数

#prototxt#

网络中的数据抽象成Blob, 各层网络抽象成Layer,整个网络抽象成Net,网络模型的求解方法抽象成Solver

Blob 主要用来表示网络中的数据,包括训练数据,网络各层自身的参数,网络之间传递的数据都是通过 Blob 来实现的,同时 Blob 数据也支持在 CPU 与 GPU 上存储,能够在两者之间做同步。
Layer 是对神经网络中各种层的一个抽象,包括我们熟知的卷积层和下采样层,还有全连接层和各种激活函数层等等。同时每种 Layer 都实现了前向传播和反向传播,并通过 Blob 来传递数据。
Net 是对整个网络的表示,由各种 Layer 前后连接组合而成,也是我们所构建的网络模型。
Solver 定义了针对 Net 网络模型的求解方法,记录网络的训练过程,保存网络模型参数,中断并恢复网络的训练过程。自定义 Solver 能够实现不同的网络求解方式。

prototxt的解析用到了第三方库protobuffer。具体,在caffe中怎么写prototxt文件,看几个例子你就会了,其实examples里的给的就还不错。
主要有两个地方需要用到,一个是定义网络结构,一个是确定训练的超参数。
相关reference:
layer的介绍
http://caffe.berkeleyvision.org/tutorial/layers.html
layer定义时,可定义的参数参考
https://github.com/BVLC/caffe/blob/master/src/caffe/proto/caffe.proto

训练超参数参考(以下一页足矣)
https://github.com/BVLC/caffe/wiki/Solver-Prototxt

下面看几个例子
1 prototxt about network structure
文件结构
name: xxx #定义网络名称
layer{} #逐层定义网络

layer{}惯常结构
name,类型,输入bottom,输出top,然后定义一些不同类型layer独有的parameter

常见layer
输入层,分为lmdb和hdf5两种类型
layer {
name: "data"
type: "HDF5Data"
top: "data"
top: "label"
hdf5_data_param {
source: "examples/SRCNN/test.txt"
batch_size: 2
}
include: { phase: TEST } #声明该层使用在test还是train
}

layer {
name: "mnist"
type: "Data"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
scale: 0.00390625
}
data_param {
source: "examples/mnist/mnist_train_lmdb"
batch_size: 64
backend: LMDB
}
}

卷积层
layer {
name: "conv2"
type: "Convolution"
bottom: "pool1"
top: "conv2"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
convolution_param {
num_output: 50
kernel_size: 5
stride: 1
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}

池化层
layer {
name: "pool2"
type: "Pooling"
bottom: "conv2"
top: "pool2"
pooling_param {
pool: MAX
kernel_size: 2
stride: 2
}
}

全连接层以及激活函数的添加

layer {
name: "ip1"
type: "InnerProduct"
bottom: "pool2"
top: "ip1"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
inner_product_param {
num_output: 500
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "relu1"
type: "ReLU"
bottom: "ip1"
top: "ip1"
}

The solver.prototxt is a configuration file used to tell caffe how you want the network trained.
(这个例子取自 https://zhuanlan.zhihu.com/p/23445640)
net: "models/bvlc_alexnet/train_val.prototxt" #声明定义网络结构的prototxt的位置,这里使用的是相对路径,运行caffe时的路径就要注意在相应的目录下
test_iter: 1000 # 测试时,需要迭代的次数
test_interval: 1000 # 训练,每迭代test_interval次就进行一次测试
base_lr: 0.01 # 开始的学习率
lr_policy: "step" # 学习率的drop是以gamma在每一次迭代中
gamma: 0.1
stepsize: 100000 # 每stepsize的迭代降低学习率:乘以gamma
display: 20 # 每display次打印显示loss
max_iter: 450000 # train 最大迭代max_iter
momentum: 0.9 #
weight_decay: 0.0005 #

#snapshot
This parameter indicates how often caffe should output a model and solverstate.
snapshot: 10000
snapshot_prefix: "models/bvlc_reference_caffenet/caffenet_train"

solver_mode: GPU # 使用的模式是GPU

使用matlab复现网络结构,下一篇讲述吧

5 test
使用命令
caffe test
-model xxxx.prototxt(原先定义网络结构的prototxt,该文件中有定义输入数据的batch_size,批处理的数量)
-weights xxxx.caffemodel(训练好的参数)
-iterations 100 (确定训练迭代的次数,iteration×batch_size=样本容量)

补充小细节
# 从训练一半的模型快照中恢复训练 (参数:求解文件 快照)
-snapshot (Optional; the snapshot solver state to resume training.)

caffe train -solver examples/mnist/lenet_solver.prototxt -snapshot examples/mnist/lenet_iter_5000.solverstate

# 由其它训练好的模型 fine-tune (参数:求解文件 其它训练好的模型参数)
-weights (Optional; the pretrained weights to initialize finetuning
可以使用预训练或者之前迭代过的参数,继续训练
caffe train -solver examples/finetuning_on_flickr_style/solver.prototxt -weights models/bvlc_reference_caffenet/bvlc_reference_caffenet.caffemodel

蛮不错的,有助于理解的文章
https://zhuanlan.zhihu.com/p/24087905
没事可以多逛caffe中文社区

另外caffe除了上述命令行的形式,还提供了python和matlab的使用接口

下文预告:
如何使用matlab复现网络,如何使用.caffemodel文件

在此,感谢以下链接
基础知识补充
21天实战caffe 赵永科
有助于理解
https://zhuanlan.zhihu.com/p/24087905
有关prototxt、caffe wiki都在github上的wiki
https://github.com/BVLC/caffe/wiki
官方的说明参考,包括python、matlab接口使用
http://caffe.berkeleyvision.org/tutorial/interfaces.html

21天学习caffe(二)的更多相关文章

  1. 21天学习caffe(一)

    ubuntu环境安装caffe1 安装依赖 apt-get install libatlas-base-dev apt-get install python-dev apt-get install l ...

  2. 人工智能深度学习Caffe框架介绍,优秀的深度学习架构

    人工智能深度学习Caffe框架介绍,优秀的深度学习架构 在深度学习领域,Caffe框架是人们无法绕过的一座山.这不仅是因为它无论在结构.性能上,还是在代码质量上,都称得上一款十分出色的开源框架.更重要 ...

  3. 学习笔记(二)--->《Java 8编程官方参考教程(第9版).pdf》:第七章到九章学习笔记

    注:本文声明事项. 本博文整理者:刘军 本博文出自于: <Java8 编程官方参考教程>一书 声明:1:转载请标注出处.本文不得作为商业活动.若有违本之,则本人不负法律责任.违法者自负一切 ...

  4. python3.4学习笔记(二十) python strip()函数 去空格\n\r\t函数的用法

    python3.4学习笔记(二十) python strip()函数 去空格\n\r\t函数的用法 在Python中字符串处理函数里有三个去空格(包括'\n', '\r', '\t', ' ')的函数 ...

  5. win7 配置微软的深度学习caffe

    win7 配置微软的深度学习caffe   官方下载: https://github.com/Microsoft/caffe 然后 直接修改caffe目录下的windows目录下的项目的props文件 ...

  6. 21天实战caffe笔记_第二天

    1 传统机器学习 传统机器学习:通过人工设计特征提取器,将原始数据转化为合适的中间表示形式或者特征向量,利用学习系统(通常为分类器)可以对输入模式进行检测或者分类.流程如下: 传统机器学习的局限在于需 ...

  7. [转]Spring Security学习总结二

    原文链接: http://www.blogjava.net/redhatlinux/archive/2008/08/20/223148.html http://www.blogjava.net/red ...

  8. Linux学习之二-Linux系统的目录结构

    Linux学习之二-Linux系统的目录结构 在Linux的根目录下,有很多的目录,但是需要记住,对于Linux而言,一切皆文件.因此此处的目录也是文件.用ls / 命令就能看到根目录下的各类不同的目 ...

  9. Pandas学习(二)——双色球开奖数据分析

    学习笔记汇总 Pandas学习(一)–数据的导入 pandas学习(二)–双色球数据分析 pandas学习(三)–NAB球员薪资分析 pandas学习(四)–数据的归一化 pandas学习(五)–pa ...

随机推荐

  1. ids for this class must be manually assigned before calling save():

    Caused by: javax.persistence.PersistenceException: org.hibernate.id.IdentifierGenerationException: i ...

  2. Dapper.net ORM

    参考链接:https://github.com/StackExchange/dapper-dot-net Dapper - a simple object mapper for .Net Dapper ...

  3. 表达式过滤器currency

    <!DOCTYPE html><html><head><meta http-equiv="Content-Type" content=&q ...

  4. js邮箱验证,身份证验证,正则表达式

    邮箱验证: html部分: 邮箱验证:<input type="text" id="mail" value="" / onkeyup= ...

  5. Spring技术内幕阅读笔记(一)

    1.BeanFactory:实现ioc容器的最基本形式.String FACTORY_BEAN_PREFIX = "&";Object getBean(String var ...

  6. [HAOI2010]软件安装(树形背包,tarjan缩点)

    题目描述 现在我们的手头有N个软件,对于一个软件i,它要占用Wi的磁盘空间,它的价值为Vi.我们希望从中选择一些软件安装到一台磁盘容量为M计算机上,使得这些软件的价值尽可能大(即Vi的和最大). 但是 ...

  7. 【例题收藏】◇例题·6◇ 电压机制(voltage)

    ◆例题·6◆ 电压机制 周六日常模拟赛……已经不知道该说什么了(感觉做不出来的都是好题) ▷ 题目 (终于不用自己翻译英文题了╮(╯-╰)╭) [问题描述] 科学家在“无限神机”(Infinity M ...

  8. ABAP术语-Lock Argument

    Lock Argument 原文:http://www.cnblogs.com/qiangsheng/archive/2008/02/29/1085717.html Locked fields in ...

  9. ubuntu 18 lnmp

    1安装Nginx sudo apt-get install nginx 2安装PHP sudo apt- php7.-fpm 3安装mysql sudo apt-get install mysql 启 ...

  10. Elasticsearch 常用API

    1.   Elasticsearch 常用API 1.1.数据输入与输出 1.1.1.Elasticsearch 文档   #在 Elasticsearch 中,术语 文档 有着特定的含义.它是指最顶 ...