Caffe_blob

1.基本数据结构

Blob为模板类,可以理解为四维数组,n * c * h * w的结构,Layer内为blob输入data和diff,Layer间的blob为学习的参数.内部封装了SyncedMemory类,该类负责存储分配和主机与设备的同步

protected:
shared_ptr<SyncedMemory> data_; // data指针
shared_ptr<SyncedMemory> diff_; // diff指针
vector<int> shape_; // blob形状
int count_; // blob的nchw
// 当前的Blob容量,当Blob reshape后count> capacity_时,capacity_ = count_;
// 重新new 然后 reset data和 diff
int capacity_;

2.常用函数

Blob类中常用的函数如下所示
    Blob<float>test;
//explicit关键字的作用是禁止单参数构造函数的隐式转换
explicit Blob(const int num, const int channels, const int height,
const int width);
test.shape_string();//初始为空 0 0 0 0
//Reshape函数将num,channels,height,width传递给vector shape_
test.Reshape(1,2,3,4);// shape_string() 1,2,3,4 test.shape(i);// NCHW
test.count(int start_axis,int end_axis); // start_axis---end_axis .x* shape[i]
test.count();// nchw count(1) chw count(2) hw.....
//shared_ptr<SyncedMemory> data_->cpu_data();
const float* data = test.cpu_data();
const float* diff = test.cpu_diff();
float* data_1 = test.mutable_cpu_data();//mutable修饰的表示可以修改内部值
float* diff_1 = test.mutable_cpu_diff();
test.asum_data();//求和 L1范数
test.sumsq_data();//平方和 L2范数
test.Update();//data = data-diff;
a.ToProto(BlobProto& bp,true/false);//(FromProto)
// if < 0 ,return num_axis()+axis_index;//索引序列
int index = a.CanonicalAxisIndex(int axis_index);
int offset(n,c,h,w);//((n*channels()+c)*height()+h)*width()+w
float data_at(n,c,h,w);//return cpu_data()[offset(n,c,h,w)];
float diff_at(n,c,h,w);//return cpu_diff()[offset(n,c,h,w)];
inline const shared_ptr<SyncedMemory>& data() const{return _data};
void scale_data(Dtype scale_factor);// data乘以一个标量。同理 scale_diff();
void CopyFrom(const Blob<Dtype>& source, bool copy_diff = false,
bool reshape = false); // copy_diff是否复制diff

3.写入磁盘操作

  //Blob内部值写入到磁盘
Blob<float>a;
a.Reshape(1,2,3,4);
const int count = a.count();
for (size_t i = 0; i < count; i++) {
a[i] = i;//init the test Blob
}
BlobProto bp,bp2;
a.ToProto(&bp,true);//写入data和diff到bp中
WriteProtoToBinaryFile(bp,"a.blob");//写入磁盘
ReadProtoFromBinaryFile("a.blob",&bp2);//从磁盘读取blob
Blob<float>b;
b.FromProto(bp2,true);//序列化对象bp2中克隆b,完整克隆
for (size_t n = 0; n < b.num(); n++) {
for (size_t c = 0; c < b.channels(); c++) {
for (size_t h = 0; h < b.height(); h++) {
for (size_t w = 0; w < b.width(); w++) {
cout<<"b["<<n<<"]["<<c<<"]["<<h<<"]["<<w<<"]["<<w<<"]="<<
b[(((n*b.channels()+c)*b.height)+h)*b.width()+w]<<endl;
//(((n*c+ci)*h+hi)*w+wi)
}
}
}
}

4.部分函数的具体实现

本部分的实现未考虑参数是否合理。一般操作blob需要分CPU和GPU,采用math_functions具体计算
  template <typename Dtype>
void Blob<Dtype>::Reshape(const vector<int>& shape){//reshape操作
count_ = 1;//初始count_ NCHW;
shape_.resize(shape.size());
for (size_t i = 0; i < shape.size(); i++) {
count_ *= shape[i];
shape_[i] = shape[i];
if (count_ > capacity_) { //reshape的size大于了目前的最大容量
capacity_ = count_;
data_.reset(new SyncedMemory(capacity_*sizeof(Dtype)));
diff_.reset(new SyncedMemory(capacity_*sizeof(Dtype)));
}
}
} template <typename Dtype>
void Blob<Dtype>::Reshape(int n,int c,int h ,int w){//reshape操作
vector<int>shape(4);
shape[0] = n;
shape[1] = c;
shape[2] = h;
shape[3] = w;
Reshape(shape);
} template <typename Dtype>
const Dtype* Blob<Dtype>::cpu_data(){
//实际调用的shared_ptr<SyncedMemory>data_->cpu_data();,同理cpu_diff();
CHECK(data_);
return (const Dtype*)data_->cpu_data();
} template <typename Dtype>
void Blob<Dtype>::Updata(){ //data = data-diff;需要判断cpu OR gpu
switch (data_->head()) {
case SyncedMemory::HEAD_AT_CPU:
caffe_axpy<Dtype>(count_,Dtype(-1),
static_cast<const<Dtype*>(diff_->cpu_data()),
static_cast<Dtype*>(data_->mutable_cpu_data()));
}
case SyncedMemory::HEAD_AT_GPU://在gpu或者CPU/GPU已经同步
case SyncedMemory::SYNCED:
#ifndef CPU_ONLY
caffe_gpu_axpy<Dtype>(count_.Dtype(-1),
static_cast<const<Dtype*>(diff_->gpu_data()),
static_cast<Dtype*>(data_->mutable_gpu_data()))
} template <typename Dtype> //从source 拷贝数据,copy_diff控制是拷贝diff还是data
void Blob<Dtype>::CopyFrom(const Blob& source, bool copy_diff, bool reshape) {
if (source.count() != count_ || source.shape() != shape_) {
if (reshape) {
ReshapeLike(source);
}
}
switch (Caffe::mode()) {
case Caffe::GPU:
if (copy_diff) { //copy diff
caffe_copy(count_, source.gpu_diff(),
static_cast<Dtype*>(diff_->mutable_gpu_data()));
} else {
caffe_copy(count_, source.gpu_data(),
static_cast<Dtype*>(data_->mutable_gpu_data()));
}
break;
case Caffe::CPU:
if (copy_diff) {
caffe_copy(count_, source.cpu_diff(),
static_cast<Dtype*>(diff_->mutable_cpu_data()));
} else {
caffe_copy(count_, source.cpu_data(),
static_cast<Dtype*>(data_->mutable_cpu_data()));
}
break;
default:
LOG(FATAL) << "Unknown caffe mode.";
}
} template <typename Dtype>
void Blob<Dtype>::ToProto(BlobProto* proto,bool write_diff){
proto->clear_shape();
for (size_t i = 0; i < shaoe_.size(); i++) {
proto->mutable_shape()->add_dim(shape_[i]);
}
proto->clear_data();
proto->clear_diff();
const Dtype* data_vec = cpu_data();
for (size_t i = 0; i < count_; i++) {
proto->add_data(data_vec[i]);//data写入proto
}
if (write_diff) {
const Dtype* diff_vec = cpu_diff();
for (size_t i = 0; i < count_; i++) {
proto->add_diff(diff_vec[i]);//diff写入proto
}
}
}

5.说明

    /*Blob作为一个最基础的类,其中构造函数开辟一个内存空间来存储数据,Reshape
函数在Layer中的reshape或者forward操作中来调整top的输出维度。同时在改变Blob
大小时, 内存将会被重新分配如果内存大小不够了,并且额外的内存将不会被释放。
对input的blob进行reshape, 若立马调用Net::Backward是会出错的,因为reshape
之后,要么Net::forward或者Net::Reshape就会被调用来将新的input shape传播
到高层 */

Caffe学习--Blob分析的更多相关文章

  1. Caffe学习--Layer分析

    Caffe_Layer 1.基本数据结构 //Layer层主要的的参数 LayerParamter layer_param_; // protobuf内的layer参数 vector<share ...

  2. Caffe学习--Net分析

    Caffe_Net 1.基本数据 vector<shared_ptr<Layer<Dtype> > > layers_; // 记录每一层的layer参数 vect ...

  3. Caffe学习笔记(三):Caffe数据是如何输入和输出的?

    Caffe学习笔记(三):Caffe数据是如何输入和输出的? Caffe中的数据流以Blobs进行传输,在<Caffe学习笔记(一):Caffe架构及其模型解析>中已经对Blobs进行了简 ...

  4. Caffe学习笔记(一):Caffe架构及其模型解析

    Caffe学习笔记(一):Caffe架构及其模型解析 写在前面:关于caffe平台如何快速搭建以及如何在caffe上进行训练与预测,请参见前面的文章<caffe平台快速搭建:caffe+wind ...

  5. Caffe学习笔记2--Ubuntu 14.04 64bit 安装Caffe(GPU版本)

    0.检查配置 1. VMWare上运行的Ubuntu,并不能支持真实的GPU(除了特定版本的VMWare和特定的GPU,要求条件严格,所以我在VMWare上搭建好了Caffe环境后,又重新在Windo ...

  6. Caffe学习系列(23):如何将别人训练好的model用到自己的数据上

    caffe团队用imagenet图片进行训练,迭代30多万次,训练出来一个model.这个model将图片分为1000类,应该是目前为止最好的图片分类model了. 假设我现在有一些自己的图片想进行分 ...

  7. Caffe 学习系列

    学习列表: Google protocol buffer在windows下的编译 caffe windows 学习第一步:编译和安装(vs2012+win 64) caffe windows学习:第一 ...

  8. Caffe学习笔记(二):Caffe前传与反传、损失函数、调优

    Caffe学习笔记(二):Caffe前传与反传.损失函数.调优 在caffe框架中,前传/反传(forward and backward)是一个网络中最重要的计算过程:损失函数(loss)是学习的驱动 ...

  9. caffe 学习(2)——基本原理

    参考 http://caffe.berkeleyvision.org/tutorial/ 表达:models和optimizations使用纯文本文档形式定义,不是用代码定义: 速度:适用于工业和科研 ...

随机推荐

  1. T7316 yyy的最大公约数(者)

    题目背景 全场基本暴力 题目描述 输入输出格式 输入格式: 如图 输出格式: 如图 输入输出样例 输入样例#1: 如图 输出样例#1: 如图 说明 如图 这题用到了容斥原理和线性筛的一些东西, 表示没 ...

  2. 关于css3背景图片渐变的规则

    1. Webkit引擎的CSS3径向渐变语法        Webkit引擎下的老版本语法:-webkit-gradient([<type>],[<position> || & ...

  3. C# 发布APP修改APP图标以及名称

    很多时候,我们用C#编程后,都要对我们的上位机生成的图标跟名字进行修改,下面我就 VS2015 怎么修改做个说明. 1.打开项目属性 2.打开应用程序的属性界面,对相应的地方进行修改就可以了 3.修改 ...

  4. SQL在线学习网站

    1.在线编写网页:http://sqlfiddle.com/ 2.SQL菜鸟教程:http://www.runoob.com/sql/sql-intro.html 3.SQL语句在线练习 http:/ ...

  5. 基本配置及安全级别security-level

    interface GigabitEthernet0/0 nameif outside  //指定接口名称 security-level 0  //安全级别设置 ip address 1.1.1.2 ...

  6. Linux学习总结(17)——Linux新手必须学会的12个命令

    今天的用户可以根据自己的意愿选择是否使用作为Linux象征的命令行,确切的证明了Linux已经有了很大的发展.现在很多Linux发行版的图形用户界面已经非常强大,不再需要命令行. 但是命令行在Linu ...

  7. MyBatis学习总结(3)——优化MyBatis配置文件中的配置

    一.连接数据库的配置单独放在一个properties文件中 之前,我们是直接将数据库的连接配置信息写在了MyBatis的conf.xml文件中,如下: <?xml version="1 ...

  8. 洛谷 P1301 魔鬼之城

    P1301 魔鬼之城 题目描述 在一个被分割为N*M个正方形房间的矩形魔鬼之城中,一个探险者必须遵循下列规则才能跳跃行动.他必须从(1, 1)进入,从(N, M)走出:在每一房间的墙壁上都写了一个魔法 ...

  9. Objective-C 和 Core Foundation 对象相互转换

    iOS同意Objective-C 和 Core Foundation 对象之间能够轻松的转换: CFStringRef aCFString = (CFStringRef)aNSString; NSSt ...

  10. Linux进程的内存布局

    这张图很好,注意其中最上面是高位地址,虽然很多个0,但是c开头的,不要看反了: 更具体的可以看这里: A.正文段.这是由cpu执行的机器指令部分.通常,正文段是可共享的,所以即使是经常执行的程序(如文 ...