python输出activation map与层参数:https://blog.csdn.net/tina_ttl/article/details/51033660

caffe::Net文档:

https://caffe.berkeleyvision.org/doxygen/classcaffe_1_1Net.html#a6f6cf9d40637f7576828d856bb1b1826

caffe::Blob文档:

http://caffe.berkeleyvision.org/doxygen/classcaffe_1_1Blob.html

图像通道分离与合并cv::split() cv::merge()

https://blog.csdn.net/guduruyu/article/details/70837779

caffe官方提供的prediction代码

caffe提供了一个用已经训练好的caffemodel来分类单张图片的库(./build/examples/cpp_classification/classification.bin),该库的源码为文件./examples/cpp-classification/classification.cpp

  1. #include <caffe/caffe.hpp>
  2. #ifdef USE_OPENCV
  3. #include <opencv2/core/core.hpp>
  4. #include <opencv2/highgui/highgui.hpp>
  5. #include <opencv2/imgproc/imgproc.hpp>
  6. #endif // USE_OPENCV
  7. #include <algorithm>
  8. #include <iosfwd>
  9. #include <memory>
  10. #include <string>
  11. #include <utility>
  12. #include <vector>
  13.  
  14. #ifdef USE_OPENCV
  15. using namespace caffe; // NOLINT(build/namespaces)
  16. using std::string;
  17.  
  18. /* Pair (label, confidence) representing a prediction. */
  19. typedef std::pair<string, float> Prediction;
  20.  
  21. class Classifier {
  22. public:
  23. Classifier(const string& model_file,
  24. const string& trained_file,
  25. const string& mean_file,
  26. const string& label_file);
  27.  
  28. std::vector<Prediction> Classify(const cv::Mat& img, int N = );
  29.  
  30. private:
  31. void SetMean(const string& mean_file);
  32.  
  33. std::vector<float> Predict(const cv::Mat& img);
  34.  
  35. void WrapInputLayer(std::vector<cv::Mat>* input_channels);
  36.  
  37. void Preprocess(const cv::Mat& img,
  38. std::vector<cv::Mat>* input_channels);
  39.  
  40. private:
  41. shared_ptr<Net<float> > net_;
  42. cv::Size input_geometry_;
  43. int num_channels_;
  44. cv::Mat mean_;
  45. std::vector<string> labels_;
  46. };
  47.  
  48. /*分类对象构造文件*/
  49. Classifier::Classifier(const string& model_file,
  50. const string& trained_file,
  51. const string& mean_file,
  52. const string& label_file) {
  53. #ifdef CPU_ONLY
  54. Caffe::set_mode(Caffe::CPU);
  55. #else
  56. Caffe::set_mode(Caffe::GPU);
  57. #endif
  58.  
  59. /* Load the network. */
  60. net_.reset(new Net<float>(model_file, TEST)); /*复制网络结构*/
  61. net_->CopyTrainedLayersFrom(trained_file); /*加载caffemodel,该函数在net.cpp中实现*/
  62.  
  63. CHECK_EQ(net_->num_inputs(), ) << "Network should have exactly one input.";
  64. CHECK_EQ(net_->num_outputs(), ) << "Network should have exactly one output.";
  65.  
  66. Blob<float>* input_layer = net_->input_blobs()[];
  67. num_channels_ = input_layer->channels(); /*该网络结构所要求的图片输入通道数*/
  68. CHECK(num_channels_ == || num_channels_ == )
  69. << "Input layer should have 1 or 3 channels.";
  70. input_geometry_ = cv::Size(input_layer->width(), input_layer->height()); /*输入层需要的图片宽高*/
  71.  
  72. /* Load the binaryproto mean file. */
  73. SetMean(mean_file); /*加载均值文件*/
  74.  
  75. /* Load labels. */
  76. std::ifstream labels(label_file.c_str()); /*加载标签名称文件*/
  77. CHECK(labels) << "Unable to open labels file " << label_file;
  78. string line;
  79. while (std::getline(labels, line))
  80. labels_.push_back(string(line));
  81.  
  82. Blob<float>* output_layer = net_->output_blobs()[]; /*检查标签个数与网络的输出结点个数是否一样*/
  83. CHECK_EQ(labels_.size(), output_layer->channels())
  84. << "Number of labels is different from the output layer dimension.";
  85. }
  86.  
  87. static bool PairCompare(const std::pair<float, int>& lhs,
  88. const std::pair<float, int>& rhs) {
  89. return lhs.first > rhs.first;
  90. }
  91.  
  92. /* Return the indices of the top N values of vector v. */
  93. static std::vector<int> Argmax(const std::vector<float>& v, int N) {
  94. std::vector<std::pair<float, int> > pairs;
  95. for (size_t i = ; i < v.size(); ++i)
  96. pairs.push_back(std::make_pair(v[i], i));
  97. std::partial_sort(pairs.begin(), pairs.begin() + N, pairs.end(), PairCompare);
  98.  
  99. std::vector<int> result;
  100. for (int i = ; i < N; ++i)
  101. result.push_back(pairs[i].second);
  102. return result;
  103. }
  104.  
  105. /* Return the top N predictions. */
  106. std::vector<Prediction> Classifier::Classify(const cv::Mat& img, int N) {
  107. std::vector<float> output = Predict(img); /*调用这个函数做分类*/
  108.  
  109. N = std::min<int>(labels_.size(), N);
  110. std::vector<int> maxN = Argmax(output, N);
  111. std::vector<Prediction> predictions;
  112. for (int i = ; i < N; ++i) {
  113. int idx = maxN[i];
  114. predictions.push_back(std::make_pair(labels_[idx], output[idx]));
  115. }
  116.  
  117. return predictions;
  118. }
  119.  
  120. /* Load the mean file in binaryproto format. */
  121. void Classifier::SetMean(const string& mean_file) {
  122. BlobProto blob_proto;
  123. ReadProtoFromBinaryFileOrDie(mean_file.c_str(), &blob_proto); /*读入均值文件在Io.cpp中实现*/
  124.  
  125. /* Convert from BlobProto to Blob<float> */
  126. Blob<float> mean_blob;
  127. mean_blob.FromProto(blob_proto); /*将读入的均值文件转成Blob对象*//*Blob类在Blob.hpp中定义*/
  128. CHECK_EQ(mean_blob.channels(), num_channels_)
  129. << "Number of channels of mean file doesn't match input layer.";
  130.  
  131. /* The format of the mean file is planar 32-bit float BGR or grayscale. */
  132. std::vector<cv::Mat> channels;
  133. float* data = mean_blob.mutable_cpu_data();
  134. for (int i = ; i < num_channels_; ++i) {
  135. /* Extract an individual channel. */
  136. cv::Mat channel(mean_blob.height(), mean_blob.width(), CV_32FC1, data);
  137. channels.push_back(channel);
  138. data += mean_blob.height() * mean_blob.width();
  139. } /*将均值图像的每个通道图像拷贝到channel中*/
  140.  
  141. /* Merge the separate channels into a single image. */
  142. cv::Mat mean;
  143. cv::merge(channels, mean); /*合并每个通道图像*/
  144.  
  145. /* Compute the global mean pixel value and create a mean image
  146. * filled with this value. */
  147. cv::Scalar channel_mean = cv::mean(mean);
  148. mean_ = cv::Mat(input_geometry_, mean.type(), channel_mean);
  149. }
  150.  
  151. /*测试函数*/
  152. std::vector<float> Classifier::Predict(const cv::Mat& img) {
  153. Blob<float>* input_layer = net_->input_blobs()[];
  154. input_layer->Reshape(, num_channels_,
  155. input_geometry_.height, input_geometry_.width);/*没太看懂,应该是一些缩放*/
  156. /* Forward dimension change to all layers. */
  157. net_->Reshape();
  158.  
  159. std::vector<cv::Mat> input_channels;
  160. WrapInputLayer(&input_channels);/*对输入层数据进行包装*/
  161.  
  162. Preprocess(img, &input_channels); /*把传入的测试图像写入到输入层*/
  163.  
  164. net_->Forward(); /*网络前向传播:计算出该测试图像属于哪个每个类别的概率也就是最终的输出层*/
  165.  
  166. /* Copy the output layer to a std::vector */
  167. Blob<float>* output_layer = net_->output_blobs()[]; /*将输出层拷贝到向量*/
  168. const float* begin = output_layer->cpu_data();
  169. const float* end = begin + output_layer->channels();
  170. return std::vector<float>(begin, end);
  171. }
  172.  
  173. /* Wrap the input layer of the network in separate cv::Mat objects
  174. * (one per channel). This way we save one memcpy operation and we
  175. * don't need to rely on cudaMemcpy2D. The last preprocessing
  176. * operation will write the separate channels directly to the input
  177. * layer. */
  178. void Classifier::WrapInputLayer(std::vector<cv::Mat>* input_channels) {
  179. Blob<float>* input_layer = net_->input_blobs()[];
  180.  
  181. int width = input_layer->width();
  182. int height = input_layer->height();
  183. float* input_data = input_layer->mutable_cpu_data();
  184. for (int i = ; i < input_layer->channels(); ++i) {
  185. cv::Mat channel(height, width, CV_32FC1, input_data);
  186. input_channels->push_back(channel);
  187. input_data += width * height;
  188. }
  189. }
  190.  
  191. void Classifier::Preprocess(const cv::Mat& img,
  192. std::vector<cv::Mat>* input_channels) {
  193. /* Convert the input image to the input image format of the network. */
  194. cv::Mat sample;
  195. if (img.channels() == && num_channels_ == )
  196. cv::cvtColor(img, sample, cv::COLOR_BGR2GRAY);
  197. else if (img.channels() == && num_channels_ == )
  198. cv::cvtColor(img, sample, cv::COLOR_BGRA2GRAY);
  199. else if (img.channels() == && num_channels_ == )
  200. cv::cvtColor(img, sample, cv::COLOR_BGRA2BGR);
  201. else if (img.channels() == && num_channels_ == )
  202. cv::cvtColor(img, sample, cv::COLOR_GRAY2BGR);
  203. else
  204. sample = img;/*将输入的图像转换成输入层需要的图像格式*/
  205.  
  206. cv::Mat sample_resized;
  207. if (sample.size() != input_geometry_)
  208. cv::resize(sample, sample_resized, input_geometry_); /*如果大小不一致则需要缩放*/
  209. else
  210. sample_resized = sample;
  211.  
  212. cv::Mat sample_float;
  213. if (num_channels_ == )
  214. sample_resized.convertTo(sample_float, CV_32FC3); /*将数据转化成浮点型*/
  215. else
  216. sample_resized.convertTo(sample_float, CV_32FC1);
  217.  
  218. cv::Mat sample_normalized;
  219. cv::subtract(sample_float, mean_, sample_normalized); /*应该是当前图像减去均值图像*/
  220.  
  221. /* This operation will write the separate BGR planes directly to the
  222. * input layer of the network because it is wrapped by the cv::Mat
  223. * objects in input_channels. */
  224. cv::split(sample_normalized, *input_channels); /*把测试的图像通过之前的定义的wraper写入到输入层*/
  225.  
  226. CHECK(reinterpret_cast<float*>(input_channels->at().data)
  227. == net_->input_blobs()[]->cpu_data())
  228. << "Input channels are not wrapping the input layer of the network.";
  229. }
  230.  
  231. int main(int argc, char** argv) {
  232. if (argc != ) {
  233. std::cerr << "Usage: " << argv[]
  234. << " deploy.prototxt network.caffemodel"
  235. << " mean.binaryproto labels.txt img.jpg" << std::endl;
  236. return ;
  237. }
  238.  
  239. ::google::InitGoogleLogging(argv[]);
  240.  
  241. string model_file = argv[]; /*标识网络结构的deploy.prototxt文件*/
  242. string trained_file = argv[]; /*训练出来的模型文件caffemodel*/
  243. string mean_file = argv[]; /*均值.binaryproto文件*/
  244. string label_file = argv[]; /*标签文件:标识类别的名称*/
  245. Classifier classifier(model_file, trained_file, mean_file, label_file); /*创建对象并初始化网络、模型、均值、标签各类对象*/
  246.  
  247. string file = argv[]; /*传入的待测试图片*/
  248.  
  249. std::cout << "---------- Prediction for "
  250. << file << " ----------" << std::endl;
  251.  
  252. cv::Mat img = cv::imread(file, -);
  253. CHECK(!img.empty()) << "Unable to decode image " << file;
  254. std::vector<Prediction> predictions = classifier.Classify(img); /*具体测试传入的图片并返回测试的结果:类别ID与概率值的Prediction类型数组*/
  255.  
  256. /* Print the top N predictions. *//*将测试的结果打印*/
  257. for (size_t i = ; i < predictions.size(); ++i) {
  258. Prediction p = predictions[i];
  259. std::cout << std::fixed << std::setprecision() << p.second << " - \""
  260. << p.first << "\"" << std::endl;
  261. }
  262. }
  263. #else
  264. int main(int argc, char** argv) {
  265. LOG(FATAL) << "This example requires OpenCV; compile with USE_OPENCV.";
  266. }
  267. #endif // USE_OPENCV

输出activation map代码

输出层参数代码

c++ caffe 输出 activation map 、 层参数的更多相关文章

  1. caffe fine tune 复制预训练model的参数和freeze指定层参数

    复制预训练model的参数,只需要重新copy一个train_val.prototxt.然后把不需要复制的层的名字改一下,如(fc7 -> fc7_new),然后fine tune即可. fre ...

  2. (原)torch中微调某层参数

    转载请注明出处: http://www.cnblogs.com/darkknightzh/p/6221664.html 参考网址: https://github.com/torch/nn/issues ...

  3. pytorch中网络特征图(feture map)、卷积核权重、卷积核最匹配样本、类别激活图(Class Activation Map/CAM)、网络结构的可视化方法

    目录 0,可视化的重要性: 1,特征图(feture map) 2,卷积核权重 3,卷积核最匹配样本 4,类别激活图(Class Activation Map/CAM) 5,网络结构的可视化 0,可视 ...

  4. caffe添加python数据层

    caffe添加python数据层(ImageData) 在caffe中添加自定义层时,必须要实现这四个函数,在C++中是(LayerSetUp,Reshape,Forward_cpu,Backward ...

  5. 可视化CNN神经网路第一层参数

    在上Andrew Ng的课的时候搜集到了课程里面自带的显示NN参数的代码,但是只能显示灰度图,而且NN里的参数没有通道的概念.所以想要获得可视化CNN的参数,并且达到彩色的效果就不行了. 所以就自己写 ...

  6. [caffe]网络各层参数设置

    数据层 数据层是模型最底层,提供提供数据输入和数据从Blobs转换成别的格式进行保存输出,通常数据预处理(减去均值,放大缩小,裁剪和镜像等)也在这一层设置参数实现. 参数设置: name: 名称 ty ...

  7. caffe(5) 其他常用层及参数

    本文讲解一些其它的常用层,包括:softmax_loss层,Inner Product层,accuracy层,reshape层和dropout层及其它们的参数配置. 1.softmax-loss so ...

  8. caffe中全卷积层和全连接层训练参数如何确定

    今天来仔细讲一下卷基层和全连接层训练参数个数如何确定的问题.我们以Mnist为例,首先贴出网络配置文件: name: "LeNet" layer { name: "mni ...

  9. Caffe常用层参数介绍

    版权声明:本文为博主原创文章,转载请注明出处. https://blog.csdn.net/Cheese_pop/article/details/52024980 DATA crop:截取原图像中一个 ...

随机推荐

  1. 悦铃文件必须是CCITT A_Law格式的,且没有被压缩

    最近在给公司弄来电彩铃,用的是电信的“悦铃”业务,办理过程不想多说了..给了我个网址和账号让我登录,登录界面惨不忍睹,感觉电信根本没有要宣传这项业务的意思,像是粗制滥造外包赶工做出来的.. 当然这不是 ...

  2. C语言 · 打印1~100间的质数(素数)

    算法提高 c++_ch02_04   时间限制:1.0s   内存限制:256.0MB      问题描述 输出1~100间的质数并显示出来.注意1不是质数. 输出格式 每行输出一个质数. 2 3 . ...

  3. Linux网络编程wait()和waitpid()的讲解

    本文讲的是关于wait和waitpid两者的区别与联系.为避免僵尸进程的产生,无论我们什么时候创建子进程时,主进程都需要等待子进程返回,以便对子进程进行清理.为此,我们在服务器程序中添加SIGCHLD ...

  4. 回车替换Tab 并不会 提交表单 IE Chrome 通过

    网上一堆可以回车替换tab的代码,可是基本都忽略谷歌浏览器的兼容性,找了3个小时 试了无数遍,终于总结出这一段代码,希望能帮到需要的同学,也给自己留个备忘        document.onkeyd ...

  5. CSS(二):选择器

    一.基本选择器 1.标签选择器 HTML标签作为标签选择器的名称,例如<h1>~<h6>.<p>等. 语法: p{font-size: 16px;} p:标签选择器 ...

  6. 源码分享!!!world文档转换为JPG图片

    http://bbs.csdn.net/topics/390055515 —————————————————————————————————————————————————— 基本思路是:先将worl ...

  7. Android Studio多渠道打包的使用

    项目地址 https://github.com/mcxiaoke/gradle-packer-plugin 项目介绍 gradle-packer-plugin 是Android多渠道打包工具Gradl ...

  8. php -- php的事务处理

    MYSQL的事务处理主要有两种方法. 1.用begin,rollback,commit来实现 begin 开始一个事务 rollback 事务回滚 commit 事务确认 2.直接用set来改变mys ...

  9. mysql的优化基础知识

    1.查看各种SQL执行的频率 mysql> show status like 'Com_select';--Com_insert,Com_delete,connections(试图连接mysql ...

  10. jQuery实现瀑布流布局详解(PC和移动端)

    首先我们将如下样式的若干个单元写进body中,并将“box”向左浮动: <div class="box">  <img class="img" ...