首页 > 代码库 > 【caffe-windows】 caffe-master 之 classfication_demo.m 超详细分析

【caffe-windows】 caffe-master 之 classfication_demo.m 超详细分析

 

classification_demo.m 是个很好的学习资料,了解这个代码之后,就能在matlab里用训练好的model对输入图像进行分类了,而且我在里边还学到了oversample的实例,终于了解数据增强是个怎么回事。

 

caffe-master\matlab\demo\classification_demo.m这个demo是针对  ImageNet图像分类的(1000个类), 主要是调用训练好model,对输入的图像进行分类,输出分类结果。

要想运行此demo,需要的东西有:

1. 模型描述文件:deploy.prototxt(这个文件本来就有,不用管)

2. 模型本身:bvlc_reference_caffenet.caffemodel  

3. 标签文件:用来描述1000个类分别是什么

4. 均值文件:即训练样本的均值文件(没看过相关资料,暂时认为是训练样本的均值文件),ilsvrc_2012_mean.mat,文件已经存在于caffe-master\matlab\+caffe\imagenet之中

 

从以上可以知道,当我们想将classification运用于自己的数据集的时候就要对应的更改以上4点。

 

 

Matalb接口的配置以及demo的运行请看之前的博客:【caffe-windows】 caffe-master 之 matlab接口配置 (http://blog.csdn.net/u011995719/article/details/53994570)

 

现在来分析 classification_demo.m,方便之后应用于自己的项目中。

       首先我们来看看输入输出:

input

 im       color image as uint8HxWx3

 use_gpu   1 to use the GPU, 0 touse the CPU

 output

 scores   1000-dimensional ILSVRCscore vector

 maxlabel the label of the highest score

输入有两个参数,一个是图片,为单张图(若要测试多张,用for解决),另外一个则是CPU和GPU的选择。

输出也有两个参数,一个是得分,即该图片对应所有类别的一个概率分布,另外一个则是最高得分所对应的类别,这就和标签文件有关了。

       下面直接贴源码进行分析(删减原注释,建议对照原注释):

 

 

%此处为添加路径,确保能找到caffe-master\matlab\+caffe
if exist(‘../+caffe‘, ‘dir‘)
  addpath(‘..‘);
else
  error(‘Please run this demo from caffe/matlab/demo‘);
end


% 设置CPU or GPU
if exist(‘use_gpu‘, ‘var‘) && use_gpu
  caffe.set_mode_gpu();
  gpu_id = 0;  % we will use the first gpu in this demo
  caffe.set_device(gpu_id);
else
  caffe.set_mode_cpu();
end




model_dir = ‘../../models/bvlc_reference_caffenet/‘;% 模型所在文件夹路径
net_model = [model_dir ‘deploy.prototxt‘];          % 模型描述文件的路径
net_weights = [model_dir ‘bvlc_reference_caffenet.caffemodel‘]; % 模型的路径
phase = ‘test‘; % 指出网络状态为test,防止使用dropout
if ~exist(net_weights, ‘file‘)% 检测模型是否存在,不存在则报错提醒
  error(‘Please download CaffeNet from Model Zoo before you run this demo‘);
end


 
net = caffe.Net(net_model, net_weights, phase); % 初始化网络


 % 若classification_demo这个函数的输入参数小于1,即无输入参数,则默认使用 caffe/examples/images/cat.jpg 这张图片
if nargin < 1   
  fprintf(‘using caffe/examples/images/cat.jpg as input image\n‘);
  im = imread(‘../../examples/images/cat.jpg‘);
end




% 重点来了! 由于caffe里的数据是 BGR的顺序,而matlab是RGB的顺序,因此需要对输入图片进行变换
%  这里用一个prepare_image函数将RGB转成BGR,而且对输入图片进行了resize操作,crop操作以及减均值
%   跑到最下面去看看  prepare_image函数
tic;
input_data = http://www.mamicode.com/{prepare_image(im)};
toc;


tic;


scores = net.forward(input_data);   % 将数据输入到网络,进行前向传播,得出分数,scores是一个细胞元组
toc;


scores = scores{1};         % scores 是 1000*10 的矩阵 10是对应了10个crop图片
scores = mean(scores, 2);   % 对10个crop进行求平均 
[~, maxlabel] = max(scores); % 再找出最大的那一个 


% 重置 caffe
caffe.reset_all();


% ------------------------------------------------------------------------
function crops_data = http://www.mamicode.com/prepare_image(im)
% ------------------------------------------------------------------------
% caffe/matlab/+caffe/imagenet/ilsvrc_2012_mean.mat contains mean_data that
% is already in W x H x C with BGR channels
d = load(‘../+caffe/imagenet/ilsvrc_2012_mean.mat‘);    % 读取均值文件通道顺序已经是BGR
mean_data = http://www.mamicode.com/d.mean_data;
IMAGE_DIM = 256;            %  resize的大小
CROPPED_DIM = 227;          % crop的大小,因为模型的输入就是 227*227的,所以最终要得到一个227*227的


% Convert an image returned by Matlab‘s imread to im_data in caffe‘s data
% format: W x H x C with BGR channels
im_data = http://www.mamicode.com/im(:, :, [3, 2, 1]); % RGB 转成了 BGR ,im_data通道顺序已经是 BGR
im_data = http://www.mamicode.com/permute(im_data, [2, 1, 3]); % 对输入图像进行了转置, 长和宽换一换
im_data = http://www.mamicode.com/single(im_data); % 数据格式转成uint8类型
im_data = http://www.mamicode.com/imresize(im_data, [IMAGE_DIM IMAGE_DIM], ‘bilinear‘); % 采取双线性插值法,对输入图片进行resize至 IMAGE_DIM 大小
im_data = http://www.mamicode.com/im_data - mean_data; % 再减去均值


% oversample (4 corners, center, and their x-axis flips)
% oversample 就是 数据增强 2012年Alex等人提出的一个技术,这里是在图片(此处256*256的)的4个角以及正中心截取出5张
% 227*227的图片,然后将这5张图片在x轴上进行镜像,总共获得10张 227*227的图片作为模型的输入
crops_data = http://www.mamicode.com/zeros(CROPPED_DIM, CROPPED_DIM, 3, 10, ‘single‘);
indices = [0 IMAGE_DIM-CROPPED_DIM] + 1;
n = 1;
for i = indices     % for循环只是截取了4个角的
  for j = indices
    crops_data(:, :, :, n) = im_data(i:i+CROPPED_DIM-1, j:j+CROPPED_DIM-1, :);  % 截取一个角的 227*227的图片
    crops_data(:, :, :, n+5) = crops_data(end:-1:1, :, :, n);                   % 将该图片在x轴上作镜像,+5是因为共截取5张227*227
    n = n + 1;                                                                  % 截取5张,再分别镜像,一张图片变成了10张图片进行输入
  end                                                                           
end
center = floor(indices(2) / 2) + 1;     % 截取中心的图片,再进行镜像
crops_data(:,:,:,5) = ...
  im_data(center:center+CROPPED_DIM-1,center:center+CROPPED_DIM-1,:);
crops_data(:,:,:,10) = crops_data(end:-1:1, :, :, 5);

 

 

 

PS:

1. 大家可以看以下模型描述文件, deploy.prototxt ,里的这行   “input_param { shape: { dim: 10 dim: 3 dim: 227 dim: 227 } } ”    为什么输入是 10*3*227*227。一开始我还以为这个10是batch数,但是看完了 classification_demo后终于明白这个10是怎么来的了!  

有兴趣的同学可以打开caffe-master\examples\mnist 下的 lenet.prototxt , 看这行  input_param { shape: { dim: 64 dim: 1 dim: 28 dim: 28 } },为什么是64??求解答

为了做参考,caffe-master\examples\cifar10 下的 cifar10_quick.prototxt 是  input_param { shape: { dim: 1 dim: 3 dim: 32 dim: 32 } } 

 

2. 发现求scores的时候是有 1000*10的矩阵,也就是每一张crop图片是独立的input,输入并不是 一个10*3*227*227的一个数据,而是 10个 3*227*227的数据,然后得到10组得分,然后再求平均! (怎么老感觉有种作弊的嫌疑!!)     所以要运用此代码到自己的数据集时候,请记得留意 scores!!

 

【caffe-windows】 caffe-master 之 classfication_demo.m 超详细分析