caffe中的输入数据格式为:高效数据库(LevelDB、LMDB)、内存、磁盘文件(HDF5、图像)。对输入数据的处理包括mean subtraction, scaling, random cropping, and mirroring,可以在TransformationParameters中设置。
需要OpenCV,所以Makefile.config文件中的USE_OPENCV=1
目标函数,即损失函数,首先包含损失函数的选取涉及的参数;损失函数一般由两项组成,一项是loss term,另外一项是regularization term。前一项涉及的参数有;后一项涉及的参数有权重衰减(weight_decay)
优化方法:caffe中为梯度下降,首先是梯度下降算法的选取涉及的参数,然后是每种参数更新方法涉及的参数,主要是梯度相关(动量momentum)、学习率(lr、lr_policy)。
以LeNet为例,在solver.prototxt中
test_iter: 100 #测试批次,如果测试数据层的batch_size=10,那么可以覆盖10*100=1000个测试样本。
test_interval:1000#训练每迭代1000次测试一遍网络,一次迭代是指一次前向传播和一次后项传播。
max_iter:4000#最大的迭代次数
display: 100#每迭代100次在终端输出一次loss值,比如Iteration 4800, loss = 0.0120839
snapshot: 1000#每迭代训练1000次输出一次中间结果,比如lenet_iter_1000.caffemodel lenet_iter_2000.solverstate
注:通常一个epoch指覆盖所有训练样本,如果总共64000个训练样本,batch_size=64(即每批输入64个样本),那么一个epoch包含64000/64=1000次迭代(Iteration)
1.test score #0 、test score #1分别表示准确度(accuracy)和损失函数(loss)
2.训练mnist_autoencoder.prototxt模型时,输出
Train net output #0: cross_entropy_loss = 61.1311 (* 1 = 61.1311 loss)
Train net output #1: l2_error = 2.05479
其中,l2_error
表示 EuclideanLoss,在模型mnist_autoencoder.prototxt中定义,在这里可以直接删除而不影响模型训练,因为自动编码器不需要标签。
1.caffe默认的日志在 /tmp, 默认名字为 "[program name].[hostname].[user name].log.[severity level].[date].[time].[pid]" (e.g.caffe.HOST.USER.log.INFO.20150207-193541.13458)
可以更改日志目录
--log_dir=$PathWhereYouWantLogAt
2.动态显示日志更新情况
tail -n 20 -f mylog.txt
该阶段需要deploy.prototxt文件和相应训练阶段产生的.prototxt文件
需要将libcaffe.so文件包含在g++可以找到的位置,然后使用g++ -lcaffe read.cpp命令编译,读取.caffemodel的c++源代码示例如下。
#include <stdio.h>
#include <string.h>
#include <fstream>
#include <iostream>
#include "caffe.pb.h"
using namespace std;
using namespace caffe;
int main(int argc, char* argv[])
{
caffe::NetParameter msg;
fstream input("../lenet_iter_10000.caffemodel", ios::in | ios::binary);
if (!msg.ParseFromIstream(&input))
{
cerr << "Failed to parse caffemodel." << endl;
return -1;
}
printf("Repeated Size = %d\n", msg.layer_size());
::google::protobuf::RepeatedPtrField< LayerParameter >* layer = msg.mutable_layer();
::google::protobuf::RepeatedPtrField< LayerParameter >::iterator it = layer->begin();
for (; it != layer->end(); ++it)
{
if(it->type()=="Data")cout<<"Data:batch_size-:"<<it->data_param().batch_size()<<"blobs_size:"<<it->blobs_size()<<endl;
if(it->blobs_size()>0) cout << it->name()<<"\t"<<it->type()<<"\t"<<it->convolution_param().weight_filler().max()<<"\tblobs_size:"<<it->blobs_size()<<"\tblobs(0)"<<it->blobs(0).GetMetadata().descriptor<<endl;
}
return 0;
}
编译后执行./a.out 输出
Repeated Size = 9
Data:batch_size-:64blobs_size:0
conv1 Convolution 1 blobs_size:2 blobs(0)0x1f3f8f8
conv2 Convolution 1 blobs_size:2 blobs(0)0x1f3f8f8
ip1 InnerProduct 1 blobs_size:2 blobs(0)0x1f3f8f8
ip2 InnerProduct 1 blobs_size:2 blobs(0)0x1f3f8f8
pycaffe是caffe的python API,其安装步骤如下:
首先要回到caffe主目录下caffe-master,编译pycaffe(这一步的前提是caffe已经成功安装):
make pycaffe
make distribute
设置环境变量:
PYTHONPATH=/home/user/caffe-master/distribute/python:$PYTHONPATH
LD_LIBRARY_PATH=home/user/caffe-master/build/lib:$LD_LIBRARY_PATH
启动python并导入caffe
>>> import caffe
如果出现 from google.protobuf import descriptor_pb2 ImportError: cannot import name descriptor_pb2
之类的错误首先保证descriptor_pb2.py
文件存在,并且该文件所在的目录包含在PYTHONPATH目录中或sys.path中。
loss=NAN#学习率过大
迭代很多次,但loss 几乎不变
显示
I0903 13:46:54.967397 22723 layer_factory.hpp:75] Creating layer data
I0903 13:46:54.967449 22723 net.cpp:99] Creating Layer data
I0903 13:46:54.967455 22723 net.cpp:409] data -> data
(挂在这里不动了)
原因和解决方案见这里
1.http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers