layers {
name: "mydata"
type: MEMORY_DATA
top: "data"
top: "label"
transform_param {
scale: 0.00390625
}
memory_data_param {
batch_size: 10
channels: 1
height: 24
width: 24
}
}
这里必须设置memory_data_param中的四个参数,对应这些参数可以参见源码中caffe.proto文件。现在,我们可以设计一个Classifier类来封装一下:
#ifndef CAFFE_CLASSIFIER_H
#define CAFFE_CLASSIFIER_H
#include <string>
#include <vector>
#include "caffe/net.hpp"
#include "caffe/data_layers.hpp"
#include <opencv2/core.hpp>
using cv::Mat
namespace caffe {
template <typename Dtype>
class Classifier {
public:
explicit Classifier(const string&param_file, const string&weights_file)
Dtype test(vector<Mat>&images, vector<int>&labels, int iter_num)
virtual ~Classifier() {}
inline shared_ptr<Net<Dtype>>net() { return net_}
void predict(vector<Mat>&images, vector<int>*labels)
void predict(vector<Dtype>&data, vector<int>*labels, int num)
void extract_feature(vector<Mat>&images, vector<vector<Dtype>>*out)
protected:
shared_ptr<Net<Dtype>>net_
MemoryDataLayer<Dtype>*m_layer_
int batch_size_
int channels_
int height_
int width_
DISABLE_COPY_AND_ASSIGN(Classifier)
}
}//namespace
#endif //CAFFE_CLASSIFIER_H
构造函数中我们通过模型定义文件(.prototxt)和训练好的模型(.caffemodel)文件构造一个Net对象,并用m_layer_指向Net中的memory data层,以便待会调用MemoryDataLayer中AddMatVector和Reset函数加入数据。
#include <cstdio>
#include <algorithm>
#include <string>
#include <vector>
#include "caffe/net.hpp"
#include "caffe/proto/caffe.pb.h"
#include "caffe/util/io.hpp"
#include "caffe/util/math_functions.hpp"
#include "caffe/util/upgrade_proto.hpp"
#include "caffe_classifier.h"
namespace caffe {
template <typename Dtype>
Classifier<Dtype>::Classifier(const string&param_file, const string&weights_file) : net_()
{
net_.reset(new Net<Dtype>(param_file, TEST))
net_->CopyTrainedLayersFrom(weights_file)
//m_layer_ = (MemoryDataLayer<Dtype>*)net_->layer_by_name("mnist").get()
m_layer_ = (MemoryDataLayer<Dtype>*)net_->layers()[0].get()
batch_size_ = m_layer_->batch_size()
channels_ = m_layer_->channels()
height_ = m_layer_->height()
width_ = m_layer_->width()
}
template <typename Dtype>
Dtype Classifier<Dtype>::test(vector<Mat>&images, vector<int>&labels, int iter_num)
{
m_layer_->AddMatVector(images, labels)
//
int iterations = iter_num
vector<Blob<Dtype>* >bottom_vec
vector<int>test_score_output_id
vector<Dtype>test_score
Dtype loss = 0
for (int i = 0i <iterations++i) {
Dtype iter_loss
const vector<Blob<Dtype>*>&result =
net_->Forward(bottom_vec, &iter_loss)
loss += iter_loss
int idx = 0
for (int j = 0j <result.size()++j) {
const Dtype* result_vec = result[j]->cpu_data()
for (int k = 0k <result[j]->count()++k, ++idx) {
const Dtype score = result_vec[k]
if (i == 0) {
test_score.push_back(score)
test_score_output_id.push_back(j)
} else {
test_score[idx] += score
}
const std::string&output_name = net_->blob_names()[
net_->output_blob_indices()[j]]
LOG(INFO) <<"Batch " <<i <<", " <<output_name <<" = " <<score
}
}
}
loss /= iterations
LOG(INFO) <<"Loss: " <<loss
return loss
}
template <typename Dtype>
void Classifier<Dtype>::predict(vector<Mat>&images, vector<int>*labels)
{
int original_length = images.size()
if(original_length == 0)
return
int valid_length = original_length / batch_size_ * batch_size_
if(original_length != valid_length)
{
valid_length += batch_size_
for(int i = original_lengthi <valid_lengthi++)
{
images.push_back(images[0].clone())
}
}
vector<int>valid_labels, predicted_labels
valid_labels.resize(valid_length, 0)
m_layer_->AddMatVector(images, valid_labels)
vector<Blob<Dtype>* >bottom_vec
for(int i = 0i <valid_length / batch_size_i++)
{
const vector<Blob<Dtype>*>&result = net_->Forward(bottom_vec)
const Dtype * result_vec = result[1]->cpu_data()
for(int j = 0j <result[1]->count()j++)
{
predicted_labels.push_back(result_vec[j])
}
}
if(original_length != valid_length)
{
images.erase(images.begin()+original_length, images.end())
}
labels->resize(original_length, 0)
std::copy(predicted_labels.begin(), predicted_labels.begin() + original_length, labels->begin())
}
template <typename Dtype>
void Classifier<Dtype>::predict(vector<Dtype>&data, vector<int>*labels, int num)
{
int size = channels_*height_*width_
CHECK_EQ(data.size(), num*size)
int original_length = num
if(original_length == 0)
return
int valid_length = original_length / batch_size_ * batch_size_
if(original_length != valid_length)
{
valid_length += batch_size_
for(int i = original_lengthi <valid_lengthi++)
{
for(int j = 0j <sizej++)
data.push_back(0)
}
}
Windows 8.1下Caffe环境搭建一、环境准备
1.Windows 8.1系统
2.Visual Studio 2013 Ultimate
Visual studio 2013 Ultimate下载地址:
二、Visual Studio 2013 Ultimate安装教程(安装+注册)
等待下载完成之后,虽然下载文件是ios格式,但我们可以用解压缩工具解压打开。解压好后,双击vs_ultimate.exe,开始安装。新旧版本VS是可以共存的,但是在安装过程中,旧版本的VS一定要先关闭。
自定义选择安装路径时,注意所属路径的预留空间要充足,否则安装会失败,同意许可条款,进行下一步。
在选择安装的可选功能这里,大家可以根据自己需要勾选,也可以默认全选。把鼠标放在文字上,会d出各个功能详细描述。选择常用的功能,另外要注意预留空间,开始安装。
等待大概30分钟,就可以完成安装。安装过程中,VS会占用很多的系统资源,所以最好不要开启其他软件,等待安装。
第一次打开VS2013,需要进行一些基本配置,如开发设置、颜色主题,根据自己的需求设置,然后等待几分钟就可以使用。由于VS2013引入了一种联网 IDE 体验,大家可以使用微软的账户登录,而且其还自动采用联网 IDE 体验的设备上同步设置,包括快捷键、Visual Studio 外观(主题、字体等)各种类别同步的设置。
最后要给VS注册一下,不然软件是有30天的试用期。打开VS2013,在工具栏中找到帮助选项卡,点击注册产品,会d出一个对话框,里面会显示软件的注册状态。
点击更改我的产品许可证,会d出一个对话框,要求输入产品密钥。此时,需要一个产品密钥,提供一个可用的密钥:VS2013_RTM_ULT_CHS KEY: BWG7X-J98B3-W34RT-33B3R-JVYW
若密钥失效,大家要自己到网上去搜索了。注册成功后,所有的 *** 作算是基本完成,可以正常使用。
三、下载Microsoft/Caffe源码
四、编译Caffe源码
1. 解压源码(我安装于D盘,根据个人习惯安装于哪个盘,不提倡安装于C盘)
2.进入目录 D:\caffe-master\windows
将文件“CommonSettings.props.exemple”复制一下,粘贴,并重命名为“CommonSetting.props”
在进行此 *** 作的时候,有人也许会遇到这样的问题,文件的后缀名怎么修改呢?
提示:如何修改文件的后缀名(W8.1系统)
1) 在win8.1中,双击界面中的“这台电脑”,打开资源管理器。点击导航栏中的“查看”选项,勾选“文件扩展名”复选框按钮。
2) 此时文件的后面就会出现文件后缀名或文件扩展名了。
3) 右键单击需要修改扩展名的文件,然后在列表中选择“重命名”选项。
4) 然后输入新的扩展名,鼠标点击桌面空白处。在d出的窗口中点击“是”按钮即可。
3. 打开文件“CommonSetting.props”,加粗字体为修改后的内容,修改位置应该在用写字板方式打开之后,文件的第9-10行,修改内容如下:
<CpuOnlyBuild>true</CpuOnlyBuild>
<UseCuDNN>false</UseCuDNN>
4. 双击D:\caffe-master\windows\目录下"caffe.sln”,自动打开安装好的VS2013。
5. 单击 VS2013”生成"菜单,单击"重新生成解决方案"。
开始了漫长时间的编译过程,请耐心等待,微软会自动帮我们生成全部的依赖包。依赖包全部在文件夹D:\NugetPackages中。
五、编译中可能出现的问题
error C2220: 警告被视为错误- 没有生成"libcaffe.lib"
编译过程中出现警告,编译器将警告视为错误。
解决方法:
1单击"项目"--"libcafee属性","将警告是为错误"改为否。
2修改后,单击“生成”--“清除解决方案”,然后单击“生成”--“生成解决方案”。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)