opencv BP神经网络使用过程

原创 2016-11-10 14:14:52 715
摘要: 1.OpenCV中的神经网络OpenCV中封装了类CvANN_MLP,因而神经网络利用很方便。 首先构建一个网络模型:    CvANN_MLP ann;    Mat structure(1,3,CV_32SC1);    structure.at<uchar>(0) = 10;   

 1.OpenCV中的神经网络

OpenCV中封装了类CvANN_MLP,因而神经网络利用很方便。

 

首先构建一个网络模型:

    CvANN_MLP ann;

    Mat structure(1,3,CV_32SC1);

    structure.at<uchar>(0) = 10;

    structure.at<uchar>(0) = 4;

    structure.at<uchar>(0) = 2;  // structure中表示每一层中神经元数目

    ann.create(structure,CvANN_MLP::SIGMOID_SYM,1,1);  // 很明显第二个参数选择的是激活函数的类型

 

然后需要对训练数据放在两个Mat结构中。第一个是存储训练数据的Mat train,第二个是存储类别的Mat label。其中,train的每一行代表一个训练样例,label的对应的一行是训练样例的类别。比如有25个属于7个类别的训练样例,每个样例为16维向量。则train结构为25*16,label结构为25*7。需要解释的是类别数据,label中一行表示样例所处类别,如果属于第一类则为(1,0,0,0,0,0,0),第二类为(0,1,0,0,0,0,0)...

 

接下来需要给ann提供一个样例的权重向量Mat weight,它标记的是训练样例的权重,这里都初始化为1:

Mat weight;

 weight.ones(1,25,CV_32FC1);

 

接下来可以做训练了:

ann.train(train,label,weight);

训练结束后用ann来做分类,输入为Mat testSample,testSample为1*16的向量,输出为Mat output,output为1*7向量:

ann.predict(testSample,output);

最后找到output中的最大值就知道所属类别maxPos了:

int maxPos;

double maxVal;

minMaxLoc(output,0,&maxVal,0,&maxPos);

 

2.神经网络的训练

int CvANN_MLP::train(constMat& inputs, constMat& outputs, 

constMat& sampleWeights, constMat& sampleIdx=Mat(), 

CvANN_MLP_TrainParams params=CvANN_MLP_TrainParams(), intflags=0 );

1) inputs:输入矩阵。它存储了所有训练样本的特征。假设所有样本总数为nSamples,而我们提取的特征维数为ndims,

则inputs是一个nSamples∗ndims的矩阵,每个样本的特征占一行。

2) outputs:输出矩阵。我们实际在训练中,我们知道每个样本所属的种类,假设一共有nClass类。那么我们将outputs设置为

一个nSample*nClass列的矩阵,每一行表示一个样本的预期输出结果,该样本所属的那类对应的列设置为1,其他都为0。

比如我们需要识别0-9这10个数字,则总的类数为10类,那么样本数字“3”的预期输出为[0,0,1,0,0,0,0,0,0,0];

3) sampleWeights:一个在使用RPROP方法训练时才需要的数据,所以这里我们不设置,直接设置为Mat()即可。

4) sampleIdx:相当于一个遮罩,它指定哪些行的数据参与训练。如果设置为Mat(),则所有行都参与。

5) params:这个在刚才已经说过了,是训练相关的参数。

3.神经网络的测试

float CvANN_MLP::predict(constMat&inputs,Mat&outputs)

图像进行特征提取,把它保存在inputs里,通过调用predict函数,我们得到一个输出向量,它是一个1*nClass的行向量,

其中每一列说明它与该类的相似程度(0-1之间),也可以说是置信度。我们只用对output求一个最大值,就可得到结果。

这个函数的返回值是一个无用的float值,可以忽略。


发布手记

热门词条