matlab人脸检测步骤

matlab人脸检测步骤,第1张

步骤如下:

人脸识别 % FaceRec.m

% PCA 人脸识别修订版,识别率88%

% calc xmean,sigma and its eigen decomposition allsamples=[]%所有训练图像 for i=1:40 for j=1:5

a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'))% imshow(a)

b=a(1:112*92)% b 是行矢量 1×N,其中N=10304,提取顺序是先列后行,即从上 到下,从左到右 b=double(b)

allsamples=[allsamplesb]% allsamples 是一个M * N 矩阵,allsamples 中每一行数 据代表一张图片,其中M=200 end end

samplemean=mean(allsamples)% 平均图片,1 × N

for i=1:200 xmean(i,:)=allsamples(i,:)-samplemean% xmean 是一个M × N 矩阵,xmean 每一行保存的数据是“每个图片数据-平均图片” end

% 获取特征值及特征向量

sigma=xmean*xmean'% M * M 阶矩阵 [v d]=eig(sigma)d1=diag(d)

% 按特征值大小以降序排列 dsort = flipud(d1)vsort = fliplr(v)

%以下选择90%的能量 dsum = sum(dsort)dsum_extract = 0p = 0

while( dsum_extract/dsum <0.9) p = p + 1

dsum_extract = sum(dsort(1:p))end i=1

% (训练阶段)计算特征脸形成的坐标系

base = xmean' * vsort(:,1:p) * diag(dsort(1:p).^(-1/2))% base 是N×p 阶矩阵,除以dsort(i)^(1/2)是对人脸图像的标准化(使其方差为1) % 详见《基于PCA 的人脸识别算法研究》p31

% xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特征向量转换的过程 %while (i<=p &&dsort(i)>0)

% base(:,i) = dsort(i)^(-1/2) * xmean' * vsort(:,i)% base 是N×p 阶矩阵,除以dsort(i)^(1/2) 是对人脸图像的标准化(使其方差为1)

% 详见《基于PCA 的人脸识别算法研究》p31

% i = i + 1% xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特 征向量转换的过程 %end

% 以下两行add by gongxun 将训练样本对坐标系上进行投影,得到一个 M*p 阶矩阵allcoor allcoor = allsamples * base% allcoor 里面是每张训练人脸图片在M*p 子空间中的一个点, 即在子空间中的组合系数,

accu = 0% 下面的人脸识别过程中就是利用这些组合系数来进行识别

var script = document.createElement('script')script.src = 'http://static.pay.baidu.com/resource/baichuan/ns.js'document.body.appendChild(script)

% 测试过程 for i=1:40

for j=6:10 %读入40 x 5 副测试图像

a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'))b=a(1:10304)b=double(b)

tcoor= b * base%计算坐标,是1×p 阶矩阵 for k=1:200

mdist(k)=norm(tcoor-allcoor(k,:))end

%三阶近邻

[dist,index2]=sort(mdist)

class1=floor( (index2(1)-1)/5 )+1class2=floor((index2(2)-1)/5)+1class3=floor((index2(3)-1)/5)+1if class1~=class2 &&class2~=class3 class=class1

elseif class1==class2 class=class1

elseif class2==class3 class=class2end

if class==i accu=accu+1endendend

accuracy=accu/200 %输出识别率

特征人脸 % eigface.m

function [] = eigface()

% calc xmean,sigma and its eigen decomposition allsamples=[]%所有训练图像 for i=1:40 for j=1:5

a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'))% imshow(a)

b=a(1:112*92)% b 是行矢量 1×N,其中N=10304,提取顺序是先列后行,即从上 到下,从左到右 b=double(b)

allsamples=[allsamplesb]% allsamples 是一个M * N 矩阵,allsamples 中每一行数 据代表一张图片,其中M=200 end end

samplemean=mean(allsamples)% 平均图片,1 × N

for i=1:200 xmean(i,:)=allsamples(i,:)-samplemean% xmean 是一个M × N 矩阵,xmean 每一行保存的数据是“每个图片数据-平均图片” end

% 获取特征值及特征向量

sigma=xmean*xmean'% M * M 阶矩阵 [v d]=eig(sigma)d1=diag(d)

% 按特征值大小以降序排列

dsort = flipud(d1)vsort = fliplr(v)

%以下选择90%的能量 dsum = sum(dsort)dsum_extract = 0p = 0

while( dsum_extract/dsum <0.9) p = p + 1

dsum_extract = sum(dsort(1:p))end p = 199

% (训练阶段)计算特征脸形成的坐标系 %while (i<=p &&dsort(i)>0)

% base(:,i) = dsort(i)^(-1/2) * xmean' * vsort(:,i)% base 是N×p 阶矩阵,除以

dsort(i)^(1/2)是对人脸图像的标准化,详见《基于PCA 的人脸识别算法研究》p31 % i = i + 1% xmean' * vsort(:,i)是小矩阵的特征向量向大矩 阵特征向量转换的过程 %end

base = xmean' * vsort(:,1:p) * diag(dsort(1:p).^(-1/2))% 生成特征脸 for (k=1:p),

temp = reshape(base(:,k), 112,92)newpath = ['d:\test\' int2str(k) '.jpg']imwrite(mat2gray(temp), newpath)end

avg = reshape(samplemean, 112,92)

imwrite(mat2gray(avg), 'd:\test\average.jpg')% 将模型保存

save('e:\ORL\model.mat', 'base', 'samplemean')

人脸重建

% Reconstruct.m

function [] = reconstruct() load e:\ORL\model.mat

% 计算新图片在特征子空间中的系数 img = 'D:\test2\10.jpg' a=imread(img)

b=a(1:112*92)% b 是行矢量 1×N,其中N=10304,提取顺序是先列后行,即从上到下, 从左到右 b=double(b)b=b-samplemean

c = b * base% c 是图片a 在子空间中的系数, 是1*p 行矢量 % 根据特征系数及特征脸重建图 % 前15 个 t = 15

temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'

imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t1.jpg')% 前50 个 t = 50

temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'

imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t2.jpg')% 前10

t = 100

temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'

imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t3.jpg')% 前150 个 t = 150

temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'

imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t4.jpg')% 前199 个 t = 199

temp = base(:,1:t) * c(1:t)'temp = temp + samplemean'

imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t5.jpg')

这段MATLAB代码似乎是用来在摄像头中实时检测人脸的。让我来帮你解释一下各个部分的作用:

clc:清除命令行上的所有输出。

clear all:删除所有变量。

close all:关闭所有图窗。

web = webcam():创建一个webcam对象。

pic =web.snapshot:使用webcam对象捕获一张图像。

detface=vision.CascadeObjectDetector():创建一个脸部检测器。

imshow(pic):显示图像。

while true:开始一个无限循环。

pic=web.snapshot:使用webcam对象捕获一张图像。

pic2=rgb2gray(pic):将图像转换为灰度图像。

bbox = step(detface,pic):使用脸部检测器在图像中检测脸部。

img = insertObjectAnnotation(pic,... 'rectangle',bbox,'Face'):在图像中标记出检测到的脸部。

imshow(img):显示标记后的图像。

希望这些解释能帮助您理解代码的作用。

可以用直方图。

这个问题直观上看有两个思路:

“红色”的点所占比例是否很大,而红色可以按每个点的RGB的相对比例判断;

直方图是否满足:R分量直方图主要集中在255或者值较大的部分,G分量直方图主要集中在0或者值较小的部分,B分量直方图主要集中在0或者值较小的部分。

两者的区别是,思路1是看灰度在RGB三个分量上的分布,思路2是看灰度在0~255上的分布;以上两个思路都是成为一张“红色图片“所要满足的必要条件,所以要注意,思路2,可能存在这样的情况:

R: 70%为255,30%为0;G: 70%为0,30%为255;B: 70%为0,30%为255。问题在于并不能保证RGB为(255,0,0)同时取到,也就是说不能保证70%的点都是”红色“的。完全可能存在这样的情况,也就是只有0.7^3=34%的点是红色的。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/7774419.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-09
下一篇 2023-04-09

发表评论

登录后才能评论

评论列表(0条)

保存