・170・ 计算机测量与控制.2006.14(2) Computer Measurement &Control
自动化测试
收稿日期:2005-07-08; 修回日期:2005-08-19。基金项目:北京交通大学“十五”专项基金资助项目
(2004SM006)。
作者简介:李杰(1979-),男,山东威海人,硕士研究生,主要从事DSP ,数字图像处理方向的研究。
文章编号:1671-4598(2006)02-0170-02 中图分类号:TP274 文献标识码:B
李 杰,郝晓莉
(北京交通大学电子信息工程学院,北京 100044)
摘要:提出了一种利用肤信息,建立YCbCr 肤模型空间作为人脸检测的预处理手段,利用小波分解和BP 神经网络作为检测方法;对算法进行仿真验证,实验结果表明:该肤模型空间对光线、遮挡以及姿态有很好的robust 特性;本检测方法达到较好的检测效果。
关键词:小波分解;神经网络;亮度补偿
F ace Detection Using Ellipse Skin Model
Li Jie ,Hao Xiaoli
(Electronic and Information School ,Beijing Jiaotong University ,Beijing 100044,China )
Abstract :A new face detection met hod is presented by building up a skin model space of Y cbCr as a preprocessing way.The algorit hm is robust to different light s ,shelters and orientation.Experimental result s demonstrate t he efficiency of t his algorit hm.
K ey w ords :wavelet transform ;BP Network ;Lighting compensation
图2 肤空间
0 引言
人脸检测(Face detection ),是指判断一个给定的场景中,是否存在人脸:如果存在,则对人脸进行定位和统计。人脸检测在身份识别、可视电话、人机接口方面有着广泛的用途。其技术难点在于场景中人脸模式的广泛差异性,这种差异主要来自个体差异、光照条件、观察角度以及人脸表情等。人脸检测常用算法有:基于肤的方法[1]、镶嵌图方法[2]、基于模板匹配方法[3]、人工神经网络方法[4]、支持向量机(SVM )方法[5]、小波变换(WT )方法、基于仿生模式识别[6]以及隐马尔可夫模型(HMM )等。2001
年Sheng -f un Lin [7]等提出了一种通过小波变换提取头部轮廓特征来定位人脸的方法。我们在这种方法的基础上,建立了椭圆肤模型空间,然后采用Haar 小波分解和BP 神经网络进行人脸检测。这种方法的主要优点在于减小后期人脸定位的复杂度和提高图像的处理速度。图像处理流程如图1所示。
图1 系统处理流程图
1 图像预处理
肤是人类面部最为显著的特征之一,目前我们
的研究是针对正面人头图像的,所以利用肤检测人头是一个很自然的想法。由于受个体差异、光源的颜以及光照角度不同等因素的影响,肤的检测成为非常困难的问题。虽然颜特征很早就被用来进行物
体的检测和识别,但直到最近几年,颜在机器人脸认知中的应用才逐渐多了起来,并且以其简单快速的特点得到了广泛关注与应用。利用肤检测人的头部,首先要解决的问题是选择合适的颜模型。颜模型是抽象表示和描述颜的方法。发展至今,目前存在着各种各样的描述颜的模型,在人脸检测中常用的颜空间有:R G B 空间、归一化R G B 空间、HSV (HIS )空间、YCrCb 空间、YIQ 空间、YES 空间、CIE 颜系统的XYZ 空间和L UV 空间等。这些空间可以相互转换。为了消除亮度Y 的影响,经过γ校正过的亮度,只取前5%的像素(从高到底排列)。如果这些像素的数目足够大,则将其亮度作为“参考白”,即将其R 、G 、B 分量调整为255,从而将整个图像的其他像素点按这一尺度进行调整。
肤模型可以划分为:(a )彩空间中的聚类模型;(b )高斯模型和混合高斯模型。目前认为,高斯模型只在简单背景中有效,一般应采用混合高斯模型。
我们将肤判断作为人脸检测的预处理。我们采用的是Rein -Lien Hsu [8]提出的基于YCbCr 空间的加入亮度补偿的肤模型。Rein -Lien Hsu 通过研究发现肤空间并不完全由C b 、C r 决定,Y 的取值同
样也会影响肤区域的形状。图2(1)是肤在C b -C r 空间的投影模型,图2(2)是肤在YC b C r 空间的模型,图3是加入亮度分量(Y )后,肤在(C b /Y )-(C r /Y )空间的投影模型。
第2期李杰,等:一种基于椭圆肤模型的人脸检测方法 ・171
・
图3 肤在(C b /Y )-(C r /Y )子空间的二维投影
建立该肤模型的具体算法如下:
C i (Y )=
(C i (Y )-C i (Y ))
W C i
W C i (Y )
+C i (K h )if Y <K l or K h <Y
C i (Y )if Y ∈[K l ,K h ]
(1)
W C i (Y )=
W I C i +
(Y -Y min )・(W C i -WL C i )
K l -Y min if Y <K l
W H C i +
(Y max -Y )・(W C i -W H C i )
Y max -K h
if K h <Y
(2)
C b (Y )=
108+
(K l -Y )・(118-108)
K l -Y min
if Y <K l
108+(Y -K h )・(118-108)Y max -K
h
if K h <Y
(3)
C r (Y )=
154-(K l -Y )・(154-144)
K l -Y min
if Y <K l
154+(Y -K h
)・(154-132)Y max -K h
呼吸机管路if
K h <Y
(4)
其中,式
(1)中的C i 是C b 或者C r 。我们对MIT 人脸库图像进行数据计算,得到各个参数取值如下:W c b =46.97,
WL c b =23,W H c b =14,W c r =38176,WL c r =20,W H c r =10,K l =
125,K h =188。在YCbCr 空间中,Y min =16,Y max =235。
图4是计算得到的肤在Y -Cb 子空间和Y -Cr 子空间的投影,
拟合曲线的上下边界分别由C i (
Y )±W C i (Y )/2表示。
图4 三维肤的二维投影
图5中肤椭圆模型C b ′-C r ′由式(5)和式(6)给出:柴油燃烧器
(x -ecx )2a 2
+(y -ecy )2
b 2=1(5)x y
=
cos
θ,sin θ-sin
θ,cos θC ′b -cx C ′r -cy
(6)
其中,cx =109138,cy =152102,θ=2153(rad ),ecx =1160,
ecy =2141,a =25139,b =14103,以上各值皆由C ′b -C ′r 空间的肤聚集区域计算得到。
图5 变换后的YC ′b C ′r 肤空间
经过试验,处理的效果如下例所示。盛德提银机
表1 测试结果
试验图像中的总人数检测正确的人数漏检的人数误检的人数led光源模组
400
341
61
34
图6 试验图片
2 聚类判别
经过肤模型处理过的图像,利用Haar 小波分解提取特
征,利用BP 神经网络进行目标聚类。
(下转第182页)
・182・ 计算机测量与控制 第2期
调用实测数据进行仿真时。在这里,DataSocket 的传输协议为dstp ,U RL 的表示为:dstp ://ip 地址/data 。当客户端A PI 接收到数据后,解包读取数据,完成测控和显示。412 用户端程序开发
用户端程序开发分为瘦客户端开发和基于DataSocket 服务的客户端A PI 开发。41211 瘦客户端程序开发
瘦客户端程序主要包括动态打开子VI 和调用LabVIEW 711的ActiveX Event Callback for IE 1vi 来实现。
动态打开子VI 负责在打开Html 文件前动态打开相应VI ,ActiveX Event Callback for IE.vi 将IE 内嵌入LabVIEW 环境,使得整个工程在一个LabVIEW 应用程序中完成。其基本的程序如图7所示。41212 基于DataSocket 服务的客户端A PI 程序开发
基于DataSocket 服务的客户端A PI 程序由动态打开DataSocket Server 子VI 、动态打开调用子VI 及DataSocket 数据接收处理显示子V I 构成。其基本的程序框图如图8所示。
端子板外部接线5 结束语
对于客户端而言,在执行上述软件时,必须装有Lab 2V IEW Run Time Engine ,利用瘦客户端方式访问时,也可直接在IE 等浏览器中输入IP 进行访问,此时不需要任何辅助软
件,但被访问Html 文件所对应V I 必须在IP 所确定的服务器中已经运行。在本系统应用中,仿真部分采用了Web Server 技术,实测部分应用了Data Scket 技术。对于上述网络,也可以作适当配置服务于Internet ,实现不同局域网共享。同时,像这种基于现有因特网的网络化测控系统还可推广到更多工业和应用领域。另外,LabV IEW 还提供了许多其它用于开发网络化测控系统的技术和方法以供实际需求来选择。
参考文献:
[1]雷振山.LabVIEW 7Express 实用技术教程[M ].北京:中国铁
道出版社,2004.
[2]李行善,左毅,孙杰.自动测试系统集成技术[M ].北京:电子
工业出版社,2004.
[3]刘君华,贾惠芹等.虚拟仪器图形化编程语言LabV IEW 教程
[M ].西安:西安电子科技大学出版社,2001.
[4]蒋焕文.电子测量[M ].北京:中国计量出版社,2003.
[5]汪一鸣,朱艳琴.计算机通信网络教程[M ].北京:电子工业出
版社,2001.
[6]李旭.数据通信技术教程[M ].北京:机械工业出版社,2001.[7]李国洪,曹白杨,陈刚.电子CAD 实用教程———基于OrCAD912
[M ].北京:机械工业出版社,2003.
(上接第171页)
图7 试验结果依次为:3/3;5/5;12/10
3 实验结果
我们采用的图像库来源于MIT 的人脸库,原始图像大小为20320,利用Haar 分解后,取64个像素作为输入BP 网络的输入。采用1.2比例进行缩放,图像调整采用插值效果以及计算量都适中的双线性插值法。
经过训练验证,采用此种方法对光线、遮挡以及姿态有很好的robust 特性,实验数据如表2所示。
表2 对训练样本的测试结果样本总数正确识别的总数正确识别率头部
2494249299.95%背景
5779
5777
99197%
部分实例图像如图7所示。
4 结论
本文利用建立的肤模型空间,采用Haar 小波分解和BP 神经网络对人脸进行检测。由于采用了肤模型,从而降低了
垃圾热解气化后续处理的复杂度并且提高了处理的速度。但是由于要对原始图像不断进行缩放,因此这种方法的实时性不是很高,另外如果图像中人脸过小,就会造成漏减。为了更好地解决这些问题,需要利用一些先验知识。Integral image [9]的思路是目前所报道的快速检测的方法之一。目前笔者正采用将模糊神经网络应用于人脸检测中的工作。
参考文献:
[1]Cai J ,G oshtasby A.Detecting human faces in color images [J ].
Image and Vision Computing ,1999,18(1):63-75.
[2]Yang G Z ,Huang T S.Human face detection in a complex back 2
ground [J ].Pattern Recognition ,1994,27(1):53-63.[3]Brunelli R ,Poggio T.Face recognition :features versus templates
[J ].IEEE :Trans Pattern Analysis and Machine Intelligence ,1993,15(10):1042-1052.
[4]Rowley H A ,Baluja S ,Kanade T.Neutral network -based face
detection [J ].IEEE Trans Pattern Analysis and Machine Intelli 2gence ,1998,20(1):23-38.
[5]赵广社,张希仁.数据挖掘中的统计方法概述[J ].计算机测量与
控制,2003,11(12):914-917.
[6]王守觉,许健,王宪保,等.基于仿生模式识别的多镜头人脸身
份识别系统研究[J ]电子学报2003, 1.
[7]Lin S F ,Chen J Y ,Chao H X.Estimation of number of people in
crowded scenes using perspective transformation [J ].IEEE Trans 2actions on Systems ,Man and Cybernetics -Part A :Systems and Humans ,2001,31(6):645-653.
[8]Hsu R L ,et al.Face detection in color images [J ].IEEE
Pattern Analysis and Machine Intelligence ,2002,24(5):696-706.[9]Viola P ,Jones M.Rapid object detection using a boosted cascade of
simple features [A ].Proceedings of t he 2001IEEE Computer Soci 2ety Conference on Computer Vision and Pattern Recognition ,2001[C].2001,2001:511-518.