杜丽娟;路晓亚
【摘 要】在视频监控中对目标进行定位追踪时,容易出现遮挡情况.当前定位追踪方法需预先检测出遮挡状况,再对目标位置进行校正,计算量大,且追踪结果不可靠.为此,提出一种新的视频监控中多视角目标智能定位追踪方法,针对每个摄像头采集到的图像,对其进行二值化处理,通过稀疏表示方法对目标进行定位.构建了视频监控中多视角目标跟踪的概率框架,针对每个智能摄像机,建立视频监控中多视角目标追踪模型.通过不同视角中的视频数据求出本地似然函数.为了避免维度灾难问题,对联合后验概率进行分解获取边缘概率乘积的形式,通过边缘概率求出被追踪目标在摄像机视角下的位置.依据消息传递机制实现信息融合,达到目标追踪的目的.实验结果表明,所提方法有很高的定位和追踪精度.%Fixing the target tracking in video surveillance,prone to condition,current location tracking method to detect the shade conditions in advance,and correction of target location,large amount of calculation,and tracking the result is not reliable.For this,a new kind of video monitoring target smart positioning tracking method was put forward,multiple points of view for each image obtaine d by camera,binarization processing,through sparse representation method to locate the target.Build the probability of the perspectives of target tracking in video monitoring framework,for each smart camera,perspectives of target tracking in video monitoring model is established,through the different angle of view and the local likelihood function of video data.In order to avoid the problem of dimension disaster,joint posterior probability decomposition to obtain edge probability of product form,through the edge probability and track targets in the position of the camera perspective.Based on message passing mechanism to realize information integration and achieve the goal of target tracking.The experimental results show that the proposed method has a high positioning and tracking accuracy.
【期刊名称】《科学技术与工程》
【年(卷),期】2017(017)016
【总页数】5页(P270-274)
【关键词】视频监控;多视角;目标;定位;追踪
【作 者】杜丽娟;路晓亚
盲点监测系统【作者单位】商丘工学院 信息与电子工程学院,商丘 476000;商丘工学院 信息与电子工程学院,商丘 476000
【正文语种】中 文
【中图分类】TP391.41
目前,视频监控技术的逐渐发展,被广泛应用于交通管理、居民区安防、商铺与银行监控、机场监控等安防领域,人们对视频监控技术的要求越来越高[1—3]。当前大部分视频监控系统在实际应用中受到外界环境的影响,使得监管人员压力较大,需一直观看监控录像[4—6]。因此,视频监控的智能化发展已经成为必然趋势[7]。研究视频监控中多视角目标智能定位追踪方法具有重要意义,能够大大降低人工工作量,提高定位追踪性能[8—10]。
文献[11]提出一种基于模型匹配的目标定位追踪方法,依据先验知识对跟踪目标模型进行构建,针对实际应用对其进行实时更新,通过该模型对需要定位跟踪的目标进行描述,将采
集的图像数据与该模型进行匹配,从而获取跟踪目标的位置。该方法原理简单易实现,但计算量大,实时性差;文献[12]提出一种基于多特征的目标定位追踪方法,针对采集的视频图像,首先对视频中的目标进行定位,用矩形框对其进行描述,然后针对各个目标对象进行基于特征的建模,求出不同目标的关联度,在帧间把关联度较高的对象的运动位置相连,即可获取目标最终轨迹。该方法追踪效率高,但容易受到遮挡影响,导致追踪精度低;文献[13]提出一种基于主动轮廓模型的目标定位追踪方法,首先到最小主动轮廓,使其和目标轮廓的相似度达到最小,从而达到目标定位追踪的目的。该方法不会受到目标外形变化的影响,但计算复杂度高,同时针对移动速度快的目标,追踪效果不佳。
针对上述方法的弊端,提出一种新的视频监控中多视角目标智能定位追踪方法,通过稀疏表示方法对目标进行定位。构建了视频监控中多视角目标跟踪的概率框架,针对每个智能摄像机,通过不同视角中的视频数据求出本地似然函数,依据消息传递机制实现信息融合,达到目标追踪的目的。实验结果表明,所提方法有很高的定位和追踪精度。
1.1 视频监控中多视角目标定位方法
在进行视频监控中多视角目标智能追踪前,首先需对其进行定位处理[14,15]。
针对每个摄像头采集到的图像,对其进行二值化处理,处理后的图像用C}进行描述。视频监控中多视角目标定位的目的就是通过采集到的信息完成对目标位置x的求解。本节通过稀疏表示方法对目标进行定位。
稀疏字典D为建立摄像头采集图像与目标位置x之间关系的关键,假设目标在若干个子区域中,将和上述子区域相应的稀疏字典分量进行线性叠加,以获取多个目标在各视角中相应的前景信息。用Dx描述全部目标在各视角中对应的前景区域。由于Dx表示的是线性叠加得到的结果,为了使该结果仍具有二值性特点,本节引入量化操作Q:RN→{0,1}N,其公式描述如下:
在符合目标总数条件下,可通过获取的最小值完成目标定位,即:
s.t.‖x‖0<η
式(2)中,用于描述通过摄像头采集到图像的二值图;用于描述理论上通过摄像头采集到的二值图;‖x‖0代表计算x的0阶范数,其中,x仅可取0或1,0阶范数就是目标个数。约束条件代表目标数量低于η。
1.2 视频监控中多视角目标智能追踪方法
1.2.1 目标智能追踪流程
构建了视频监控中多视角目标跟踪的概率框架,针对每个智能摄像机,首先通过各视角中的视频数据求出本地似然函数[16,17],然后依据消息传递机制实现信息融合,达到目标智能追踪的目的。
首先对追踪流程进行概述,其中的变量在之后的章节进行介绍。视频监控中多视角目标智能追踪的详细过程如下:
(1)假设在t时刻,各视角依据采集的信息求出的本地似然函数用进行描述,将边缘概率qt,i初始化成本地似然函数。
(2)对信息进行融合处理,步骤如下:
发动机调速器
① 消息传递:每个视角把离散随机向量lt,i取值和边缘概率qt,i传输至其他视角;
② 每个视角依据接收到的源自其他视角的信息与约束条件求出势函数;
③ 将本地似然函数、势函数与其他视角的边缘概率qt,i进行融合。反复进行步骤①~步骤③,直到所有视角的边缘概率收敛;
④ 根据式(10)求出lt,i的最大似然估计值,即最终的目标跟踪结果。
1.2.2 视频监控中多视角目标追踪建模过氧化氢实验室制氧气装置
图1描述的是多视角示意图。
如图1所示,假设在多视角视频监控中,被跟踪的目标附近共有N台摄像机(C1,C2,…,CN)可对其进行监控。将t时刻各摄像机Ci(i=1,2,…)采集的图像信息数据用dt,i进行描述,将被追踪目标在t时刻的准确位置用lt,i进行描述,令:
lt,i=(ut,i,vt,i)
式(3)中,ut,i、vt,i分别用于描述横纵坐标。
下面依据t时刻不同的数据信息集合Dt=(dt,1,dt,2,…,dt,n)对被追踪目标在不同视角的位置集合Lt=(lt,1,lt,2,…,lt,n)进行计算。依据最大后验概率准则对上述问题进行建模,公式如下:
1.2.3 联合后验概率的近似分解
如果视频监控中视角很多,也就是N值较大,则随机向量Li的维度空间将很大。这时直接对式(4)进行估计会造成维度灾难问题,因此需对联合后验概率进行分解获取边缘概率乘积的形式,通过边缘概率即可求出被追踪目标在摄像机视角下的位置[18—20]。
通过变分近似算法将式(4)近似分解成式(5)描述的形式:
式(5)中,qt,i(lt,i)用于描述己知Dt条件下lt,i的边缘概率,可简写成qt,i。根据KL散度最小原则获取qt,i的最优化计算公式:
式(6)中,zt,i用于描述归一化常数;Lt/lt,i用于描述联合状态空间Lt中不含有lt,i的部分。通过贝叶斯公式对联合概率P(Lt,Dt)进行分解,公式描述如下:
式(7)中,)用于描述似然函数;P(Lt)用于描述先验概率。依据式(7)中不同随机向量之间的条件独立关系继续对其进行分解:
式(8)中,C用于描述N台摄像机;E={(i,j)|i,j∈C∩i≠j}用于描述有重叠视域的摄像机集合;P(d
t,i|lt,i)用于描述视角Ci的本地似然函数;φ(lt,i|lt,j)用于描述随机向量lt,i与lt,j之间的势函数。现在将式(8)代入式(6)中,有:
提金工艺通过变分近似法完成迭代计算。令i=k,则j=k+1,迭代后即可获取被追踪目标在视角Ci中的位置估计值,也就是目标追踪结果:
2.1 测试环境
为了验证本文提出的视频监控中多视角目标智能定位追踪方法的有效性,需要进行相关的实验分析。实验将模型匹配方法和主动轮廓模型方法作为对比进行测试。
实验将某学校操场作为实验场地,在场地中安装4个摄像头,令4个摄像头同步实时拍摄一组视频。实验场地中的行人共89人,图2和图3所示的是其中一个摄像头相隔10 s采集的图像信息,本节对图2和图3中红框标识的目标进行定位实验,对蓝框标识的目标进行追踪实验,令目标按照既定轨迹移动,其中一个目标有部分遮挡干扰。
2.2 视频监控中多视角目标定位测试
针对图2和图3中红框标识的目标,针对不同视角,分别采用本文方法、模型匹配方法和主动轮廓模型方法对其进行定位,三种方法对目标位置1和位置2的定位结果如表1、表2所示。
分析表1和表2可以看出,针对不同视角下的目标,与模型匹配方法和主动轮廓模型方法相比,通过本文方法得到的定位坐标和实际坐标更为接近。为了更加直观地验证本文方法的定位精度,在上述实验的基础上,对本文方法、模型匹配方法和主动轮廓模型方法的定位误差进行比较。
定位误差计算公式如下:
式(11)中,(xt,yt)用于描述目标真实位置坐标;)用于描述通过不同方法得到的目标位置坐标。
在上述实验的基础上,通过式(11)对本文方法、模型匹配方法和主动轮廓模型方法的定位误差进行计算,比较结果用表3和表4进行描述。
分析表3和表4可以看出,不管是针对位置1还是位置2,本文方法的最高定位误差为0.11,
低于模型匹配方法的最低定位误差0.13和主动轮廓模型方法的最低定位误差0.17,说明本文方法的定位精度高于模型匹配方法和主动轮廓方法,定位性能优。
2.3 视频监控中多视角目标智能追踪性能测试
分别采用本文方法、模型匹配方法和主动轮廓模型方法对图2和图3中蓝框标识的目标进行追踪,将三种方法的追踪轨迹和目标实际轨迹进行比较,得到的结果用图4进行描述。
折叠炕桌