一种基于合成视频的交通事故检测方法

阅读: 评论:0



1.本发明涉及视频分析技术领域,尤其是一种交通监控视频中基于合成视频的交通事故检测方法。


背景技术:



2.交通监控视频中的事故检测对于智能交通、智慧城市建设等领域有非常重要的作用和应用前景。当前的事故检测研究中,主要有基于规则的方法和基于深度神经网络的方法。前者通过跟踪车辆行驶轨迹,并利用人工构造的一些规则,判断事故的发生。由于交通场景的复杂性,很难构造一套完备的规则可以覆盖所有可能的情况,这类方法的适用性和鲁棒性往往受到局限。
3.近年来,随着深度学习在视频分析领域的广泛应用,基于深度神经网络的方法在交通事故检测中得到深入研究。由于深度神经网络参数众多,其学习过程需要大量的训练数据。但是,由于隐私保护的要求,交通监控视频往往很难通过公开渠道获得,这给交通事故检测方法的训练带来挑战。为解决训练数据缺失的问题,一种可行的方法是通过模拟器生成交通视频数据。为保证模拟数据的可用性,相关模拟器需要能模拟真实的复杂交通场景,包括不同天气状况、背景、路况、正常交通和各种事故等。
4.此外,当前的事故检测方法中,帧预测和重构误差的异常检测受到广泛关注,其基本思路是根据当前若干帧的内容预测下一时间段的内容,假设正常交通视频相比于异常交通事故更容易被预测到,通过比较预测帧与真实视频内容,如果两者之间误差较大,则认为发生异常事件或事故。实际使用过程中,除了交通事故引发异常意外,经常会有非事故异常事件,例如交通堵塞造成的车辆行驶行为异常、车辆快速驶入监控区域等,容易被检测为事故,从而导致事故检测准确率降低。


技术实现要素:



5.本发明的目的是针对现有技术的不足而提供的一种基于合成视频的交通事故检测方法,采用carla模拟器,通过调用其提供的api,进行相关场景和事件的设置,模拟各种不同交通场景,利用合成数据集,设计一种两阶段的事故检测方法,首先采用基于帧预测的方法选取候选事故片段,然后进一步训练一个分类器,区分真实事故与其它交通异常,从而有效提高事故检测准确率,设计的随机触发交通事故,更能接近真实事故场景,该方法提出一种数据集可用性评价和质量控制方法,确保基于合成数据集训练的事故检测网络能更好适用于真实交通视频,方法简便,通过生成高质量数据集,满足深度神经网络对数据的要求,在此基础上,利用生成的数据集,提出一种弱监督的学习方法,用于区分真实事故与其它交通异常,使用效果好,不易被误判为,大大提高了交通事故检测的准确率,具有一定的推广应用前景和价值。
6.实现本发明目的的具体技术方案是:一种基于合成视频的交通事故检测方法,该方法具体包括以下步骤
7.步骤s1:启动carla模拟器。在模拟器中选择路面类型,包括交叉路况、直路和t型路口;在路面上方安装rgb监控相机,通过调用模拟器api设置相机的高度、角度、分辨率和帧率。利用模拟器api设置天气状况包括日照角度、云、风、雾等天气类型。
8.步骤s2:在模拟器地图不同位置放置若干辆汽车,车辆的起始位置和目的地由模拟器随机确定。在部分轮次,使所有车辆处于安全行驶模式,用于生成正常交通视频。在剩余轮次,随机选择部分车辆,关闭其安全行驶模式,从而可以随机触发交通事故,用于生成事故视频。运行模拟器1分钟时间,使用相机记录交通状况,得到一个视频片段。
9.步骤s3:重复步骤s1~s2的模拟过程1000次,修改其中背景、天气、车辆设置,生成视频集。
10.步骤s4:评价视频集的可用性,具体步骤如下:
11.步骤s4.1:收集一个真实交通视频数据集,将其按7:3的比例随机划分为训练集和测试集;利用现有的基于帧预测的视频异常检测网络,在数据集上进行训练得到模型其中为模型参数;训练一个生成器,根据视频中前面t帧,生成预测帧通过对比真实帧1与预测帧计算下述(a)~(d)式定义的光流损失ol、强度损失il、梯度损失gl和完整重构损失。
12.1)光流损失ol:
[0013][0014]
其中,σ(.)为两帧之间的光流。
[0015]
2)强度损失il:
[0016][0017]
3)梯度损失gl:
[0018][0019]
其中,为帧中坐标为(i,j)的像素点。
[0020]
4)完整损失函数
[0021][0022]
其中,γo=0.5,γi=γg=0.25。使用上述损失函数和训练集dr训练网络,训练完成后,锁定生成器参数。
[0023]
步骤s4.2:对测试集中的每个视频,给定每一个连续的n帧{i
t
,i
t+1
,

,i
t+t-1
},使用上述生成器得到下一帧的预测帧计算其与真实帧i
t+t
之间的重构误差,这里采用下述(e)式定义的信噪比计算重构误差:
[0024][0025]
当psnr大于阈值0.5时,检测当前时刻t+t发生异常事故。
[0026]
步骤s4.3:事故检测准确率由下述(f)式定义为:
[0027][0028]
其中,tp,tn,fp和fn分别表示事故检测结果中的真阳性、真阴性、假阳性和假阴性数量。
[0029]
步骤s4.4:使用步骤s4.1中训练得到的模型在测试集de上进行事故检测,计算检测准确率,记为
[0030]
步骤s4.5:在合成数据集ds和真实训练集dr中按比例随机采样,组成混合数据集,使用步骤s4.1中训练得到的模型在测试集de上进行事故检测,得到准确率,记为h(f
σ
(αdr+βds),de)。其中,α,β∈[0,1]表示混合数据集时对dr和ds进行采样的比例,并由下述(g)式计算性能偏离e(α,β):
[0031][0032]
步骤s4.6:取不同的α,β值,重复s4.5步骤50次,求得由下述(h)式计算的最优值α
*

*

[0033]
α
*

*
=arg min
α,β
e(α,β)(h)。
[0034]
步骤s4.7:由下述(i)式计算模拟逼近指标sai:
[0035][0036]
其中,分别表示两个数据集中的视频数量,sai值越大,表示合成数据集对真实数据集的替代性越强。
[0037]
步骤s5:重复步骤s1~s4的数据集生成和评价20次,选择其中sai值最大的合成数据集ds作为最终合成结果,并根据每个视频生成过程中是否关闭部分车辆安全行驶模式,标注该视频为正常交通视频或事故视频。
[0038]
步骤s6:设计一个两阶段的事故检测器,首先使用步骤s4.1中的基于帧预测的视频异常检测网络进行模型训练,检测视频异常,得到事故候选片段;然后,设计一个分类器,进一步区分真实事故与伪事故异常事件,得到最终检测结果,具体步骤如下:
[0039]
步骤s6.1:采集一个真实交通数据集da,由人工标注每个真实视频中是否含有交通事故,将da与步骤s5生成的合成数据集ds按照步骤s4.6中求得的最佳比例α
*

*
进行混合,得到一个训练集d
t

[0040]
步骤s6.2:对训练集d
t
中的视频,采用步骤s4.1中相同的基于帧预测的视频异常检测网络,计算每个视频中每一帧的异常得分,即信噪比psnr,得到信噪比曲线。
[0041]
步骤s6.3:对步骤s6.2所得的信噪比曲线,使用savitzky-golay滤波拟合法去除噪声,选择曲线上得分最高的k个波峰作为事故候选片段。
[0042]
步骤s6.4:对步骤s6.3得到的每个候选视频片段,使用i3d网络提取特征,然后将所得特征输入到一个三层全连接网络。
[0043]
步骤s6.5:训练一个分类器,对候选片段进行分类,区分真实事故与其它异常事件。由于视频只包含视频级别的标注,不包含具体的事故时间标注,这里基于多实例学习的
弱监督学习方法。首先将每个视频平均分割成若干个互不重叠的片段,组成一个片段包如果该视频含有事故,则标注为正片段包;否则,标注其为负片段包。
[0044]
步骤s6.6:使用数据集d
t
训练一个支持向量机,其目标为其目标由下述(j)式表示为:
[0045][0046]
其中,z为片段包的数量;xj为输入的视频片段;为片段xj的特征向量;为包含片段ij的包;为包的标注;c为待训练的模型参数。
[0047]
步骤s6.7:在事故检测中,为到事故可能性最大的片段,定义hinge loss排序损失函数由下述(k)式表示为:
[0048][0049]
其中,和分别是正片段包和负片段包中的片段,(.)是事故评分函数,λ1表示正样本的稀疏度。
[0050]
步骤s6.8:最后,完整目标函数由下述(l)式定义为:
[0051][0052]
其中,λ2为正则化系数。
[0053]
步骤s6.9:使用数据集
t
学习模型中参数,训练若干轮次后,固定模型中参数。
[0054]
步骤s7:采集一个真实交通数据集或使用公开数据集,对s6中训练的分类器进行测试;采用步骤s6.2~6.4相同的方法对视频进行处理,得到候选事故片段,然后采用步骤s6.5训练的分类器进行进一步分类,确认事故片段作为最终检测结果;采用步骤s4.3~s4.4中的准确率评价检测器性能。
[0055]
本发明提出一种交通视频生成及评价方法,通过生成高质量数据集,可满足深度神经网络对数据的要求。在此基础上,利用生成的数据集,提出一种弱监督的学习方法,用于区分真实事故与其它交通异常,提高事故检测准确率。
[0056]
本发明与现有技术相比具以下有益的技术进步和显著技术效果:
[0057]
1)本发明在合成视频过程中,通过关闭部分车辆安全行驶模式,可以触发随机交通视频,更加真实模拟实际交通中的各种复杂和不可预见的情况;
[0058]
2)通过使用合成数据集质量评价和控制方法,提高其在模型训练中的可用性;
[0059]
3)本发明采用两阶段的事故检测方法,在传统异常检测的基础上,进一步区分真实事故与其它异常交通事件,提高事故检测的准确率。
附图说明
[0060]
图1为实施例1合成数据集中部分视频快照;
[0061]
图2为实施例1采用基于帧预测的异常检测方法示意图;
[0062]
图3为实施例1使用的生成器网络结构图;
[0063]
图4为实施例1中非事故异常交通事件的视频快照;
[0064]
图5为实施例1中真实交通事故的视频快照;
[0065]
图6为实施例1中两阶段事故检测方法的示意图;
[0066]
图7为实施例1中异常检测方法得到的psnr曲线;
[0067]
图8为实施例1中基于psnr曲线选取候选事故示例。
具体实施方式
[0068]
本发明使用carla模拟器,通过调用其提供的api,进行相关场景和事件的设置,模拟各种不同交通场景。在此基础上,设计一种随机的方法触发交通事故,相比于人工定义的事件,更能接近真实事故场景。此外,提出一种数据集可用性评价和质量控制方法,确保基于合成数据集训练的事故检测网络能更好适用于真实交通视频,下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
[0069]
实施例1
[0070]
本实施例使用carla0.9.12版本,50个不同场景,包括交叉路况、直路和t型路口使用一种基于合成视频的交通事故检测方法,用于检测交通监控视频中的事故,具体实施包括下述步骤:
[0071]
步骤s1:模拟器的环境设置
[0072]
启动获得使用授权的carla模拟器,在模拟器中选择路面类型,在路面上方安装rgb监控相机,利用模拟器api设置相机的高度、角度、分辨率和帧率。本实施例中,相机高度设为7米,角度为75
°
,分辨率为640x480,帧率为12帧/秒。
[0073]
参阅图1,在模拟器中设置天气状况,利用模拟器api设定日照角度、云、风、雾等天气类型,即图1给出的部分场景和天气设置效果。
[0074]
步骤s2:视频片段的生成在模拟器地图的不同位置放置n辆汽车,车辆的起始位置和目的地由模拟器随机确定。本实施例中,n设为80。随机选择n辆车,关闭其安全行驶模式,保持其余车辆处于安全行驶模式。本实施例中,在不同轮次,分别取n=0和n=16。n=0时,所有车辆安全行驶,用于生成正常交通视频。n=16时,部分车辆处于无序行驶状态,可以随机触发交通事故,用于生成事故视频。运行模拟器1分钟时间,使用相机记录交通状况,得到一个视频片段。
[0075]
参阅图1,合成数据集中部分视频的快照,展示了该时间段的交通状况。
[0076]
步骤s3:重复步骤s1~s2的模拟过程1000次,修改其中背景、天气、车辆设置,生成包含1000个视频片段的视频集,其中正常视频和事故视频数量均为500个。
[0077]
步骤s4:评价视频集的可用性
[0078]
步骤s4.1:收集一个真实交通视频数据集,本实施例中选用公开数据集tad,包含250个正常视频和104个事故视频。将其按7:3的比例随机划分为训练集和测试集
[0079]
。采用基于帧预测的模型,在数据集上进行训练得到一个视频异常检测模型
其中为模型参数。
[0080]
参阅图2~图3,训练过程中,根据视频中前面t帧,使用图3所示的u-net网络作为生成器,生成预测帧
[0081]
通过对比真实帧1与预测帧计算下述(a)~(d)式定义的光流损失ol、强度损失il、梯度损失gl和完整重构损失:
[0082]
1)光流损失ol:
[0083][0084]
其中,σ(.)为两帧之间的光流。
[0085]
2)强度损失il:
[0086][0087]
3)梯度损失gl:
[0088][0089]
其中,为帧中坐标为(i,j)的像素点。
[0090]
4)完整损失函数
[0091][0092]
其中,γo=0.5,γi=γg=0.25。使用上述损失函数和训练集训练网络,训练完成后,锁定生成器参数。
[0093]
对测试集中的每个视频,给定每一个连续的n帧使用上述生成器得到下一帧的预测帧计算其与真实帧0之间的重构误差,这里采用下述(e)式定义的信噪比计算重构误差:
[0094][0095]
当psnr大于阈值0.5时,检测当前时刻t+t发生异常事故。
[0096]
步骤s4.2:事故检测准确率由下述(f)式定义为:
[0097][0098]
其中,tp,tn,fp和fn分别表示事故检测结果中的真阳性、真阴性、假阳性和假阴性数量。使用步骤s4.1中训练的检测器在测试集de上进行事故检测,计算检测准确率,记为
[0099]
步骤s4.3:在合成数据集ds和真实训练集dr中按比例随机采样,组成混合数据集,并用于步骤s4.1中的模型训练,然后在测试集de上进行事故检测,得到准确率记为h(f
σ
(αdr+βds),de)。
[0100]
其中,α,β∈[0,1]表示混合数据集时对dr和ds进行采样的比例,并由下述(g)式计算性能偏离e(α,β):
[0101][0102]
步骤s4.4:取不同的α,β值,重复s4.3步骤50次,并由下述(h)式计算的最优值α
*

*

[0103]
α
*

*
=arg min
α,β
e(α,β)(h)。
[0104]
本实施例中,α、β分别以0.02的间隔取[0,1]区间内可能的值进行实验。
[0105]
步骤s4.5:由下述(i)式计算模拟逼近指标sai:
[0106][0107]
其中,|ds|、|dr|分别表示两个数据集中的视频数量,sai值越大,表示合成数据集对真实数据集的替代性越强。
[0108]
步骤s5:重复s1~s4步骤若干次,选择其中sai值最大的合成数据集ds作为最终合成结果。本实施例中重复20次。
[0109]
参阅图4~图5,根据每个视频生成过程中关闭安全行驶模式的车辆数量n=0或n=16,标注该视频为正常交通视频或事故视频。
[0110]
步骤s6:设计一个两阶段的事故检测器。
[0111]
参阅图6,首先使用步骤s4.1中的网络,检测视频异常,得到事故候选片段;然后,设计一个分类器,进一步区分真实事故与伪事故异常事件,得到最终检测结果。具体包括下述步骤:
[0112]
步骤s6.1:采集一个真实交通数据集da,由人工标注每个真实视频中是否含有交通事故。将da与步骤s5生成的合成数据集ds按照步骤s4.3中求得的最佳比例α
*

*
进行混合,得到一个训练集d
t

[0113]
步骤s6.2:采用步骤s4.1中相同的网络,计算每个视频中每一帧的异常得分,即信噪比psnr,得到信噪比曲线。
[0114]
步骤s6.3:对步骤s6.2所得的信噪比曲线,使用savitzky-golay滤波拟合法去除噪声。
[0115]
参阅图7,去除噪声后得到平滑曲线。
[0116]
参阅图8,选择曲线上得分最高的k个波峰作为事故候选片段。本实施例中,取k=5。
[0117]
步骤s6.4:对步骤s6.3得到的每个候选视频片段,使用i3d网络提取特征,其中i3d网络的参数通过在kinetics-400数据集上进行预训练得到,输出特征维度设为2048
×
10。然后将所得特征输入到一个三层全连接网络,其结构如图6所示。
[0118]
步骤s6.5:训练一个分类器,对候选片段进行分类,区分真实事故与其他异常事件。由于视频只包含视频级别的标注,不包含具体的事故时间标注,这里使用多实例学习方法。首先将每个视频平均分割成若干个互不重叠的片段,组成一个片段包如果该视频含有事故,则标注为正片段包;否则,标注其为负片段包。
[0119]
使用数据集d
t
训练一个支持向量机,其目标为其目标由下述(j)式表示为:
[0120][0121]
其中,z是样本包的数量,xj是输入的视频片段,是片段xj的特征向量,是包含片段xj的包,是包的标注,w是待训练的模型参数。
[0122]
在事故检测中,为到事故可能性最大的片段,定义hinge loss排序损失函数由下述(k)式表示为:
[0123][0124]
其中,和分别是正片段包和负片段包中的片段,(.)是事故评分函数,λ1表示正样本的稀疏度。本实施例中,设置λ1=8
×
10-5

[0125]
最后,完整目标函数由下述(l)式表示为:
[0126][0127]
其中,λ2为正则化系数,本实施例中设为0.001。使用数据集d
t
学习模型中参数,本实施例中共训练2000轮次,固定模型中参数。
[0128]
步骤s7:采集一个真实交通数据集或使用公开数据集,对s6中训练的分类器进行测试。本实施例中采用utd数据集,其中包含83个交通视频,每个视频时长15分钟左右。采用步骤s6.2~6.4相同的方法对视频进行处理,得到候选事故片段。然后采用步骤s6.5训练的分类器进行进一步分类,确认事故片段作为最终检测结果。采用步骤s4.2中的准确率评价检测器性能。
[0129]
本发明基于carla模拟真实交通场景,carla是一个开源的交通模拟器,开发目的为支持自动驾驶的开发、培训和验证,提供开放的数字资产包括城市布局、建筑、车辆,用户可以自由使用。carla公开了一系列api,允许用户控制交通生成、行人行为、天气、传感器等。
[0130]
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

技术特征:


1.一种基于合成视频的交通事故检测方法,其特征在于,该交通事故检测方法具体包括下述步骤:步骤s1:模拟器的环境设置在carla模拟器中设置场景,调用模拟器api设置安装在道路上rgb监控相机的高度、角度、分辨率和帧率,所述场景包括:路面类型和天气状况;步骤s2:视频片段的生成在carla模拟器地图不同位置放置若干辆汽车,并由carla模拟器随机确定车辆的起始位置和目的地,控制carla模拟器中车辆行驶,运行500~2000个轮次,其中50%的轮次中将所有车辆设置为安全行驶模式,用于生成正常交通视频;在剩余50%的轮次中随机选择20%的车辆,关闭其安全行驶模式,随机触发交通事故,用于生成事故视频;运行carla模拟器,开启rgb监控相机记录交通状况,得到视频片段;步骤s3:视频数据集的生成采用背景、天气和车辆的不同设置,重复步骤s1~s2的模拟过程1000次,合成视频数据集;步骤s4:视频集可用性的评价通过计算合成的视频数据集与真实数据集在网络训练中的可替换性,评价合成的视频数据集用于真实交通事故检测网络学习的效果;步骤s5:选取可用性最好的数据集重复步骤s1~s4的数据集生成和评价20次,选择可用性最好的数据集作为最终合成结果,并根据每个视频生成过程中是否关闭部分车辆安全行驶模式,自动标注该视频为正常交通视频或事故视频;步骤s6:检测器的设计设计并训练一个两阶段的交通事故检测器,使用基于帧预测的视频异常检测网络进行模型训练,检测视频异常,得到事故候选片段,然后设计一个分类器,区分真实事故与伪事故异常事件,得到最终检测结果;步骤s7:检测器性能的测试使用真实交通数据集,对步骤s6中训练的检测器进行交通事故的检测。2.根据权利要求1所述的基于合成视频的交通事故检测方法,其特征在于,所述步骤s2中随机事故的视频合成是将部分车辆关闭安全行驶模式,使其随机触发事故,模拟各种复杂真实事故场景。3.根据权利要求1所述的基于合成视频的交通事故检测方法,其特征在于,所述步骤s4的视频集可用性的评价具体包括:步骤s4.1:收集一个真实交通视频数据集,将其按7:3的比例随机划分为训练集d
r
和测试集d
e
,利用基于帧预测的视频异常检测网络,在数据集d
r
上进行训练得到模型其中为模型参数;训练过程中,根据视频中前面t帧i1,i2,

,i
t
,生成预测帧通过对比真实帧i
t+1
与预测帧计算光流损失ol、强度损失il、梯度损失gl和完整重构损失,所述光流损失ol由下述(a)式计算:
其中,σ(.)为两帧之间的光流;所述强度损失il由下述(b)式计算:所述梯度损失gl由下述(c)式计算:其中,为帧i
t+1
中坐标为(i,j)的像素点;所述完整重构损失由下述(d)式定义为:其中,γ
o
=0.5,γ
i
=γ
g
=0.25;步骤s4.2:使用上述损失函数和训练集d
r
训练网络,训练完成后,锁定生成器参数;步骤s4.3:对测试集中的每个视频,给定每一个连续的n帧{i
t
,i
t+1
,

,i
t+t-1
},使用上述生成器得到下一帧的预测帧且由下述(e)式定义的信噪比计算下一帧的预测帧与真实帧i
t+t
之间的重构误差,所述重构误差由下述(e)式定义的信噪比psnr计算:当psnr大于阈值0.5时,检测当前时刻t+t发生异常事;步骤s4.4:使用步骤s4.1中训练得到的模型在测试集d
e
上进行事故检测,且由下述(f)式计算,得到的检测准确率,记为且由下述(f)式计算,得到的检测准确率,记为其中,tp,tn,f p和f n分别表示事故检测结果中的真阳性、真阴性、假阳性和假阴性数量;步骤s4.5:在合成数据集d
s
和真实训练集d
r
中按比例随机采样,组成混合数据集,使用步骤s4.1中训练得到的模型在测试集d
e
上进行事故检测,且由上述(f)式计算,得到的检测准确率记为h(f
σ
(αd
r
+βd
s
),d
e
),并由下述(g)式计算性能偏离e(α,β):其中,α,β∈[0,1]表示混合数据集时对d
r
和d
s
进行采样的比例;步骤s4.6:取不同的α,β值,重复s4.5步骤50次,并由下述(h)式求得最优值α
*

*
:α
*

*
=arg min
α,β
e(α,β)(h);步骤s4.8:采用下述(i)式计算模拟逼近指标sai:
其中,|d
s
|、|d
r
|分别表示两个数据集中的视频数量,sai值越大,表示合成数据集对真实数据集的替代性越强。4.根据权利要求1所述的基于合成视频的交通事故检测方法,其特征在于,所述步骤s6的检测器设计具体包括:步骤s6.1:采集一个真实交通数据集d
a
,由人工标注每个真实视频中是否含有交通事故,将d
a
与步骤s5生成的合成数据集d
s
按步骤s4.7中求得的最优值α
*

*
进行混合,得到一个训练集d
t
;步骤s6.2:采用步骤s4.2中的相同网络,计算每个视频中每一帧的异常得分,即信噪比psnr,得到信噪比曲线;步骤s6.3:使用savitzky-golay滤波拟合法对信噪比曲线去除噪声,选择曲线上得分最高的k个波峰作为事故候选视频片段;步骤s6.4:使用i3d网络对每个事故候选视频片段进行特征提取,将其输入一个三层全连接网络;步骤s6.5:训练一个分类器,对事故候选视频片段进行分类,以区分真实事故与其他异常事件,所述分类使用多实例学习方法,具体包括:1)将每个视频平均分割成若干个互不重叠的片段,组成一个片段包如果该视频含有事故,则标注为正片段包;否则,标注为负片段包;2)使用数据集d
t
训练一个支持向量机,其目标由下述(j)式表示为:其中,z为片段包的数量;m i
为输入的视频片段;为片段m i
的特征向量;为包含片段m i
的包;为包的标注;g为待训练的模型参数;3)hinge loss排序损失函数由下述(k)式定义为:其中,和分别为正片段包和负片段包中的片段;f(.)为事故评分函数;λ1为正样本的稀疏度;4)完整目标函数由下述(l)式定义为:其中,λ2为正则化系数;5)使用数据集d
t
学习模型中参数,训练2000轮次后固定模型中参数。5.根据权利要求1所述的基于合成视频的交通事故检测方法,其特征在于,所述步骤s7
的检测器性能的测试具体包括:步骤s7.1:采集一个真实交通数据集或使用公开数据集,对s6中训练的分类器进行测试;步骤s7.2:采用步骤s6.2~s6.4相同的方法对视频进行处理,得到候选事故片段;步骤s7.3:采用步骤s6.5训练的分类器进行进一步分类,确认事故片段作为最终检测结果;步骤s7.4:采用步骤s4.4~s4.5中的准确率评价检测器性能。

技术总结


本发明公开了一种基于合成视频的交通事故检测方法,其特点是该方法包括:设置交通模拟器环境;控制模拟器中车辆行驶,生成视频;采用不同设置,重复模拟过程,生成视频数据集;评价视频集可用性;重复数据集生成和评价,选取可用性最好的数据集;设计并训练一个两阶段的事故检测器;测试检测器性能等步骤。本发明与现有技术相比具有方法简便、检测准确率高的优点,不但实现对复杂真实事故的模拟,而且还实现了对合成数据集的评价方法,提高了其可用性,能更好适用于真实交通视频,使用效果好,不易被误判为,大大提高了交通事故检测的准确率,具有一定的推广应用前景和价值。具有一定的推广应用前景和价值。具有一定的推广应用前景和价值。


技术研发人员:

王峰 罗浩涵 孙仕亮

受保护的技术使用者:

华东师范大学

技术研发日:

2022.12.06

技术公布日:

2023/3/2

本文发布于:2023-03-05 14:12:12,感谢您对本站的认可!

本文链接:https://patent.en369.cn/patent/3/66154.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:步骤   视频   事故   数据
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 369专利查询检索平台 豫ICP备2021025688号-20 网站地图