分割可跨越车道分界线的多视角视频车速提取方法

侯越 ,  郭劲松 ,  林伟 ,  张迪 ,  武月 ,  张鑫

吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (05) : 1692 -1704.

PDF (6122KB)
吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (05) : 1692 -1704. DOI: 10.13229/j.cnki.jdxbgxb.20230818
计算机科学与技术

分割可跨越车道分界线的多视角视频车速提取方法

作者信息 +

Multi-view video speed extraction method that can be segmented across lane demarcation lines

Author information +
文章历史 +
PDF (6268K)

摘要

针对现有视频交通参数提取方法过度依赖人工标注、单一视角无法有效修正现场车辆动态行驶偏差的问题,本文提出一种分割可跨越车道分界线的多视角视频车速提取方法。该方法由标注点自动生成模块、多视角纠偏模块构成:标注点自动生成模块通过构建基于等长车道分界线的参照块,实现自动生成标注点的过程;多视角纠偏模块通过车辆与车道分界线的多种映射方式和基于平均速度概率密度函数的纠偏测速方法,校正车辆在动态行驶时产生的两类偏差。在公开数据集和实测数据集上的实验结果表明,本文所提方法的车速提取精度优于其他测速方法,且具有一定的普适性。

Abstract

Aiming at the problem that the existing video traffic parameter extraction method relies too much on manual labeling and the single perspective cannot effectively correct the dynamic driving deviation of on-site vehicles, a multi-view video traffic parameter extraction method that can split the lane demarcation line is proposed. This method consists of an automatic generation module for labeling points and a module for multi-view correction. The automatic generation of label points module realizes the process of automatically generating label points by constructing a reference block based on the dividing line of equal-length lanes. The multi-view deviation correction module proposes a variety of mapping methods for the boundary between vehicles and lanes and a correction speed measurement method based on the average speed probability density function to correct two types of deviations generated by vehicles when driving dynamically. The experimental results on the public dataset and the measured dataset show that the speed extraction accuracy of the proposed method is better than that of other speed measurement methods, and has certain universality.

Graphical abstract

关键词

计算机应用 / 智能交通 / 车道分界线 / 多视角 / 车速检测 / 计算机视觉

Key words

computer application / intelligent transportation / lane demarcation line / multiple perspectives / vehicle speed detection / computer vision

引用本文

引用格式 ▾
侯越,郭劲松,林伟,张迪,武月,张鑫. 分割可跨越车道分界线的多视角视频车速提取方法[J]. 吉林大学学报(工学版), 2025, 55(05): 1692-1704 DOI:10.13229/j.cnki.jdxbgxb.20230818

登录浏览全文

4963

注册一个新账户 忘记密码

0 引 言

交通流是交通运行态势评估的重要依据,主要通过流量、速度、密度3个宏观参数1描述,这些参数的提取对交通预测建模至关重要,直接影响交管部门对交通拥堵前期预警、实时调度的准确性。随着大规模多源异构传感设备的普及,区别于传统地感线圈类交通检测设备,视频检测器因类型多样、安装便捷,已成为现实路网数据采集的主要手段。视频宏观参数提取中,车速提取相较于流量、密度提取,需同时考虑平均速度和瞬时速度等,检测难度较大,因此一直是交通视频参数提取的研究热点和难点。

现有交通视频车速提取方法主要有传统车速提取法、视频检测提取法及基于深度学习的目标检测提取法2。传统车速提取法利用感应线圈、雷达、激光等工具3-5,通过脉冲信号、电磁波、激光点云等方式,结合位移数据的相互转化对速度参数进行提取。然而,这类方法高度依赖设备安装位置及环境复杂度,速度参数提取因覆盖范围局限而存在较大误差。相较于传统车速提取方法,灰度帧差法6和自适应点跟踪法7的检测范围更广、精度更高,更适用于视频参数提取。但这类方法缺乏对视频数据的自主学习能力,易出现车辆定位追踪偏差,无法同时满足实时性和准确性的要求。基于深度学习的目标检测方法,为实时、准确地提取海量视频中的交通参数提供了更为有效的解决方案。Peruničić等8利用YOLO算法对车辆进行检测跟踪,并结合循环神经网络对速度参数进行估计,实验表明该方法的参数提取精度比传统视频检测法更优。但该方法仅通过连续帧图像的边界框位置和大小进行速度估计,并未考虑像素与现实场景距离的映射关系,参数提取精度提升空间较大。田会娟等9在YOLO框架中引入多入侵线对速度参数进行提取,该方法以车道规划相关规定为标准进行车速检测,较好地解决了现实场景与理论设计的偏差问题,为论文方法的提出提供了依据。然而,该方法在二维图像与三维现实空间位置关系映射方面高度依赖人工标注,后期进行现场纠偏时需重新调整标注,导致车速提取精度、效率不高。余越等10使用YOLOv5s和DeepSORT算法实现车辆的多目标检测跟踪,结合传统摄像机标定法实现速度参数的有效提取,该方法在检测精度和效率上有了明显提升,但由于高度依赖摄像机安装位置,单一视角提取无法解决实际车辆动态行驶偏离基准的问题,致使该方法缺乏现场适用性和普适性。

为解决深度学习视频车速提取中过度依赖人工标注导致二维图像与三维现实空间坐标映射偏差,以及单一视角无法有效修正现场车辆动态行驶偏差的问题,本文参照交通运输部道路规划标准,以可跨越式车道分界线为基准,提出分割可跨越车道分界线的多视角视频车速提取方法。该方法由标注点自动生成模块和多视角纠偏测速模块组成:前者在对车道分界线及间隔分割的基础上,实现二维图像到三维场景坐标系的准确映射;后者通过分析不同视角下车辆与车道分界线位置偏差关系,提出适用于车辆动态行驶常规情况的多视角纠偏策略,从而实现更适用于现实场景、高效准确的视频车速提取。

1 本文方法

本文提出一种结合可跨越车道分界线的多视角视频车速提取方法(Multi-view crossing lane boundary, MV-CLB),具体框架如图1所示。MV-CLB由标注点自动生成模块和多视角纠偏测速模块构成。在输入视频帧图像基础上,标注点自动生成模块以获取的车道分界线像素位置信息为依据,通过自动分割可跨越车道分界线等长距离的方式建立参照依据,实现二维图像向三维空间转换的新标注点生成。多视角纠偏测速模块采用车道分界线垂足映射(LL-TR)、平行映射(LL-PA)、混合映射(LL-MX)3种方式校正多视角场景下车辆与车道分界线的位置偏差,并结合概率密度函数修正车辆未落入标注点的问题,最终实现多视角场景下视频交通速度参数的有效提取。

1.1 标注点自动生成模块

本文所用视频测速方法依据国家标准《道路交通标志和标线 第3部分:道路交通标线》(GB 5768.3-2009)11的相关要求,选择可跨越式车道分界线作为尺度构建基准。该标准指出,设计速度≥60 km/h的道路,可跨越同向车行道分界线线段及间隔长分别为600和900 cm,设计速度<60 km/h的道路,可跨越同向车行道分界线线段及间隔长分别为200和400 cm。本文依据现实路网相关路段车速>60 km/h的实际情况,将标准中的600和900 cm作为三维空间位置点间距离的参照依据。图2为标注点自动生成模块的构建过程,首先通过二维帧图像车道分界线的坐标定位得到与现实场景位置点对应的像素位置关系,然后对像素位置点距离进行多次自动分割,在分割过程中生成测速所需的标注点。

图2中标注点自动生成模块通过建立二维像素到三维场景的位置映射关系,从而得到更为准确的帧图像实际位置标定,具体实现过程如图3所示。图3(b)中,ABD为三维实际场景中车道分界线相关位置点,其中BD为待分割部分,EFH为摄像机拍摄到的ABD实际位置对应观测点。图3(a)为对应的视频道路场景图,用于和图3(b)中的映射图形成现实场景对应。标注点自动生成模块首先需完成二维帧图像车道分界线的坐标定位过程,具体步骤如下。

步骤1:在场景图中标注EFH的像素位置,如图3(a)所示,括号内的标定为该像素点在现实场景中的实际位置点;

步骤2:利用计算机相关位置坐标框架获取EFH像素的横、纵坐标;

步骤3:通过EFH 3个像素位置坐标,利用欧氏距离公式得到EFFH的像素点间距离,即完成二维帧图像车道分界线坐标定位的全过程。

在完成二维帧图像车道分界线坐标定位后,通过像素点间的距离位置关系对车道分界线及间隙进行分割,并利用已建立的等长距离参照自动生成新的标注点。图4图3中可跨越车道分界线分割的具体实现过程,图4(b)中的CG点分别表示三维实际场景车道分界线BD及摄像机观测位置FH的中点。图4ABBCEFGHFH之间的距离关系12为:

AB=2×BC×EF×GHFG×EH-EF×GH

利用式(1)建立的距离关系,通过求解未知关联量的方式,实现新标注点的自动生成,具体步骤如下。

步骤1:以600和900 cm为三维实际场景下可跨越式车道分界线ABBD的标准长度,利用式(1)计算得出摄像机观测位置FGGH的距离关联量,据此确定G点为二维帧图像中像素的中点位置,即新生成标注点,至此完成首次分割过程;

步骤2:以首次分割生成的G点为端点进行第二次分割(即分割FGGH),分割时遵循步骤1中相关计算公式。分割后,生成2个新标注点JL图4(d)和图4(f)分别为FGGH的分割过程。

步骤3:以第二次分割生成的JL为端点,进行第三次分割,方法同前两个步骤,记录第三次分割生成的标注点后,随即完成整个标注点的生成过程。

三次分割过程中,帧图像车道分界线的像素坐标变化情况如图5所示。该图以600 cm(6 m)作为可跨越同向车道分界线的线段标准长度,按此标准对车道分界线进行3次有效划分,具体划分尺度为第一次3 m、第二次1.5 m、第三次0.75 m。在此基础上,针对每次划分情况进行等长距离间隔的确定,图5中不同颜色块代表帧图像车道分界线在每一次分割过程中的像素位置分布,右侧数字代表该分布所占像素值,色块交界处即为自动生成的新标注点,可作为后续车辆动态行驶的定位依据。

基于已生成的标注点,可通过判定车辆是否处于车道分界线上进行交通参数的提取,车辆处于车道分界线上的车速提取依据为:

v=mLt

式中:m为前后两帧通过的参照块数量;L为方块的实际长度。

当车辆与车道分界线存在偏差时,可依据1.2节的纠偏模块校正后再进行车速提取。

1.2 多视角纠偏测速模块

当车辆未落入车道分界线及标注点时,采用多视角纠偏测速模块进行处理:首先校正车辆未处于车道分界线上的情况,再纠正车辆未落入标注点的情况(具体实现见图6)。多视角纠偏测速模块由映射方式纠偏子模块和概率密度函数纠偏子模块组成:前者通过LL-TR、LL-PA、LL-MX映射方式分别对正视角、偏视角、模糊视角的位置关系进行校正;后者在获取车辆速度极值的基础上,结合车速概率密度函数完成车速的提取。

1.2.1 映射方式纠偏子模块

在现实场景中,车辆在动态行驶时常出现偏离车道分界线的情况,这给后续交通参数提取带来了挑战。由于视频帧图像道路场景图仅能从二维单一视角反映位置关系,而现实三维空间场景具有三向性,需从不同角度才能完整展示车辆与车道分界线的偏差情况,因此,本文提出与正视角、侧视角、模糊视角相对应的LL-TR、LL-PA及LL-MX 3种映射纠偏方式,具体实现如图7所示。图7(a)中,LL-TR主要依据点线间垂足最短的理论,在正视角前提下建立车辆位置与车道分界线垂足间的坐标映射,具体过程如为:

ax+by+c=0
x1=b2x-aby-aca2+b2y1=a2y-abx-bca2+b2
(x1',y1')=(x1,y1)

式中:abc分别为车道分界线图像直线的参数;xy分别为车辆位置的横、纵坐标;x1'y1'分别为车辆映射至车道分界线的横、纵坐标。

在倾斜视角下,LL-TR方式难以有效纠正车辆与车道分界线间的位置偏差,导致视频车速提取误差较大。鉴于此,本文提出倾斜视角下的LL-PA映射方式,通过平行映射法匹配策略,实现车辆与车道分界线倾斜视角下的位置偏差修正,具体过程如下:

(x2',y2')=(x2',y)

式中:x2'y2'分别为倾斜视角下车辆位置映射至车道分界线的横、纵坐标。

由于人为视觉判断局限,即使在人眼已识别正视角和倾斜视角的情况下,依然会出现视角类型判别不准确的情况。如图7(c)所示,人眼判断为正视角,但实际中车道分界线与摄像机间依然存在明显的角度偏差,侧视角情况类似。这类情况被定义为模糊视角。针对这类情况,本文提出一种模糊视角下的LL-MX混合映射方法,旨在人眼视角边界难以界定的情况下,较为准确地实现车辆与车道分界线间的映射,进而提高视频车速提取的稳定性。LL-MX是一种融合LL-TR和LL-PA的混合映射方式,该方法利用其映射点求均值实现模糊视角下车辆与车道分界线的位置映射纠偏,具体可表示为:

(x3',y3')=x1'+x2'2,y1'+y2'2

式中:x3'y3'分别为模糊视角下车辆位置映射至车道分界线的横、纵坐标。

1.2.2 概率密度纠偏测速子模块

映射方式纠偏子模块解决了车辆动态行驶时未处于车道分界线上的位置偏差问题,后续还需使车道分界线上的车辆落入标注点,才可实现车速的准确提取。然而在现实场景中,绝大多数情况下车辆几乎不可能落入标注点,这是一个共性问题。图8(a)~(c)分别展示了车辆行进过程中未落入标注点(标注点为参照块间交界处)的3种通用情况。

在这3类通用情况下,车辆行驶位置具有极大的不确定性,需先采用不确定统计学相关理论方法对车辆位置范围进行界定,才能运用极值理论定位速度边界。鉴于此,本文提出一种基于平均速度的概率密度函数纠偏测速方法,具体计算过程如下:

E(v¯)=v¯minv¯maxv¯fvdv

式中:E(v¯)为平均速度期望,即本文所求速度参数值;fv为平均速度的概率密度函数;v¯为平均速度;v¯min为平均速度极小值;v¯max为平均速度极大值。式(8)基于时间不变条件下车辆位移与速度成正比的关系,通过车辆位移的变化得到平均速度的界定范围,具体可表示为:

v¯max=(m+1)Lt=(m+1)LnT
v¯min=(m-1)Lt=(m-1)LnT

在此基础上,利用平均速度极值理论量化概率密度函数的上下确界,继而得到基于平均速度的概率密度函数,具体可表示为:

fv=S+x1+x2(m-1)LnT(m+1)LnT(S+x1+x2)dv

为清晰解释式(11)的概率密度函数求解过程,本文以图9对计算过程中的相关变量关系进行直观描述。图9(a)展示的是车辆行进在首尾参照块外部端点时的平均速度极大值变化情况,图9(b)展示的是车辆行进在首尾参照块标注点时对应的平均速度极小值变化情况。式(9)~(10)的m即为图9(a)和(b)中车辆行驶通过的等长距离参照块数,L为参照块的实际长度,n为前后两帧图像间的帧数差值,T为视频帧图像间的周期,据此即可确定式(11)中平均速度的上下确界;图9(c)展示了式(11)Sx1x2间的位置关系,其中S为车辆覆盖的等长距离参照块总数,x1x2分别为车辆前后两帧与其所在参照块前后方标注点的距离。假设车辆行驶位置x1x2[0,L]区间内遵循统计学均匀分布,则式(11)S+x1+x2[(m-1)L,(m+1)L]范围内遵循三角分布,据此可得到车辆到标注点距离之和(即x1+x2),从而解决了车辆未落入标注点的偏差问题,同时得到了平均速度的概率密度函数,将其代入式(8)即可准确求出所需的交通速度参数。

2 实验仿真

2.1 数据集描述

实验采用国外公开数据集BrnoCompSpeed13和现实场景实测数据集LzVideoSpeed,对本文所提分割可跨越车道分界线的多视角视频交通参数提取方法的有效性进行验证。

国外公开数据集BrnoCompSpeed由布尔诺理工大学提供,包括交通监控摄像头记录的18个单一时长约为1 h的全高清视频,该视频涵盖了正、侧、模糊3个不同的监控视角,视频中车辆总计为20 865辆。速度测量利用LiDAR激光雷达实现光学门精确测定,主流视频测速方法均以该值为基准计算误差率。图10(a)~(c)分别展示了该数据集原始标注点。由GB 5768.3-2009可知,国内车道分界线长度固定,而国外车道分界线标准参差不齐,需将该数据集按规定中界定的车道分界线相关标准标定基准点。后续实验过程可在该基准点设置下完成标注点自动生成模块、多视角纠偏测速模块的验证。

实测数据集LzVideoSpeed由兰州市相关交通管理部门提供,包括不同道路记录的20 h重点路段交通监控视频,该视频涵盖了正、侧、模糊3种监控视角,视频中车辆总计为32 154辆,速度测量通过本文所提方法展开。图11(a)~(c)展示了现实场景中车道分界线依据相关标准界定的基准点,后续实验以此标定基准点为依据,完成本文所提方法在现实场景实测数据中的普适性验证。

2.2 实验设置及评价指标

本实验所涉及软硬件环境具体信息如表1所示。在实验仿真过程中,使用YOLOv514算法定位车辆像素位置,结合DeepSORT15算法对车辆位置进行实时追踪,并以车头方向目标检测框的中心位置作为车辆检测点,具体如图12(a)所示。在此基础上,实验过程随机选取正、侧、模糊3种视角下相同8辆车作为研究对象,具体如图12(b)所示。

为综合验证本文所提车速提取方法的准确性,以平均误差率和最大误差率作为评价指标,具体公式为:

η¯=i=1n(|vi-E(vi)|/vi)×100%n
η=max{η1,η2,η3,...,ηn,n>1}

式中:η¯为平均误差率;η为最大误差率;vi为数据集车辆实际速度;E(vi)为本文方法计算得到的车辆速度。

2.3 实验仿真

为全面验证本文所提方法的准确性,实验仿真分别从标注点生成参数设置与对比实验、多视角纠偏测速实验、本文所提方法对比实验3个方面展开。

2.3.1 标注点生成参数设置与对比实验

以摄像机安装位置为中心,基于现实场景中观察的几种常用视角对视频数据进行3次抽样,并在此基础上对标注点生成模块中的关键参数(即分割次数)进行探究性讨论。结合车辆通过车道分界线的行驶时间(一般该时间为7~8帧,该数据集每帧为0.02 s),将分割次数r的取值范围设置为0~3,具体实验结果如表2图13所示。

表2图13可知,在3次抽样中,分割次数为3时的平均误差率分别为1.18%、1.06%及0.91%,最大误差率分别为2.34%、2.28%及1.71%,相较于其他分割次数,误差率最低。这表明在实际测速过程中,可通过增加分割次数的方式扩充标注点及参照块的数量,从而提升视频车速提取的准确度。

2.3.2 多视角纠偏测速实验

本文所提视频车速提取方法的依据为车道分界线上的标注点,但车辆在动态行驶过程中与车道分界线存在位置偏差。因此,在自动生成标注点的基础上验证LL-TR、LL-PA及LL-MX 3种映射方式在不同视角下的适用性,以及3种映射方式下多视角纠偏的有效性。同时,采用未进行任何映射方式纠偏的LL-N方法,与3种纠偏映射方式进行对比,具体实验结果如表3图14所示。

表3图14可知,在正视角下,LL-TR方法的平均误差率仅为1.06%,相较于LL-PA的2.17%、LL-MX的1.75%,具有更低的测速误差;在侧视角下,相较于LL-MX、LL-TR方法,LL-PA下的平均误差率和最大误差率最低,分别为1.18%、2.34%;在模糊视角下LL-MX的平均误差率和最大误差率分别为0.91%和1.71%,相较于其他方法误差率最低。由此可知,正视角下采用LL-TR方式,侧视角下采用LL-PA方式,模糊视角下采用LL-MX方式的适用性更强,这也为前述1.2.1节相关映射方法的选择提供了依据。此外,在与未纠偏的LL-N方式对比中发现,正视角下,LL-N方式比LL-TR、LL-PA、LL-MX的平均误差率分别高1.65百分点、0.54百分点、0.96百分点,精度差距最大的是LL-TR方式;侧视角下,LL-N方式比3种映射方式的平均误差率分别高1.02百分点、1.55百分点、1.25百分点,精度差距最大的是LL-PA方式;模糊视角下,LL-N方式比3种映射方式的平均误差率分别高2.22百分点、1.31百分点、2.54百分点,精度差距最大的是LL-MX方式。综上所述,3种视角下的映射方式误差明显低于LL-N方式,校正精度更高。

在标注点生成实验和映射方式纠偏实验分析基础上,针对车辆未落入标注点造成测速误差较大的问题,将未使用概率密度函数纠偏的测速方法设置为对照组,并将本文所提基于概率密度函数的视频车速提取方法作为实验组,以此验证概率密度函数对车速提取精度的影响。具体实验结果分别如表4图15所示。

表4图15可知,3种视角下,实验组的平均误差率分别为1.18%、1.06%、0.91%,相较于对照组降低了1.25、1.13、0.91百分点,最大误差率分别为2.34%、2.28%、1.71%,相较于对照组降低了1.62、1.09、0.81百分点。实验结果表明,实验组在所有视角下测速效果均优于对照组,即考虑概率密度函数的车速提取方法在3种视角下的测速精度均优于未考虑的情况,这进一步说明概率密度函数可有效解决车辆与车道分界线上标注点的偏差问题。

为直观展示概率密度函数在参数提取中的构建与计算过程,实验采用控制变量法对概率密度函数的求解过程进行可视化分析。图16(a)、(c)为帧数差n=25时,不同参照块数m与速度对应的概率密度函数关系图;图16(b)、(d)为m=15时,不同帧数差n与速度对应的概率密度函数关系图。

图16(a)、(b)可以看出,平均速度的概率密度函数呈三角分布,这为本文通过标注点距离建立等价关系提供了依据。图16(b)中,帧数差越大,车辆行驶的时间越长,其速度取值的区间长度越小。当参照块数发生变化时,车辆行驶距离与速度均会随之变化,而区间长度保持不变。由此可见,速度的概率峰值会随帧数差的增大而提高,其取值会随参照块数的扩大而增加。

2.3.3 本文所提方法对比实验

将本文所提方法与GPS、RADAR、T-LL、M-LL、Vcm、video-speed、Vcm+centroid等方法进行对比,其中,GPS与RADAR分别为GPS测速和RADAR雷达测速方式,T-LL16、M-LL9分别为基于2条、4条入侵线的视频测速方法,Vcm为传统虚拟线圈法,video-speed12为二维标定测速算法,centroid为以车辆目标检测框中心为车辆检测点的视频测速方法;以公开数据集BrnoCompSpeed和实测数据集LzVideoSpeed中全部视频车辆数据为实验对象。参数设置方面,分割次数为3,帧率设置为50,实验评价指标采用平均误差率,具体实验如图17表5所示。

图17(a)可知,在BrnoCompSpeed数据集中,车辆占比为0.8时本文所提方法的平均误差率为2.3%,其他方法的最低平均误差率为2.97%,即车辆占比较多时,本文所提方法的平均误差率明显低于其他方法,表明本文所提方法在车辆占比大的场景下依然具有较稳定、准确的车速提取精度。由表5可知,本文所提方法在BrnoCompSpeed数据集上平均误差率仅为1.12%,较其他方法中误差率最低的RADAR雷达测速方法降低了0.21百分点,且交通速度提取精度明显高于GPS和其他主流视频测速方法,在视频交通速度参数提取方面具有优异表现。

图17(b)可知,在实测数据集LzVid-eoSpeed中,车辆占比为0.4、0.8时本文所提方法的平均误差率分别为0.72%、2.33%,其他方法的最低平均误差率分别为0.81%、3.22%,这说明本文所提方法在现实场景下具有较为准确的测速精度。由表5可知,本文所提方法在LzVideoSpeed数据集的平均误差率为1.16%,较其他方法中误差率最低的M-LL方法降低了0.26百分点,这进一步说明本文所提视频测速方法即使在复杂现实场景下依然表现较优,具有一定的普适性。

3 结束语

本文提出了分割可跨越车道分界线的多视角视频车速提取方法,其中,标注点自动生成模块通过二维图像与三维现实空间坐标转换关系分割车道分界线,构建基于等长线段的参照块,并以此为依据自动生成标注点,解决了视频交通速度参数提取过于依赖人工标注的问题;多视角纠偏模块通过LL-TR、LL-PA、LL-MX 3种映射方式,校正多视角场景下车辆行驶位置与车道分界线的位置偏差,同时结合平均速度概率密度函数解决了车辆未落入标注点的问题。在公开数据集上的实验表明,本文所提方法相较于表现最优的RADAR雷达测速方法,精度提升了0.21百分点;在实测数据集上的测试表明,本文所提方法相较于表现最优的M-LL方法,精度提升了0.26百分点。由此可见,本文所提方法可实现实时、准确提取速度参数的目的,且在复杂现实场景下具有一定的普适性,可为交管等相关部门的交通疏堵、安全预警、智慧化指挥调度提供高价值密度的数据保障。

参考文献

[1]

姚俊峰, 何瑞, 史童童, 基于机器学习的交通流测方法综述[J]. 交通运输工程学报, 2023, 23(3):44-67.

[2]

Yao Jun-feng, He Rui, Shi Tong-tong, et al. Revi-ew on machine learning-based traffic flow prediction methods[J]. Journal of Traffic and Transportation Engineering, 2023, 23(3): 44-67.

[3]

Luvizon D C, Nassu B T, Minetto R. A video-based system for vehicle speed measurement inurban roadways[J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 18(6): 1393-1404.

[4]

姜桂艳, 郭海锋, 吴超腾. 基于感应线圈数据的城市道路交通状态判别方法[J]. 吉林大学学报: 工学版, 2008(): 37-42.

[5]

Jiang Gui-yan, Guo Hai-feng, Wu Chao-teng. Urban road traffic status discrimination method based on induction coil data[J]. Journal of Jilin University (Engineering and Technology Edition), 2008,38(Sup. l): 37-42.

[6]

刘丽, 李勇. 一种基于自聚焦的交通雷达测速算 法[J].南京航空航天大学学报, 2013, 45(6): 843-848.

[7]

Liu Li, Li Yong. A traffic radar speed measurement algorithm based on self-focusing[J]. Journal of Nanjing University of Aeronautics and Astronautics, 2013, 45(6): 843-848.

[8]

吴杭彬, 刘豆, 刘启远, 基于断面激光扫描的移动车辆交通流参数提取[J]. 同济大学学报: 自然科学版, 2017, 45(7): 1069-1074.

[9]

Wu Hang-bin, Liu Dou, Liu Qi-yuan, et al. Parameter extraction of traffic flow of moble vehicles based on cross-sectional laser scanning[J]. Journal of Tongji University (Natural Science Edition), 2017, 45(7): 1069-1074.

[10]

王成钢, 刘海, 谭中慧. 一种基于视频图像的车辆测速算法[J].上海船舶运输科学研究所学报, 2019, 42(1): 65-69.

[11]

Wang Cheng-gang, Liu Hai, Tan Zhong-hui. A vehicle speed measurement algorithm based on video image[J]. Journal of Shanghai Institute of Shipping Transportation Science, 2019, 42(1): 65-69.

[12]

Rahim H A, Ahmad R B, Zain A S M, et al. An adapted point based tracking for vehicle speed estimation in linear spacing[C]∥International Conference on Computer and Communication Engineering, Zurich, Switzerland, 2010: 1-4.

[13]

Peruničić A, Djukanović S, Cvijetić A. Vision-based vehicle speed estimation using the YOLO detector and RNN[C]∥27th International Conference on Information Technology, Wuhan, China, 2023: 1-4.

[14]

田会娟, 刘嘉伟, 翟佳豪, 基于多入侵线的视频车速检测方法[J]. 交通运输系统工程与信息, 2022, 22(1): 49-56.

[15]

Tian Hui-juan, Liu Jia-wei, Zhai Jia-hao, et al. Video-based vehicle speed measurement method using multiple intrusion lines[J]. Journal of Transportation Systems Engineering and Information Technology, 2022, 22(1): 49-56.

[16]

余越, 柏兴, 狄岚. 基于YOLO网络和小波降噪的视频车辆跟踪测速优化[J]. 应用科技,2023, 50(1):14-20.

[17]

Yu Yue, Bai Xing, Di Lan. Video vehicle tracking and speed measurement optimization based on YOLO network and wavelet noise reduction[J]. Applied Science and Technology, 2023, 50(1): 14-20.

[18]

中华人民共和国国家质量检验检疫总局,中国国家标准化委员会. 道路交通标志和标线 第3部分: 道路交通标线: GB 5768.3—2009 [S].

[19]

于艳玲, 王韬, 袁彬, 基于视频的车速检测算法研究[J]. 现代电子技术, 2013, 36(3): 158-161.

[20]

Yu Yan-ling, Wang Tao, Yuan Bin, et al. Research on vehicle speed detection algorithm based on video[J]. Modern Electronics Technique, 2013, 36(3): 158-161.

[21]

Sochor J, Juránek R, Špaňhel J, et al. Comprehensive data set for automatic single camera visual speed measurement[J]. IEEE Transactions on Intelligent Transportation Systems, 2019, 20(5): 1633-1643.

[22]

Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]∥2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, USA, 2016: 779-788.

[23]

Bewley A, Ge Z, Ott L, et al. Simple online and realtime tracking[C]∥2016 IEEE International Conference on Image Processing (ICIP), Phoenix, USA, 2016: 3464-3468.

[24]

Javadi S, Dahl M, Pettersson M I, et al. Design of a video-based vehicle speed measurement system: an uncertainty approach[C]∥2018 Joint 7th International Conference on Informatics, Electronics & Vision (ICIEV) and 2018 2nd International Conference on Imaging, Vision & Pattern Recognition, Kitakyushu, Japan, 2018: 44-49.

基金资助

国家自然科学基金项目(62063014)

国家自然科学基金项目(62363020)

甘肃省自然科学基金项目(22JR5RA365)

AI Summary AI Mindmap
PDF (6122KB)

211

访问

0

被引

详细

导航
相关文章

AI思维导图

/