基于改进YOLOv5的城市快速路网拥堵检测算法

贺景勃 ,  贺劲杨 ,  赵婷 ,  孙鹏飞

内蒙古工业大学学报(自然科学版) ›› 2025, Vol. 44 ›› Issue (06) : 533 -541.

PDF (5745KB)
内蒙古工业大学学报(自然科学版) ›› 2025, Vol. 44 ›› Issue (06) : 533 -541. DOI: 10.13785/j.cnki.nmggydxxbzrkxb.2025.06.007
信息工程

基于改进YOLOv5的城市快速路网拥堵检测算法

作者信息 +

Research on congestion detection mechanism in urban expressway based on improved YOLOv5

Author information +
文章历史 +
PDF (5882K)

摘要

为提高城市快速路网拥堵识别的精确性,提出一种城市快速路网拥堵检测算法(congestion recognition mechanism in urban expressway,CRMU)。CRMU算法由特征提取、交通流指标计算和拥堵检测3个阶段组成。在特征提取阶段,为提升检测精度,采用K-means++算法对初始锚框值进行优化,结合BiFPN结构改进颈部网络,以提高检测精度和特征提取能力,利用提取的特征计算车速、车流量、车道数和车道长度等交通流特征值。在拥堵检测阶段,将提取的特征值输入改进核函数的支持向量机(support vector machine,SVM)模型,最终输出拥堵分类情况。实验结果表明,CRMU拥堵检测精度达到93.82%,优于传统拥堵检测算法,在城市快速路网拥堵检测方面更具优势。

Abstract

To improve the accuracy of urban expressway congestion recognition, a congestion detection algorithm (congestion recognition mechanism in urban expressway, CRMU) was proposed for congestion detection in urban expressway. CRMU was composed of three parts: feature extraction, traffic flow indicator calculation, and congestion detection. In the feature extraction stage, to enhance detection accuracy, the K-means++ algorithm was employed to optimize the initial anchor box values, combined with the BiFPN structure to improve the neck network, thereby enhancing detection accuracy and feature extraction capability. Subsequently, the extracted features were utilized to compute traffic flow indicators such as vehicle speed, traffic flow, number of lanes, and lane length. In the congestion detection stage, the extracted features were inputted into an improved kernel function-based support vector machine (SVM) model to ultimately output congestion classification. The experimental results verify that the detection accuracy of CRMU can reach 93.82%, surpassing traditional congestion detection algorithms, thus presenting superior performance in urban expressway congestion detection.

Graphical abstract

关键词

城市快速路网 / 拥堵检测 / 改进的YOLOv5算法 / 改进核函数

Key words

urban expressway / congestion detection / improved YOLOv5 / improved kernel function

引用本文

引用格式 ▾
贺景勃,贺劲杨,赵婷,孙鹏飞. 基于改进YOLOv5的城市快速路网拥堵检测算法[J]. 内蒙古工业大学学报(自然科学版), 2025, 44(06): 533-541 DOI:10.13785/j.cnki.nmggydxxbzrkxb.2025.06.007

登录浏览全文

4963

注册一个新账户 忘记密码

随着城市化进程不断加速,交通拥堵现象日益严重,已成为世界各大城市普遍困扰的问题。这一现象不仅影响居民正常出行,也给城市发展和环境治理带来挑战。百度地图《2023年第三季度中国城市交通报告》[1]显示,2023年中国最拥堵的10个城市的通勤高峰交通拥堵指数均超过了2.0,中国每年因交通拥堵而浪费的时间和资源约占国内生产总值(GDP)的1.5%,交通拥堵依旧是制约经济发展的关键问题,尤其在城市快速路网和主干道,交通拥堵问题尤为突出。更为严重的是这些地方常常成为交通事故频发地区,不仅影响了交通流畅度,还对城市安全和环境造成了严重影响。通常而言,交通管理部门对于路况的检测主要依靠部署在道路上的智能交通设备,如摄像机、高清探头等。通过这些设备实时收集道路交通信息,然后以视频数据流的形式上传到云端,最后依靠一些目标检测技术对收集到的数据流进行实时处理分析,为交通智能调度提供准确有效的信息。
由于目前的道路拥堵检测算法存在精确性不足、实时性不高和对复杂交通场景适应性差等问题,因此,有必要构建一个高效畅通的道路交通管理系统,全面理解交通状况,准确判断拥堵程度和拥堵持续时间,并及时做出调度和路线优化等决策,实现道路管理的数字化、智能化改革,推进车路协同一体化发展。在该系统中,一个具有强实时性与鲁棒性的道路拥堵检测算法至关重要。为此,本文中提出一个端到端的基于改进YOLOv5的城市快速路网拥堵检测算法,可以提高城市快速路网拥堵检测的精确性、实时性和适应性。

1 已有方法

本节针对道路拥堵检测采用的相关技术进行分析和总结。

1.1 基于神经网络的车辆目标检测

近年来,基于机器学习和深层神经网络的车辆目标检测算法备受研究人员的青睐。与传统的目标检测算法相比,这些算法能够从大量数据中学习到丰富的特征表示,具有更强的学习性和普适性,可以很好地应对各种复杂场景下的车辆行为检测。相较于传统手工设计特征的方法,基于深度学习的车辆检测算法能够更好地适应不同的环境和情况,因此受到了广泛关注和应用。目前主流的算法主要分为两类:一类是以YOLO (you only look once)、SSD (single shot multibox detector)系列为代表的单阶段检测算法,另外一类是以R-CNN (region-CNN)系列为代表的二阶段检测算法。二者在精确度以及检测速度方面各有优劣。目标检测一直被认为是一个分类问题,但YOLO算法的出现将目标检测从分类问题转化成回归问题,同时可以有效兼顾检测的效率和精确度,实现端到端的实时检测。Bie等[2]提出了一种轻量级的改进YOLOv5算法,使用深度可分离卷积和C3Ghost模块替换多个C3模块,以减少模型参数并提高检测速度。另外针对多尺度特征借助双向特征金字塔网络(bidirectional feature pyramid network, BiFPN)进行融合,提高了算法的特征提取能力,有效提升车辆行为检测速度与精度。Vapnik等[3]利用SVM对模型进行改进。Rjoub等[4]将YOLO算法与卷积模糊神经网络相结合,提出了一种基于联邦学习的自动驾驶环境下汽车目标检测系统,以提高恶劣天气情况下目标检测的精度。另外,也有许多学者对YOLOv4模型进行了一系列的优化,例如,Zhao等[5]提出一个新的车辆检测和分类模型YOLOv4_AF,该模型改变了原生YOLOv4的结构,在主干网络中嵌入卷积块注意力模块(convolutional block attention module, CBAM),此种方式可有效加强通道维度和空间维度的感受野,进一步增强多尺度特征融合,提高模型对检测车辆的定位能力。

另外,一些研究人员通过修改YOLOv5的网络结构,提高其在目标检测任务上的性能。针对无人机在高速飞行过程中造成的密集目标检测质量低下的问题,Zhu等[6]提出一种TPH-YOLOv5的目标检测算法,该算法将YOLOv5的预测头替换为Transformer预测头,以提高对小目标的检测性能。同时通过自注意机制(self-attention mechanism)来提取更全局的特征,提高无人机侦测任务场景下移动目标检测的性能。针对高空遥感目标检测精度较低的问题,Liu等[7]构建了一种YOLO-Extract的改进型目标检测算法,该算法修改了传统YOLO算法的网络结构和损失函数,将混合扩张卷积与重新设计的残差结构相结合,增强模型浅层的特征和位置信息提取能力,并通过实验验证了YOLO-Extract在遥感图像中检测飞行器目标的卓越性能。Transformer具有很强的捕获裂纹的长程依赖性的能力,Xiang等[8]构建了一种结合Transformer技术的改进型YOLOv5裂纹检测方法,增强了传统YOLOv5网络学习裂纹区域的上下文信息的能力,极大地提高了裂纹检测的性能。另外,一种轻量级实时目标检测算法YOLOv5-R[9]在检测精度和检测速度方面取得很好的成绩,该算法通过简化网络结构、减少参数量、优化损失函数、引入轻量级模块等,降低算法的计算复杂度并提高检测速度,提高了算法的精确度和检测速度。邱天衡等[10]提出了一种对硬件环境依赖性较低、模型收敛速度较快、目标检测精确率较高的模型YOLO-G。该模型通过改进特征金字塔网络(feature pyramid network, FPN),以跨级连接方式融合了更多的特征,然后通过加权融合提取注意力信息。针对大型目标检测,Qu等[11]构造了一种改进的YOLOv5多尺度特征跨层融合网络M-FCFN,该网络采用多尺度特征交叉层融合,增强网络对大型目标的感知能力。另外,对YOLOv5的结构进行了调整和优化,以适应大型目标检测的需求。在恶劣天气条件下,如雨、雪、雾霾等,交通标志的可见性通常会受到影响,给交通安全带来了挑战。针对恶劣天气条件下的实时交通标志检测和识别精确性较低的问题,Dang等[12]提出了一种改进型YOLOv5方法,可以提高在恶劣天气条件下交通标志识别性能。

1.2 交通拥堵实时检测和预测

随着人工智能的快速发展,研究者开始将焦点转向交通拥堵实时检测和预测问题上。考虑到交通流数据之间可能存在的时序关联关系,Hou等[13]将CNN和LSTM融合,提出一种交通流量预测模型,提升了交通流量预测精确性。准确的短期交通拥堵预测对于交通基础设施建设和交通实时优化至关重要,因此,Anjaneyulu等[14]设计了一种混合Xception支持向量机(XPSVM)分类器模型,旨在实现1 h内每5 min预测一次短期交通拥堵情况。另外,Xu等[15]利用时间序列分析方法和SVM模型,对城市交通拥堵进行了研究,提出了一种基于历史数据的拥堵预测模型。在国内,交通拥堵检测和预测的研究也取得了一定的进展。一些学者利用城市交通管理数据和智能交通系统数据,通过建立拥堵指数模型和交通流量模型,对城市交通拥堵进行定量分析和预测。例如,赵丽雅等[16]提出了一种基于K近邻算法和时间序列分析的短期交通拥堵检测方法,通过对历史交通数据进行分析,实现了对拥堵情况的实时监测和预测。尽管对短期交通流量预测的研究已经取得了一定进展,但目前大多数研究仍然集中在对预测模型本身的改进方面,而对于如何优化选取预测样本数据的研究相对较少。

基于改进的YOLOv5算法和改进核函数SVM模型设计一个城市快速路网拥堵实时检测算法CRMU,可以有效提取交通数据流中相关特征指标,极大提高算法检测的检测精度和效率。

2 算法设计

综合考虑检测速度、检测精度等因素,本研究提出了一种融合改进的YOLOv5算法和改进核函数SVM模型的城市快速路网拥堵检测算法CRMU,如图1所示。首先将输入的城市快速路网视频流进行分帧处理,然后将转化后的帧图像输入CRMU,最终输出拥堵分类情况。CRMU算法包含特征提取、交通流指标计算和拥堵检测3个阶段,具体设计如下:

1) 特征提取。结合改进的K-means++算法对YOLOv5算法中的初始锚框进行改进。在颈部网络(Neck)中添加BiFPN结构提高特征提取能力,从而优化关键指标项特征提取的精确度。

2) 交通流指标计算。对视频流中目标车辆的速度、数量和车道数目及车道长度等指标项进行计算。

3) 拥堵检测。基于提取的特征值,对SVM模型的核函数进行改进,通过在多项式核函数中添加交互项,从而更好地捕捉相邻特征之间的交互信息,提高拥堵分类检测的精确率。

2.1 特征提取

YOLOv5算法由输入端(Input)、骨干网络(Back-bone)、颈部网络(Neck)和头部网络(Head) 4部分组成[17]。输入端负责接收图像数据,骨干网络用于提取特征,颈部网络负责进一步处理和融合特征,输出端则生成目标检测的结果。这个结构设计使得YOLOv5能够有效地处理各种尺寸的输入图像,并在保持高检测性能的同时提高检测速度。每个部分都有其特定的功能,协同工作以得出准确的目标检测结果。CRMU模型主要在Input和Neck部分进行改进,Backbone和Head部分依旧沿用YOLOv5算法原生框架,改进后的YOLOv5_BiFPN网络模型示意图如图2所示。图中用粉色线条标记增加的特征融合路径,使用Add操作参与多尺度特征融合。

2.1.1 Input

一般而言,首先在输入端对图像进行预处理。如果是视频数据,一般会先进行分帧处理,然后使用Mosaic进行数据增强操作。利用Autoanchor和自适应图片缩放等操作来计算最佳锚框值。YOLOv5算法采用的锚框是基于COCO数据集得到的,涉及的目标尺寸往往偏大。但是城市快速路网场景往往都是中小目标,K-means聚类算法中K值须要人为确定,因此YOLOv5框架中原生的K-means聚类算法容易陷入局部最优的困境,无法很好地满足中小目标的检测需求。

改进K-means++算法是一种解决上述问题有效的手段,可以克服YOLOv5框架易陷入局部最优的问题。改进的K-means++算法可以通过更智能的中心点初始化和迭代优化来克服原生K-means算法的局限性。一种常见的改进方法是使用K-means++算法来选择初始中心点,有助于解决初始点过于集中或者过于分散的问题,从而更有可能收敛到全局最优解。通过改进的K-means++算法对YOLOv5算法中的初始锚框进行改进,计算出适合道路目标检测的锚框,具体计算过程如算法1所示。

算法1 改进的K-means++算法

Algorithm 1 The improved K-means++ algorithm

2.1.2 Backbone

Backbone在目标检测算法中扮演着关键角色,直接决定了对输入图像进行有效特征提取的能力。一般而言,YOLOv5框架在主干网络中会采用CSPD-arknet对特征信息进行提取。另外,还会使用Focus结构对特征张量进行降维操作。为了加强卷积神经网络对样本数据特征的学习能力,CSPNet[17]结构也被采用,可以有效地节约内存开销和减少计算负担,同时避免了网络在学习过程中重复获取相似特征的问题。CSPNet的主要思想是在网络的不同阶段引入跨阶段局部连接,将输入特征图分割成2个部分,然后将其中一部分经过特定的操作后再与另一部分合并,从而实现特征的重用和信息的交流。

2.1.3 Neck

Neck模块可以被描述为网络中连接上下游的桥梁,同时负责多尺度特征信息的融合。YOLOv5在延续之前版本YOLO框架的FPN结构基础上融合了路径聚合网络(path aggregation network, PAN)结构。这种融合借助自顶向下和自底向上信息流去捕捉更丰富的特征信息,并提高网络模型的检测性能。

BiFPN[18]结合了FPN的优势,并通过引入双向信息流来进一步增强特征融合的效果。其设计考虑了不同尺度特征之间的依赖关系,使得模型能够更好地捕捉目标在不同尺度、不同层次上的特征信息。通过双向连接,BiFPN可以有效地融合这些信息,提升目标检测的鲁棒性和精确度。此外,BiFPN结构还具有自适应性,能够根据不同的输入图像和检测任务自动调整特征融合的权重和尺度,从而更好地适应各种场景下的目标检测需求。这种自适应性使得模型能够更灵活地适应不同尺度的目标,并在复杂场景中实现更准确的检测。

具有高效的双向跨尺度连接特点的双向特征融合(BiFPN)结构在目标检测任务中发挥着关键作用[18],因此,对原生YOLOv5的Neck进行改进,将BiFPN替换原算法的特征融合模块,可以进一步提高模型提取特征能力,从而提升车辆目标定位的精确性、小尺度车辆目标的检测效果以及模型的收敛速度。在YOLOv5原有的模型结构上,将原本的双向跨尺度连接替换为高效的双向跨尺度连接,改变了原YOLOv5的特征融合路径,减少模型的计算量和待训练参数数量,提高模型的计算效率。

结合图2图3给出YOLOv5_BiFPN网络模型处理一个样本图片的具体流程。在图3中,将一个样本图片输入之后,经过骨干网络下采样得到40×40、20×20、80×80大小不同的特征张量。

FPN具有自上而下的特征金字塔结构,主要传递了强语义特征信息,对于定位特征信息却无法传递。恰好路径聚合网络(path aggregation network, PAN)结构可对其进行弥补,有效将底层的强定位特征信息传递到顶层,通过这种“双塔战术”,能够提取更丰富的特征信息。在此基础上,将由骨干网络下采样得到的40×40、20×20大小的特征张量直接通过Add操作参与最终输出特征张量的特征融合。图中绿色箭头表示下采样,蓝色箭头表示上采样,①、②、③分别代表最终输出大小为80×80、40×40、20×20的特征张量。其中粉色路径是YOLOv5s_BiFPN相对于原YOLOv5s增加的特征融合路径,也是本节改进中最重要的操作,与图2中的粉色路径对应。通过增加连接的复杂度,特征张量尽可能多地保留了更多不同尺度的特征信息。

2.1.4 Head

在YOLOv5_BiFPN模型中,经过一系列预处理,将输入图像准备好后,会传入Backbone模块进行特征提取。提取的特征张量会进入Neck模块进行多尺度特征融合处理,这一步骤将生成3个不同尺度的特征张量。最后,这3个特征张量将被输入到Head模块,用于目标的分类、定位和预测。

图2所示,得到3个大小为80×80×24、40×40×24、20×20×24的特征张量,分别对应数据集中小尺度目标、中尺度目标和大尺度目标的检测任务。

2.2 交通流指标计算

在改进的YOLOv5算法进行特征提取的基础上,对视频流中目标车辆的速度、数量和车道数目及车道长度等指标项进行计算。经过YOLOv5_BiFPN网络模型处理后的特征向量经过YOLOv5框架的Neck和Head后,可以采用车辆跟踪算法[19]计算每辆车的速度vi、车道上所有通过的总车辆数n和车道宽度w,据此计算车辆的平均速度v¯

v¯=1ni=1nvi

计算单位时间t内车流量的具体计算公式如下:

ft=n/t

定义t时刻内的车辆的密度为

TD=ftw

2.3 拥堵检测

基于上述特征值,选择非线性SVM模型[20]进行拥堵检测。非线性SVM通过引入核函数,将原始样本特征映射到一个更高维度的空间中,使得原本线性不可分的问题在这一更广阔的特征空间中变得线性可分,从而提升了分类的精确性和泛化能力,有效降低计算的复杂性。通过将核函数改进后与非线性的SVM模型结合进行拥堵检测,可以提高检测的精确性。

相邻特征向量之间存在一定的关联关系称为交互项,因此,可以添加交互项对核函数进行改进,以便更好地捕捉这些关系。改进后的SVM模型为

k(x, y)=γxT*y+cd+β(x*y)2+b

式中:γβcb是需要训练的超参数,控制着交互项的权重,使模型可以更好地捕捉相邻特征之间的关联信息;x为特征值计算模块提取出的关键指标项;y为训练数据集中所标记的拥堵程度。

通过上述3个阶段,模型可以在接收输入数据后实时输出拥堵程度数据。

3 相关实验

3.1 实验设置

实验使用语言环境为Python 3.7,基于PyTorch框架,服务器装配6 GB内存和NVIDIA GTX 1660 Ti GPU,运行环境为CUDA 11.1。在此实验环境下,为了验证本文车辆目标特征提取算法的有效性,设置如下对照实验算法:

1) Faster R-CNN[21]。该算法主要通过区域建议网络(region proposal network, RPN)生成候选框,不依赖外部算法或方法来提取感兴趣的区域,然后通过区域兴趣池化(region of interest pooling, ROI Pooling)和全连接层进行分类和边界框回归。

2) Tiny_YOLOv3[22]。Tiny_YOLOv3是YOLOv3的轻量级版本,采用了精简的网络结构和少量的卷积层,以降低模型复杂度。虽然模型规模小,但在保持较高检测精确度的同时,大大提高了推理速度。

3) YOLOv5s[23]。YOLOv5s是一阶段基于锚点(anchor)的目标检测神经网络,采用轻量级结构实现高效目标检测。该模型以输入图像进行多尺度特征提取,并利用预定义的锚点框预测目标的位置和类别信息。通过优化的锚点框选择和特征提取,YOLOv5s实现了较高的检测精确度和较快的推理速度。

上述对照实验算法输出的特征之后,同样采用式(1)式(3)计算目标车辆的速度、车流量和车道数目及车道长度等指标项,然后将上述指标项输入拥堵指数计算公式[24]计算拥堵指数,最后根据表1划分拥堵程度。表1中给出了交通拥堵程度判别的标准,共分为非常畅通、畅通、轻度拥堵、中度拥堵以及重度拥堵5个标准,表中还给出了交通状态划分参数的阈值。

香港城市大学提供的Highway Traffic Videos数据集[25]里面包含多个场景和时间段的实际路况视频数据,如图4(a)所示。因为数据集中被分为轻度拥堵、中度拥堵以及重度拥堵三类,没有畅通和非常畅通的2个分类项,所以在该数据集中增加部分自建数据集,如图4(b)所示。自建数据集均来自交通执法部门,采集地点为G6高速公路呼和浩特段的多个场景和时间段的实际路况视频数据,并将数据集拥堵分类结果通过人工进行标记。

3.2 实验评估指标

在本实验中,使用平均精确率mAP、召回率R和精确率P 3个指标项对算法进行评价。

召回率R用公式表示为

R=TPTP+FN

精确率P用公式表示为

P=TPTP+FP

平均精确率mAP用公式表示为

mAP=01P(R)dR

式中:PR为精度和召回率曲线。在本实验中设置的交并比检测阈值为0.5,即当检测框与真实目标框的重叠区域超过50%时,就认为该检测框是正确的。

3.3 实验结果与分析

为了验证特征增强表示模块,改进多尺度特征设计以及K-means++算法的高效性,表2给出了消融实验的实验结果。结果显示,增加K-means++算法后可以将检测精度mAP值提升1.3%,同时将BiFPN结构增加到YOLOv5s网络的骨干结构后,检测精度mAP值提升8.6%,精确度和召回率均要优于一阶段基于anchor的YOLOv5网络结构。

通过训练好的CRMU模型,对自建数据集进行进一步实时检测。为验证改进YOLOv5的性能,以路段1为例进行交通车流量指标1 h内实时检测,具体实验结果如图5所示。通过实验发现,相对于传统YOLOv5框架,改进后YOLOv5框架在实时车流量指标检测方面表现更加出色,检测精度得到进一步提升。

为了验证CRMU模型损失函数的收敛能力,在相同数据集上对不同模型分别进行相同的Epoch数量的训练,损失曲线图如图6所示:

从图中看出,CRMU算法损失曲线的下降速度比其他3个对照算法更快,说明本文提出的CRMU算法模型损失网络收敛速度更快,模型的损失值更趋于0且更为平滑,验证了CRMU算法在城市快速路网实时拥堵检测上与真实数据差距更小,具有更优的检测效果的结论。

另外,将CRMU算法和Faster R-CNN、Tiny_YOLOv3以及基于anchor的网络YOLOv5s等另外3种对照实验算法分别比较mAP、PR 3个评估指标项,比较结果如图7所示。从实验结果来看,CRMU算法的3项评估指标表现均优于其他3种对照算法。CRMU拥堵检测精度达到93.82%,也验证了CRMU算法在城市快速路网拥堵检测方面更具优势。

选取视频流中部分最具有代表性的检测结果进行分帧,将分帧图片的检测结果进行分析,如图8(a)所示。在数据集1上进行实验,在分帧图片中因部分目标比较模糊或距离远而导致部分图片比较小,目标检测算法未能完全识别所有车辆目标,但是最终结果符合真实值,这是因为在拥堵情况下,车辆行驶速度缓慢,车辆速度指标项符合真实值,所以结果正确。采用车辆速度指标进行弥补,使得最终结果符合真实值。图8(b)是自建真实数据集的检测结果,结果与真实值一致。上述结果显示,CRMU算法能够在复杂环境下的目标检测任务中展示出较强的鲁棒性。

4 总结

为了提高对城市快速路网拥堵情况的识别精确性和效率,本文中提出一种融合改进的YOLOv5算法和改进核函数SVM模型的城市快速路网拥堵检测算法CRMU。该算法包括特征提取、交通流指标计算和拥堵检测3个主要阶段。在特征提取阶段,为了解决YOLOv5框架中原生的K-means聚类算法容易产生局部最优,CRMU算法采用了改进的K-means++算法来优化初始锚框值,并结合具有高效的双向跨尺度连接特点的BiFPN结构改进Neck网络,以提高特征提取的计算速度和检测精度。利用提取到的特征向量,对车速、车流量、车道数和车道长度等交通流指标进行计算,交通流指标对于评估路段的交通状况至关重要。在拥堵检测阶段,基于CRMU算法提取的特征值,采用改进核函数的非线性SVM模型进行拥堵分类。在真实的数据集和实验环境下进行了大量的实验。实验结果表明,CRMU算法的拥堵检测精度达到了93.82%,其损失函数的收敛速度也相较于传统的拥堵检测算法更快,证明了CRMU算法在城市快速路网拥堵检测方面更具优势。

CRMU算法通过优化特征提取、交通流指标计算和拥堵检测3个关键步骤,实现了对城市快速路网拥堵的精准识别,为改善城市交通状况提供了可靠的技术支持。

参考文献

[1]

百度地图. 2023年第三季度中国城市交通报告[EB/OL]. [2024-01-25].

[2]

BIE M, LIU Y, LI G, et al. Real-time vehicle detection algorithm based on a lightweight you-only-look-once(YOLOv5n-L) approach[J]. Expert Systems with Applications, 2023, 213: 119108.

[3]

VAPNIK V, IZMAILOV R. Reinforced SVM method and memorization mechanisms[J]. Pattern Recognition, 2021, 119: 108018.

[4]

RJOUB G, WAHAB O A, BENTAHAR J, et al. Improving autonomous vehicles safety in snow weather using federated YOLO CNN learning[C]//International Conference on Mobile Web and Intelligent Information Systems, Cham: Springer International Publishing, 2021: 121-134.

[5]

ZHAO J Y, HAO S N, DAI C X, et al. Improved vision-based vehicle detection and classification by optimized YOLOv4[J]. IEEE Access, 2022, 10: 8590-8603.

[6]

ZHU X K, LYU S, WANG X, et al. TPH-YOLOv5: improved YOLOv5 based on transformer prediction head for object detection on drone-captured scenarios[C]//2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW). Montreal, BC, Canada: IEEE, 2021: 2778-2788.

[7]

LIU Z G, GAO Y, DU Q Q, et al. YOLO-extract: improved YOLOv5 for aircraft object detection in remote sensing images[J]. IEEE Access, 2023, 11: 1742-1751.

[8]

XIANG X Z, WANG Z Y, QIAO Y L. An improved YOLOv5 crack detection method combined with transformer[J]. IEEE Sensors Journal, 2022, 22(14): 14328-14335.

[9]

REN J, WANG Z, ZHANG Y, et al. YOLOv5-R: lightweight real-time detection based on improved YOLOv5[J]. Journal of Electronic Imaging, 2022, 31(3): 033033.

[10]

邱天衡, 王玲, 王鹏, . 基于改进YOLOv5的目标检测算法研究[J]. 计算机工程与应用, 2022, 58(13): 63-73.

[11]

QU Z, GAO L Y, WANG S Y, et al. An improved YOLOv5 method for large objects detection with multi-scale feature cross-layer fusion network[J]. Image and Vision Computing, 2022, 125: 104518.

[12]

DANG T P, TRAN N T, TO V H, et al. Improved YOLOv5 for real-time traffic signs recognition in bad weather conditions[J]. The Journal of Supercomputing, 2023, 79(10): 10706-10724.

[13]

HOU Q Z, LENG J Q, MA G S, et al. An adaptive hybrid model for short-term urban traffic flow prediction[J]. Physica A: Statistical Mechanics and its Applications, 2019, 527: 121065.

[14]

ANJANEYULU M, KUBENDIRAN M. Short-term traffic congestion prediction using hybrid deep learning technique[J]. Sustainability, 2022, 15(1): 74.

[15]

XU H B, JIANG C S. Deep belief network-based support vector regression method for traffic flow forecasting[J]. Neural Computing and Applications, 2020, 32(7): 2027-2036.

[16]

赵丽雅, 周文学. 基于K近邻算法和混合模型的短期交通流预测[J]. 应用数学进展, 2023, 12(10): 4330-4337.

[17]

OLORUNSHOLA O E, IRHEBHUDE M E, EVWIEKPAEFE A E. A comparative study of YOLOv5 and YOLOv7 object detection algorithms[J]. Journal of Computing and Social Informatics, 2023, 2(1): 1-12.

[18]

CHEN J, MAI H S, LUO L B, et al. Effective feature fusion network in BIFPN for small object detection[C]//2021 IEEE International Conference on Image Processing (ICIP). Anchorage, AK, USA: IEEE, 2021: 699-703.

[19]

SONG D, THARMARASA R, ZHOU G J, et al. Multi-vehicle tracking using microscopic traffic models[J]. IEEE Transactions on Intelligent Transportation Systems, 2019, 20(1): 149-161.

[20]

KASHEF R. A boosted SVM classifier trained by incremental learning and decremental unlearning approach[J]. Expert Systems with Applications, 2021, 167: 114154.

[21]

MAI X C, ZHANG H, JIA X, et al. Faster R-CNN with classifier fusion for automatic detection of small fruits[J]. IEEE Transactions on Automation Science and Engineering, 2020, 17(3): 1555-1569.

[22]

TAHERI TAJAR A, RAMAZANI A, MANSOORIZADEH M. A lightweight tiny-YOLOv3 vehicle detection approach[J]. Journal of Real-Time Image Processing, 2021, 18(6): 2389-2401.

[23]

李昂, 孙士杰, 张朝阳, . 改进YOLOv5s的轨道障碍物检测模型轻量化研究[J]. 计算机工程与应用, 2023, 59(4): 197-207.

[24]

方勇, 党倩, 万剑, . 基于深度学习的道路交通拥堵检测[J]. 智能城市, 2018, 4(23): 1-3.

[25]

香港城市大学. Highway Traffic Videos (classification) [EB/OL]. [2024-01-25].

基金资助

内蒙古自治区高校基本科研业务费项目(JY20230058)

内蒙古工业大学科学研究项目(ZY202111)

内蒙古工业大学2023年度校级大学生创新创业训练计划项目(2023353008)

AI Summary AI Mindmap
PDF (5745KB)

131

访问

0

被引

详细

导航
相关文章

AI思维导图

/