基于改进YOLOX的无人机航拍图像密集小目标车辆检测

张河山 ,  范梦伟 ,  谭鑫 ,  郑展骥 ,  寇立明 ,  徐进

吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (04) : 1307 -1318.

PDF (6831KB)
吉林大学学报(工学版) ›› 2025, Vol. 55 ›› Issue (04) : 1307 -1318. DOI: 10.13229/j.cnki.jdxbgxb.20230779
交通运输工程·土木工程

基于改进YOLOX的无人机航拍图像密集小目标车辆检测

作者信息 +

Dense small object vehicle detection in UAV aerial images using improved YOLOX

Author information +
文章历史 +
PDF (6994K)

摘要

针对无人机航拍视角下对小目标的检测仍存在漏检现象严重、检测精度低等问题,提出一种改进的YOLOX网络,用于无人机航拍图像的检测。为了增强网络的特征学习能力,在特征融合部分引入自适应空间特征融合(ASFF)模块,并在网络的颈部(Neck)嵌入坐标注意力机制(CA)。为了加强网络对正样本的学习,将二元交叉熵损失函数替换为变焦距损失函数。实验结果表明:改进后的YOLOX网络具有更好的检测效能,其mAP@50和mAP@50_95分别达到了91.50%和79.65%。在多种交通场景下的可视化结果表明:相较于其他算法,优化后的网络具有更低的漏检率以及更高的检测精度,能够胜任小目标车辆的检测任务,可为高空视角下的车辆多目标跟踪应用提供参考。

Abstract

Aiming at the issues of severe missed detections and low detection accuracy for small targets in the perspective of drone aerial photography, an improved YOLOX network is proposed for the detection of drone aerial images. To enhance the feature learning ability of the network, the ASFF module is introduced in the feature fusion part, and the CA mechanism is embedded in the neck of the network. To enhance the network's learning of positive samples, the binary cross-entropy loss function is replaced with the varifocal loss function. Experimental results show that the improved YOLOX network has better detection efficiency, and its mAP@50 reaches 91.50% and mAP@50_95 reached 79.65%. The visualization results in various traffic scenarios show that compared with other algorithms, the optimized network has a lower missed detection rate and higher detection accuracy, which can be competent for the detection task of small target vehicles, and can provide a reference for vehicle multi-target tracking applications from a high-altitude perspective.

Graphical abstract

关键词

交通运输系统工程 / 小目标车辆检测 / 损失函数 / 坐标注意力机制 / 自适应空间特征融合 / YOLOX

Key words

engineering of communications and transportation system / small target vehicle detection / loss function / coordinate attention mechanism / adaptive spatial feature fusion / YOLOX

引用本文

引用格式 ▾
张河山,范梦伟,谭鑫,郑展骥,寇立明,徐进. 基于改进YOLOX的无人机航拍图像密集小目标车辆检测[J]. 吉林大学学报(工学版), 2025, 55(04): 1307-1318 DOI:10.13229/j.cnki.jdxbgxb.20230779

登录浏览全文

4963

注册一个新账户 忘记密码

0 引 言

随着计算机视觉的快速发展,基于无人机航拍图像的目标检测技术在交通领域受到了研究者们的广泛关注1。无人机航拍具有视野广、拍摄范围大、灵活性高等优点2,经常被作为车辆检测任务的补充视角,应用在特殊路段和突发交通场景中,为后续开展交通事故分析、交通流管控等任务提供数据支持。但在无人机航拍视角下,具有较少特征的小目标车辆占比较大,并且排列密集,在检测网络通道中传递时,会产生特征信息丢失现象,给小目标车辆的检测带来挑战3

目前,主流的基于深度学习框架的目标检测算法分为以R-CNN 4、Fast R-CNN 5、Faster R-CNN 6为代表的双阶段模型和以YOLO、SSD为代表的基于卷积神经网络的单阶段模型。前者首先生成候选目标框,在提取目标的特征信息后,进一步预测和识别目标的位置和类别。虽然检测精度高,但速度较慢,无法适用实时检测。自2016年开始,YOLO算法经历了快速发展阶段(YOLOv3、YOLOv4、YOLOv5和YOLOX等),2021年,Ge等7提出了YOLOX算法,利用解耦头、无锚点和标签分配策略SimOTA显著提高了算法性能。因此,YOLOX网络被广泛应用于各种场景下的对象检测。

当下,有很多学者对YOLOX算法进行了研究和改进,并将其应用在各领域中。Wang等8针对航拍舰船检测精度低等问题,将卷积注意力机制(CBAM)引入YOLOX的浅层网络以更好地提取目标特征,并通过焦点损失(Focal loss, FL)函数调和正负样本数量,提高了对舰船的检测精度。Shen等9针对复杂背景下的小目标检测缺乏鲁棒性等问题,将CBAM注意力机制引入YOLOX的主干中,使网络能够聚焦显著性信息,提升了对小目标的检测效率和检测精度。赵振兵等10在YOLOX网络的骨干部分加入全局上下文信息模块,增强模型对外观缺陷特征的学习能力,在预测部分使用SIoU损失函数,提高了对变电站仪表外观缺陷检测的准确率。Yi等11在YOLOX的特征金字塔中增加了特征尺度融合检测分支,并提出了一种基于数据域转移的训练策略,将大规模白天数据集与低光照降级后的小规模夜间数据集进行融合,提高了在夜间环境下对车辆/行人的检测精度。Xiong等12提出了一种改进的轻量级YOLOX实时车辆检测算法,对主干网络进行了轻量化设计,尽可能地减少网络参数。此外,通过引入α-CIoU损失函数,提高了预测框的回归精度,也加快了模型的收敛速度。改进算法在参数较少的情况下,检测速度和精度都得到了提高。Luo等13设计了一种轻量级车辆检测网络G-YOLOX,该方法将3×3卷积和5×5卷积交替应用在主干网络中,以达到充分利用不同特征信息的目的。与原YOLOX网络相比,G-YOLOX网络的权重文件和参数量大量减少,并提高了对车辆的检测精度。黄键等14在YOLOX-S模型的基础上引入可变形卷积神经网络和焦点损失函数,提高了对车窗目标的识别精度。Han等15提出一种轻量级的车辆检测方法,该方法将深感受野块应用在骨干网络,以提升目标特征的表现力,并利用图像分割技术,提升检测准确性。实验结果表明:该网络具有较快的检测速度,网络的参数也更少。刘军黎等16提出一种基于YOLOX的轻量化无人机航拍目标检测网络YOLOX-IM,该方法通过增加一个检测头和浅层网络以提高模型对小目标的检测性能,显著提高了对小目标的检测精度。综上所述,目前基于YOLOX算法的研究主要侧重于提高对目标的检测精度和网络的轻量化上,针对小目标检测的研究较少。然而,小目标检测一直是计算机视觉领域待解决的难点问题,特别是在无人机航拍视角下,车辆本身像素占比小,且密度较大,同时还伴随着复杂的背景信息。这使对小目标的检测更加具有挑战性。

目前基于深度学习的目标检测算法对小目标的特征提取能力较弱,特别是在长距离、复杂背景、高密度的场景中,更容易导致漏检。因此,本文提出一种基于优化YOLOX网络的密集小目标车辆检测方法。在网络的颈部结合自适应空间特征融和模块,尽可能地融合小目标的特征;为使网络更加聚焦小目标的特征信息,提高对小目标的定位精度,引入坐标注意力机制;通过优化损失函数,缓解模型训练中正负样本不均衡的问题。

1 YOLOX网络结构

YOLOX是旷视科技提出的高性能目标检测网络,结构如图1所示。其网络结构主要分为4个部分:输入端(Input)、用于特征提取的主干网络(Backbone)、特征融合的颈部(Neck)以及检测的头部(Head)。对输入的图像,采用Mixup和Mosaic数据增强17,在主干网络CSPDarknet的起始加入Focus操作18,将通道维度拼接扩展为4倍,然后通过卷积提取不同的特征。CSPDarknet作为其骨干特征提取网络,主要完成对输入图像的特征提取,包括BaseConv、DWConv、ResUnit、SPP等模块。在主干网络中获得的3个特征层作为特征提取的输入部分,在网络的颈部进行特征融合。预测部分将检测头改进为Decoupled Head,利用SimOTA技术为不同尺寸的目标动态匹配正样本。虽然YOLOX已经是一个优秀的检测模型,但用它来检测无人机航拍图像还存在以下两个问题:

(1)无人机拍摄图像区域广,庸杂信息多,小目标数量多且密集,不利于提取特征信息,一些关键信息可能不会被模型所学习。

(2)在车辆检测中,目标信息是正样本,背景信息是负样本。由于无人机图像背景复杂,正、负样本数量不平衡,严重影响了模型检测的精度。YOLOX使用的损失函数是二元交叉熵损失函数,无法调整正负样本之间的平衡性。

2 网络的改进与优化

在高空无人机航拍图像中包含了大量小尺寸目标车辆且分布密集,小目标的特征表现不明显。此外,在背景复杂的航拍图像中,引入了更多无关的庸杂信息19,有效特征信息不易提取,导致目标检测的识别准确率低、漏检率较高。因此,本文提出了一种基于改进YOLOX网络的密集小目标车辆检测网络,其结构如图2所示,该网络主要由输入端、主干网络、颈部、头部4部分组成。为了弥补原始网络融合浅层信息的不足,在特征融合部分引入自适应空间特征融合模块,可以自适应地学习每个特征层上的权重参数,使重要特征信息在融合时占据主要地位。将坐标注意力机制嵌入网络的颈部,可以精确捕获位置信息和通道信息,有利于网络定位小目标。最后将二交叉熵损失函数替换为变焦距损失函数,用于改善样本数量不平衡的问题,提高YOLOX网络对密集小目标的检测性能。

2.1 ASFF模块

在小目标车辆的识别中,不同尺度的特征层所包含的语义信息不同。然而,在无人机航拍图像中,更多的特征信息集中在浅层网络中,在特征融合的过程中容易丢失。本文在颈部网络中使用ASFF模块代替原先的PANet模块进行特征融合,以缓解上述问题20,结构如图3所示。与原先的结构相比,ASFF结构使网络能够自适应地学习各个特征层上的权重,使重要特征信息在融合时占据主导地位。

ASFF包括特征调整和自适应融合两部分,特征调整是将其他尺度的特征图缩放到对应尺度的特征图,以保证特征融合时的尺寸不变性;在自适应融合时,将网络训练得到3个不同特征层的重要权重参数αβγ分别与各尺度的特征图相乘。以ASFF-1为例,其中X1X2X3是分别来自YOLOX路径聚合网络输出3个尺度的特征图,X21X31分别是X2X3经过特征缩放后生成与X1相同尺寸的特征层。然后将X11X21X31分别与对应的权重参数αβγ相乘后再相加输出Y1,通过式(1)进行融合计算:

Yij1=αij1Xij11+βij1Xij2I+γij1Xij3I

式中:Yij1为通过ASFF-1得到的新特征图;αij1+βij1+γij1=1αij1βij1γij10,1XijnI为经过上述相关操作得到的第I层特征图融合前的第n层特征图上(xy)处的特征向量。

2.2 坐标注意力机制

注意力机制在计算机视觉和深度学习中得到了广泛的应用,以提高网络的鲁棒性和泛化能力。在多种注意力形式中,通道注意力机制(SENet)21和CBAM22已被用于车辆检测的网络中,以提升网络的检测效能。SENet在通道维度进行特征提取,形成每个通道的加权值。CBAM使用两个独立的模块对特征进行细化。然而,两者在小目标检测领域表现不佳。因此,引入坐标注意力机制23,结构如图4所示,不仅获取了通道间信息,还考虑了方向相关的位置信息,有助于网络更好地定位和识别小目标。

坐标注意力机制包括坐标信息的嵌入和机制的生成两部分24。坐标信息的嵌入,通过对于输入维度为H×W×C的特征图,分别在水平方向和垂直方向用(H,1)和(1,W)的池化核进行平均分化对通道进行编码,产生C×H×1和C×1×W维度的特征图。计算公式如式(2)(3)所示:

Zchh=1W0iwxch,i
Zcww=1H0jhxcj,w

式中:Zchh表示高度为hc通道的输出;Zcww表示宽度为wc通道的输出。

坐标机制的生成,通过将上述生成的两个特征图在空间维度上进行堆叠,并使用1×1卷积进行降维和激活操作,使通道数由C降为C/r,其中r用于控制减少率,然后通过非线性操作对空间信息进行编码处理,生成维度为1×(W+H)×C/r的特征图m,其计算公式如式(4)所示:

m=δF1zh,zw

式中:F1为1×1的卷积变换;[zhzw]为堆叠操作;δ为非线性激活函数。

为了生成坐标注意力,在空间维度上通过Split操作将m分解成两个独立的单张量fhRC/r×H×1fwRC/r×1×W,再分别用两个卷积变换函数FhFw转换通道数,通过结合Sigmoid激活函数得到注意力向量ghRC×H×1gwRC×1×W。计算公式如式(5)(6)所示:

gh=σFhfh
gw=σFwfw

式中:FhFw为1×1的卷积变换;σ为Sigmoid激活函数,代表0-1的值,赋予重要度。

最后,对ghgw扩张、相乘后,分别作为注意力权重25。坐标注意力机制的输出公式可以写成式(7)

yci,j=xci,g×gchi×gcwj

2.3 优化损失函数

YOLOX使用BCE loss函数来计算对象的分类损失和置信度损失,使用IoU作为预测框回归的损失。在无人机拍摄图像中进行车辆目标检测时,会存在前后背景差别较大的问题,使得目标类与背景类处在极度不平衡状态。Varifocal loss函数可以缓解目标类和背景类之间数量不平衡产生的影响26。因此,本文用Varifocal loss函数代替BCE loss函数。BCE loss函数计算公式如式(8)所示:

LBCE=-logPt=-logR,      y=1-log1-R, y=0

式中:y=1为正样本;y=0为负样本;R为预测后的置信度。

BCE loss函数被广泛用在简单的检测和分类问题中,但它无法调和正负样本间的比例,因此,在正负样本数量差别较大的任务中表现不佳。焦点损失(Focal loss)函数可以改善目标类与背景类之间不平衡的问题。计算公式如式(9)所示:

Lf=-αt1-PtγlogPt=-α1-RγlogR,             y=1-1-αRγlog1-R,y=0

式中:R为目标类的预测概率;y为正负样本的类别,取值为1或0;α为可调比例因子;1-Rγ为目标类调制因子;Rγ为背景类调制因子,两者用于调整目标类与背景类间的平衡。

Focal loss能够使用加权的方法解决类别不平衡的问题。Focal loss采用平等的方法处理正负样本失衡的问题,而在实际的检测中,样本中的正例对预测效果的影响更为重要。Varifocal loss函数在Focal loss函数的基础上增加了一种动态加权运算,计算公式如式(10)所示:

Lvf=-qqlogR+1-qlog1-Rγ,q>0-αRγlog1-R,                                       q=0

式中:R为预测值,表示目标得分。q=0为背景类,q>0为目标类,对目标类,将正样本的q值设置为预测框和目标框的IoU值,否则设置为0。对背景类,所有目标的q值均设置为0。

Varifocal loss使用Rγ缩放因子降低负样本的损失贡献,但不会用同等的方式处理正样本,这主要考虑到正样本对检测效果的贡献更为重要。同时,为了动态调整正负样本之间的比例,还在损失函数中增添了可调比例因子α。Varifocal loss函数的引入可以提高对密集小目标的分类精度,缓解正负样本间的不平衡性27

3 实 验

3.1 实验环境

为保证实验的严谨性,所有实验均使用相同的环境运行,具体参数配置细节如表1所示。

3.2 数据集

以大疆御mavic 2 pro专业版作为本文图片数据的采集平台。该无人机搭载了哈苏L1D-20c相机,在精准识别、轨迹预测和高速跟随等方面具有较好的表现,并支持8 km距离控制、1 080 P高清图传、4K HDR视频拍摄及f/2.8~f/11可调光圈,可适应多种光照环境。利用高清数字图传技术,可以实时查看航拍画面,无人机及飞行控制界面如图5所示。

本文以重庆市典型的山地城市干道复杂交织区为数据采集对象,在无风良好的时间段,使用无人机在距离地面120~250 m的高空悬停拍摄车辆运行视频,在获得车辆运行视频之后,按照设定的适当帧率,提取图片后,并运用图片切割算法将分辨率为3 840×2 160像素图像分割为768×768像素进行标注。数据集共1 992张图片,包含汽车、货车、公共汽车3个类别的车辆,按照7:1:2的比例将车辆图片划分为训练集、验证集和测试集。其中每张图片包括了多个训练对象,且排列较为密集,更符合无人机航拍视角下的密集小目标车辆检测情况,部分数据集如图6所示。本文研究所用的数据是CQSkyEyeX 数据集(http:∥www.cqskyeyex.com)中用于训练图片的一部分。

3.3 评价指标

为了直观、全面地评价改进网络的性能28,本文采用目标检测任务中常用的评价模型性能好坏的指标,表2列出了常用的几种用于评估模型检测效果的指标。真正例(True positive, TP),即本就是正样本并且被正确识别为正样本的部分;真负例(True negative, TN),即本身是负样本被识别为负样本的部分;假正例(False positive, FD),即负样本被错误地识别为正样本;假负例(False negative, FN),即正样本被错误地识别为负样本。

3.4 网络训练

在模型训练过程中,所有参数设置均保持一致,所用图像经过Mixup及Mosaic处理后输入网络中,具体网络参数设置详见表3

3.5 结果分析

在模型训练中,改进YOLOX和原始YOLOX的损失曲线如图7所示。在图7(a)中可以看出,本文提出的改进网络的总体收敛速度优于原始网络,在解冻训练后,损失值收敛明显加快。最终的损失值更小,网络更稳定。从图7(b)可以看出,前100迭代分类损失值波动较大,改进网络的损失值在100轮次后的迭代中表现更低,原始网络的损失函数曲线存在较大畸变。图7(c)中,两模型的置信度损失在前期波动较大,改进网络的曲线后期没有剧烈波动,改进后的置信度损失收敛更快且具有更低的损失值。从图7(d)可以看出,在前50个迭代轮次中,两模型的收敛速度相对较快,随后两曲线趋于稳定波动,改进后的模型相对稳定,在解冻后两曲线损失值均呈现急速下降状态。

为了更清楚地分析每个改进模块对模型检测性能的影响,创建了4组消融实验29,并在相同的参数设置下迭代了200轮次,进行了验证实验。所得结果如图8所示,曲线显示了每添加一个模块后的mAP值的变化趋势,包括mAP@50和mAP@50_95。可以看出,mAP值在不同模块的相继添加后均呈现不同程度的提升,并在最后的解冻阶段mAP值继续上升。从局部放大图可以看出,相比原始YOLOX,本文提出的改进网络的mAP@50和mAP@50_95的值更突出,且在迭代周期内曲线具有更好的收敛性。

此外,通过表4可以更加直观地看出,在各模块加入后,各个子项的具体数值表现(mAP@50、mAP@50_95)。其中,Parameters表示网络内的参数总数,用于度量模型的大小,参数量的单位为M,检测结果的精度均为百分数。

对表中实验结果的分析表明:本文提出的改进YOLOX网络,具有最高的mAP值,相比原始网络,mAP@50和mAP@50_95分别提高了2.2%、1.21%。在不同结构加入原始YOLOX网络后,均出现了不同程度的性能提升,说明本文的改进模块均对小目标检测有一定的效果。

图9显示了原始YOLOX和改进YOLOX的精确度(Precision)、召回率(Recall)、F1测量值(F1_score)随着迭代次数变化的曲线。在前30个轮次,3个指标的数值急速增加,波动较大。随着迭代次数的增加,各项指标的数值增大放缓,曲线的形态较为平稳。图9(a)中,改进YOLOX网络的Precision在解冻后的第180轮次出现略微的下降,但最终改进网络的精确度高于原始网络。从图9(b)(c)可以看出,在解冻后,改进YOLOX网络的Recall、F1_score值均高于原始YOLOX网络。

改进的YOLOX网络的P-R曲线如图10所示,曲线和坐标轴包围的区域表示AP值。可以看出,3个目标的P-R曲线的包络面积都比较大,反映出AP值比较高。由于货车和公共汽车在数据集中的数量较少,它们的P-R曲线并不平滑。汽车在数据集中的比例很高,汽车的P-R曲线是连续和平滑的并且具有最大的包围面积。

为了检验本文改进网络对密集小目标车辆检测的有效性和先进性,本文进一步选取了具有代表性的单阶段目标检测模型SSD、YOLOv5和双阶段目标检测模型Faster R-CNN进行对比实验。实验结果如表5所示。由表5可以得出,在对密集小目标车辆的检测中,本文算法在参数量和Gflops增加较少的前提下,具有最高的mAP、Recall、F1_score,与其他算法相比mAP值提高了2.2%~28.7%,相较于其他算法具有一定的优越性。

同时,为了验证改进YOLOX算法在实际检测场景中的效果,选取了多张不同场景下的图像进行对比测试,测试图像均由无人机在不同高度拍摄得到,检测效果如图11所示。图11(a)(b)(c)(d)(e)分别为原始YOLOX算法、Faster R-CNN算法、SSD算法、YOLOv5算法和本文算法的可视化结果图。检测框中有预测目标的类别及其置信度高低,置信度越高表示算法的性能越好。图中蓝色四角形和蓝色矩形框表示模型未检测到的车辆,两者数量越少表示算法的检测性能越好,在检测效果较好的原始YOLOX算法和改进YOLOX算法结果图上添加局部放大图进行更详细的对比。每张图片均包含了大量的密集小目标车辆,并且在匝道上行驶的车辆角度也不尽相同。根据图中蓝色矩形框数量、面积大小以及四角形数量可以看出,在图11(b)(c)(d)中的每个场景下均出现了大量的漏检,改进后网络的车辆漏检数量显著减少,检测效果更好。此外,根据局部放大图可知,改进后的算法在检测小目标车辆时具有更高的置信度,并且可以很好地区分车辆类别。

综上所述,本文提出的改进YOLOX网络对无人机航拍视角下的密集小目标车辆具有较好的检测效果,优化后的算法降低了无人机图像中小目标车辆的漏检率,并且置信度得到了进一步提升,特别是在车辆密集分布的场景中,改善效果更显著。从直观数据和场景应用效果上验证了改进网络的可行性,更适合无人机航拍图像中密集小目标车辆的检测。

4 结束语

针对高空无人机拍摄图像的检测任务,原有YOLOX算法存在漏检率高、检测精度低等问题。本文对YOLOX网络进行了多方面的改进,最后提出了一种改进的YOLOX检测网络。首先,在颈部的末端加入自适应空间特征融合模块,充分利用不同尺度的信息,改善小目标的检测效果。其次,引入坐标注意力机制,有助于强化小目标的特征,使模型能够更准确地提取小目标车辆特征,从而提高目标检测的准确性。为了平衡正负样本之间的数量,将二元交叉熵损失函数替换为变焦距损失函数。从Loss可视化、mAP值、精确度、召回率以及实际场景检测效果等方面,对优化算法和原始算法训练得到的两模型进行详细的对比分析。实验结果表明:本文所构建的改进模型,相比于主流的双阶段和单阶段目标检测算法,mAP值提高了2.2%~28.7%,多项指标均为最高,具有一定的优势。实际场景下的检测可视化验证了本文算法对无人机航拍图像中密集小目标车辆的检测具有较好的检测效果。相比其他算法,改进后的YOLOX算法具有更低的漏检率以及更高的检测精度,对小目标车辆的位置检测也更准确,可以胜任无人机航拍图像中密集小目标的检测任务。

参考文献

[1]

Liu C, Yang D G, Tang L, et al. A lightweight object detector based on spatial-coordinate self-attention for UAV aerial images[J]. Remote Sensing, 2023, 15(1): No.83.

[2]

Liu W, Wang M, Zhang S, et al. Research on vehicle target detection technology based on UAV aerial images[C]∥IEEE International Conference on Mechatronics and Automation (ICMA), Guilin,China, 2022: 412-416.

[3]

李旭, 宋世奇, 殷晓晴. 基于目标空间分布特征的无人机航拍车辆实时检测技术研究[J]. 中国公路学报, 2022, 35(12): 193-204.

[4]

Li Xu, Song Shi-qi, Yin Xiao-qing. Research on real-time detection technology of UAV aerial photography vehicles based on target spatial distribution characteristics[J]. China Journal of Highway and Transport, 2022, 35(12): 193-204.

[5]

Girshic R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition,Columbus, USA, 2014: 580-587.

[6]

Girshick R. Fast R-CNN[C]∥IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015: 1440-1448.

[7]

Ren S, He K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[8]

Ge Z, Liu S, Wang F, et al. YOLOX: exceeding YOLO series in 2021[DB/OL]. [2023-06-27].

[9]

Wang Y, Li J, Chen Z, et al. Ships' small target detection based on the CBAM-YOLOX algorithm[J]. Journal of Marine Science and Engineering, 2022, 10(12): No. 2013.

[10]

Shen C, Ma C, Gao W. Multiple attention mechanism enhanced YOLOX for remote sensing object detection[J]. Sensors, 2023, 23(3): No. 1261.

[11]

赵振兵, 马迪雅, 石颖, 基于改进YOLOX的变电站仪表外观缺陷检测算法[J]. 图学学报, 2023(5):937-946.

[12]

Zhao Zhen-bing, Ma Di-ya, Shi Ying, et al. Appearance defect detection algorithm for substation instrument based on improved YOLOX[J]. Journal of Graphics, 2023(5): 937-946.

[13]

Yi K, Luo K, Chen T, et al. An improved YOLOX model and domain transfer strategy for nighttime pedestrian and vehicle detection[J]. Applied Sciences,2022, 12(23): No.12476.

[14]

Xiong C, Yu A, Yuan S, et al. Vehicle detection algorithm based on lightweight YOLOX[J]. Signal, Image and Video Processing, 2023, 17(5): 1793-1800.

[15]

Luo Q, Wang J, Gao M, et al. G-YOLOX: a lightweight network for detecting vehicle types[J]. Journal of Sensors, 2022, 2022: 1-10.

[16]

黄键, 徐伟峰, 苏攀, 基于YOLOX-S的车窗状态识别算法[J]. 吉林大学学报: 理学版, 2023, 61(4):875-882.

[17]

Huang Jian, Xu Wei-feng, Su Pan, et al. Window state recognition algorithm based on YOLOX-S[J].Journal of Jilin University (Science Edition), 2023, 61(4):875-882.

[18]

Han S, Yoo J, Kwon S. Real-time vehicle-detection method in bird-view unmanned-aerial-vehicle imagery[J]. Sensors, 2019, 19(18): No.3958.

[19]

刘军黎, 刘晓锋, 邱洁, YOLOX-IM: 一种无人机航拍视频的轻量化交通参数提取模型[J]. 国外电子测量技术, 2023, 42(1): 159-169.

[20]

Liu Jun-li, Liu Xiao-feng, Qiu Jie,et al. YOLOX-IM:a lightweight traffic parameter extraction model for UAV aerial video[J].Foreign Electronic Measurement Technology, 2023, 42(1): 159-169.

[21]

张稀柳, 张晓玲, 何敏军. 基于改进YOLOX-s的车辆检测方法研究[J]. 系统仿真学报, 2024(2): 487-496.

[22]

Zhang Xi-liu, Zhang Xiao-ling, He Min-jun. Research on vehicle detection method based on improved YOLOX-s[J]. Journal of System Simulation, 2024(2):487-496.

[23]

Peng H, Tan X. Improved YOLOX's anchor-free SAR image ship target detection[J].IEEE Access, 2022, 10: 70001-70015.

[24]

Luo X, Wu Y, Zhao L. YOLOD: a target detection method for UAV aerial imagery[J]. Remote Sensing, 2022, 14(14): No.3240.

[25]

Hu J, Shen L, Albanie S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

[26]

Woo S, Park J, Lee J Y, et al. CBAM: convolutional block attention module[C]∥European Conference on Computer Vision, Cham,Germany, 2018: 3-19.

[27]

Hou Q, Zhou D, Feng J. Coordinate attention for efficient mobile network design[C]∥IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, USA,2021: 13708-13717.

[28]

Zhang F, Cao W, Wang S, et al. Improved YOLOv4 recognition algorithm for pitaya based on coordinate attention and combinational convolution[J]. Frontiers in Plant Science, 2022, 13:No.1030021.

[29]

Xuan W, Gao J Z, Hou B J, et al.A lightweight modified YOLOX network using coordinate attention mechanism for PCB surface defect detection[J]. IEEE Sensors Journal, 2022, 22(21): 20910-20920.

[30]

Song Z, Huang X, Ji C, et al. Deformable YOLOX: detection and rust warning method of transmission line connection fittings based on image processing technology[J]. IEEE Transactions on Instrumentation and Measurement, 2023, 72: 1-21.

[31]

Song C Y, Zhang F, Li J S, et al. Detection of maize tassels for UAV remote sensing image with an improved YOLOX model[J]. Journal of Integrative Agriculture, 2023, 22 (6): 1671-1683.

[32]

Qu Z, Shang X, Xia S F, et al. A method of single-shot target detection with multi-scale feature fusion and feature enhancement[J]. IET Image Processing, 2022, 16(6): 1752-1763.

[33]

Wang G, Liu Z, Sun H, et al. Yolox-BTFPN:an anchor-free conveyor belt damage detector with a biased feature extraction network[J]. Measurement, 2022, 200: No.111675.

[34]

Kumar S, Jain A, Rani S, et al. Deep neuralnetwork based vehicle detection and classification of aerial images[J]. Intelligent Automation & Soft Computing, 2022, 34(1): 119-131.

基金资助

教育部人文社会科学研究青年基金项目(24YJCZH412)

国家自然科学基金项目(52172340)

重庆市教育委员会青年项目(KJQN202200710)

重庆市博士后科学基金项目(CSTB2022NSCQ-BHX0731)

重庆交通大学研究生科研创新项目(CYS23498)

AI Summary AI Mindmap
PDF (6831KB)

638

访问

0

被引

详细

导航
相关文章

AI思维导图

/