基于YOLOv8的林区行人目标检测研究

李琳琳 ,  孙海龙

森林工程 ›› 2025, Vol. 41 ›› Issue (01) : 138 -150.

PDF (7559KB)
森林工程 ›› 2025, Vol. 41 ›› Issue (01) : 138 -150. DOI: 10.7525/j.issn.1006-8023.2025.01.011
森工技术与装备

基于YOLOv8的林区行人目标检测研究

作者信息 +

Forest Pedestrian Detection Based on Improved YOLOv8

Author information +
文章历史 +
PDF (7740K)

摘要

为解决目标检测算法在林区行人检测中容易出现漏检及检测精度不足的问题,提出一种基于改进YOLOv8的林区行人目标检测算法。采用C2f_DWRSeg模块替换C2f模块,扩展初始卷积通道数,使网络能更高效地进行多尺度特征提取;提出一种重构的检测头,训练时增加卷积层的复杂性,推理时使用单分支结构,从而丰富网络的特征表示能力,并保持高效的推理速度;在特征融合前增加了卷积注意力机制模块CGA,减少计算量;使用Focaler-ShapeIoU损失函数代替CIoU损失函数,弥补边界框回归方法的不足,进一步提高检测能力。试验结果表明,与基准模型相比,改进后的算法mAP50提高了2%,mAP50-95提高了2.4%,模型的处理速度(FPS)提高了4.33%,证明改进后的算法能够更好地应用在林区行人检测的任务中。

Abstract

In order to solve the problem that the target detection algorithm is prone to leakage detection and insufficient detection accuracy in pedestrian detection in forest areas, a forest pedestrian target detection algorithm based on improved YOLOv8 is proposed. The C2f_DWRSeg module is used to replace the C2f module, and the number of initial convolutional channels is expanded so that the network can extract multi-scale features more efficiently. A reconstructed detector head is proposed to increase the complexity of the convolution layer during training, and a single branch structure is used in inference, so as to enrich the feature representation of the network and maintain efficient inference speed; add CGA, the convolution attention mechanism module, before feature fusion, to reduce the amount of calculation; use the Focaler-ShapeIoU loss function to replace the CIoU loss function to make up for the shortcomings of the boundary box regression method and further improve the detection ability. Experimental results show that compared with benchmark model, the improved algorithm mAP50 has increased by 2%, mAP50-95 has increased by 2.4%, and FPS has increased by 4.33%. It proves that the improved algorithm can be better applied to the task of pedestrian detection in forest areas.

Graphical abstract

关键词

林区管理 / 行人检测 / YOLOv8 / 注意力机制 / 损失函数 / 改进算法 / 深度学习 / 识别

Key words

Forest management / pedestrian detection / YOLOv8 / attention mechanism / loss function / improved algorithm / deep learning / recognition

引用本文

引用格式 ▾
李琳琳,孙海龙. 基于YOLOv8的林区行人目标检测研究[J]. 森林工程, 2025, 41(01): 138-150 DOI:10.7525/j.issn.1006-8023.2025.01.011

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

林业资源保护是林业资源管理的重要内容之一1,但人为的过度开发和破坏,导致森林资源流失严重。传统的林区管理模式效率低下,依赖于大量的人力和物力,准确率低时效性差,在对乱砍滥伐及人为造成的森林火灾进行实时监测方面存在不足。智慧林业作为一种先进的管理模式,基于人工智能、大数据、云计算和物联网等技术,为我国森林资源智慧监测和管理提供了科学的助力,所以研究基于人工智能的林区行人检测技术对提高我国智慧林业管理发展水平具有重要意义。

目标检测技术作为实现林区智慧监测的关键技术,主要分为手动提取特征的传统图像处理方法和自动提取特征的深度学习方法。林区植被茂盛,图像采集时容易出现遮挡,行人特征不完整的情况,加上盗伐者通常着装迷彩服,与背景色调相似度高,增加了检测难度2,这正是传统图像处理方法难以克服的问题。近些年来,随着人工智能的不断发展,基于深度学习的行人检测技术在应对复杂环境时,其检测精度与速度有了显著的进展。基于深度学习的检测算法主要分为2类:以YOLO3-5为代表的单阶段检测算法和以R-CNN6为代表的两阶段检测算法。现如今,YOLO系列算法以其稳定性、精准性受到越来越多的关注,有效解决了复杂环境背景下行人检测的技术难题。其中,张忠民等7引入了RepVGG网络模块替代原有3×3卷积加强密集场景特征信息的提取,并添加了ECA8注意力机制,有效提高了检测效果,检测精度达到了85.1%,但检测速度明显下降;贵向泉等9采用DepthSepConv卷积模块对网络进行轻量化处理,大幅度减少了参数量,但检测精度相对较低,只有82.3%;汤静雯等10重构检测头提升小目标行人检测精度,重建颈部网络BDR-FPN,缓解遮挡行人不敏感问题,获得更有效的特征图信息,检测精度提高了5.6个百分点,但对于远距离下的小目标检测效果仍不理想。基于深度学习的目标检测技术已经广泛应用在农林领域,但是针对林区行人检测识别的相关研究较少,也缺少用于林区行人检测的图像数据集。综合以上问题,本研究以东北林业大学林场为主要研究区域,采集大量的林区行人图像制作目标检测数据集,提出一种基于改进YOLOv8的林区行人检测算法,有效地降低了林区复杂背景以及小目标特征不敏感等干扰因素的影响,提升了林区行人目标识别的准确率,并保持较快的检测速度,较原模型的计算精度有较大提升,为人工智能在林业实现智慧监测提供算法基础,为林业资源高效科学地管理提供新思路和新方法。

1 研究方法

1.1 YOLOv8检测算法

YOLOv8是Ultralytics发布的YOLOv5的改进版本,YOLOv8的网络结构基于YOLOv5,采用了一种轻量级的目标检测网络结构,主要组成部分包括:主干网络(Backbone)、中间特征提取层(Neck)、检测头(Detect),其结构如图1所示。主干网络主要是用来提取图像特征,可以看作是一个深层卷积神经网络,并采用了C2f基础模块,使模型达到轻量化效果的同时有更加丰富的特征信息。中间特征提取层采用了PAN-FPN11的思想,采用自顶向下的连接方式,将不同尺度的特征图进行整合,进一步提取图像特征。检测头使用了类似于YOLOv5的结构,通过多层卷积和池化操作分别完成分类和回归任务,有助于提高模型的泛化能力和检测精度。

林区背景的复杂性,往往导致检测效果不佳,如:目标在图像中的特征体积小,表征模糊,极易出现漏检的情况;检测目标易被树木枝叶遮挡或衣着与林区环境相似,出现检测精度不高,导致误检的情况。本研究以YOLOv8n为基线模型,面向林区行人检测场景进行改进,提高检测模型的性能和效率。

1.2 改进算法

1.2.1 改进算法的结构

针对当前林区行人检测效果不佳的问题,做出改进后的网络结构如图2所示。改进如下。

1)将DWRSeg与C2f模块结合,构成新模块C2f_DWRSeg,设计了高效的两步残差特征提取方法,简化并加速了训练过程,提高检测精度。

2)重构检测头,将多分支、多尺度思想与重参数化思想结合,提高单一卷积的特征提取能力,并保持原有的推理成本。

3)在SFFP模块后嵌入CGA注意力机制,加速推理速度。

4)最后在这些改进的基础上,将Focaler-ShapeIoU损失函数代替原有的CIoU损失函数,进一步提高林区行人检测的精度。

1.2.2 C2f_DWRSeg模块

针对林区行人检测任务中的检测效果不理想的问题,引入一种多尺度特征提取的机制DWR(Dilation Wise Residual)12,使特征提取过程更高效和有针对性,从而提高林区行人检测模型的精度。其结构如图3所示(C代表卷积;D-3代表膨胀率为3的深度可分离卷积;D-5代表膨胀率为5的深度可分离卷积)。

DWR模块通过两步法提取来自不同尺度的上下文信息。第1步使用区域残差化,采用3×3卷积将特征图转换为包含不同区域大小的简化特征图,作为下一步的输入。第2步为语义残差化,将简化后的特征图通过不同尺度的深度可分离卷积对特征信息进行更细微的处理,即通过不同膨胀率 (D-n)的卷积分别对同一输入进行卷积操作(D为膨胀率(Dilation rates),n是不同的膨胀率数值)。最后将3种结果通过1×1的卷积拼接,并与原始输入特征图相加,形成残差连接15

本研究将DWR模块整合到C2f模块的Bottleneck位置,设计新的模块C2f_DWRSeg。该模块适用于林区这种复杂背景下的行人检测任务,从而实现林区行人检测模型整体性能的提升。其融合前后的对比结构如图4所示。

1.2.3 检测头模块

YOLOv8的检测头模块会产生过多的计算量和参数量,本研究引入多分支结构的模块DBB14, 重构检测头。DBB是基于ACNet的改进,具有重 参数化的特点,该结构由1×1卷积、K×K卷积和平均池化层等组合而成。在训练期间引入复杂的多分支结构,增强特征的融合和提取能力;训练完后将复杂的多分支结构转换合并为单一的卷积层,使模型的计算复杂度不会增加,保持了原有模型的 推理效率,该模块的使用满足了林区行人检测任务的实时性的需求。其结构如图5所示(BN层(Batch norm):通道正则化和线性尺放缩,AVG:平均池化层,K×K:卷积核大小为K×K,“K”代表卷积核的边长)。

1.2.4 CGA16注意力机制模块

在林区行人检测场景中,常常出现行人与背景(如乔木和灌木)颜色和纹理相似的情况,使检测难度增加。针对这个问题,引入CGA注意力机制充分聚焦复杂背景与行人之间的差异,提高检测精度,同时也可以解决计算量开销过大的问题,其原理如图6所示(K:键;V:值;Q:查询,是注意力机制的核心。通过线性映射将输入映射到Q、K、V空间中,来评估输入特征的内在关系和重要性,提取数据中的有用信息)。

CGA注意力机制基于改进传统多头自注意力,不是使用整个输入特征,而是让每个头处理输入的一部分,减少重复学习,具体的公式为

X˜ij=AttnXijWijQ,XijWijK,XijWijV

式中:Xij是输入特征Xi的第j个分割;WijQWijKWijV对应的是QKV的投影矩阵;QKV是实现自注意力机制的关键元素,用于计算注意力权重和输出特征。处理完各自的特征分割后,每个头的输出以级联的方式进行合并,即每个头的输出会被添加到下一个头的输入中,捕获和细化更多层次的特征信息。将所有处理后的特征串联起来,合并输出,具体公式为

X˜i+1=ConcatX˜ijj=1hWiP

式中:WiP是一个线性投影层,用于将合并后的特征转换回适合后续层处理的维度。

Xij'=Xij+X˜ij-1

每个头的输出X˜ij在传递给下一个头之前,会与下一个头的输入特征Xij相加,来加强特征间的信息交流。

通过引入CGA模块能够有效地利用不同特征分割的方法,同时通过级联操作增强不同头之间的信息交互,提高特征的多样性和丰富性,减少了计算冗余,从而大大提高了改进模型的计算效率,还增加了林区行人检测的精度。

1.2.5 Focaler-ShapeIoU损失函数

在以上改进的基础上,为了更好解决复杂林区背景下行人检测的问题,进一步提高检测精度,引入Focaler-ShapeIoU18-19损失函数替代原模型中的CIoU17损失函数,实现直接通过关注形状和尺寸的比例来优化边界框的定位精度。

Shape-IoU的公式为

LShape-IoU=1-IoU+distanceshape+0.5×Ωshape
IoU=BBgtBBgt
distanceshape=ha×xc-xcgtC22+ωb×yc-ycgtC22
Ωshape=t=ω,h1-e-ωtθ,其中  θ=4,ωω=ha×ω-ωgtmaxω,ωgtωh=wb×h-hgtmaxh,hgt

式中:IoU表示传统的交并比;B代表预测框;Bgt代表真实框(ground truth box);distanceshape表示考虑框的形状因素的距离项;xcyc为预测框中心的坐标;xcgtycgt为真实框中心的坐标;C为包含预测框和真实框的最小外接矩形的对角线长度;haωb分别为垂直和水平方向的加权系数;Ωshape表示形状损失项; ωωωh分别是宽和高的形状损失因子;ωh代表预测框的宽度和高度;ωgthgt是真实框的宽度和高度;θ为固定的比例系数(通常取值为4)。

Shape-IoU参数的示意图如图7所示(GT为真实标注框,Anchor为锚框)。

Focaler-ShapeIoU Loss公式为

LFocaler-ShapeIoU=1-LShape-IoUγ

式中:γ是调整系数(为正值),用于调整损失函数,当背景复杂或者目标与背景难以区分时,增大γ可以帮助模型更加关注那些与背景高度融合或者较难检测到的目标,使得损失函数更加敏感于那些预测不准确的边界框(即IoU值低的边界框)。

2 试验与分析

2.1 试验环境及训练参数

本试验中使用的操作系统是Ubuntu20.04, 基于PyTorch深度学习模型框架,具体试验环境 配置见表1。在训练阶段,试验中不采用预训练 权重,输入图像分辨率(imagsz)为640×640像素, 采用随机梯度下降(SDG)进行优化,初始学习率为0.01,总的训练轮数(epoch)为200,批处理的大小(batchsize)为16,工作线程(works)为8,其他参数采用默认值。

2.2 图像数据集

本研究使用自制数据集,数据集包含4 941张图片,采集地点为东北林业大学林场,拍摄时间分为春秋2个季节,在林场的3个点使用手机录制视频,将每段视频按每20帧进行帧提取,获取到的图像分辨率为960×544像素和720×1280像素,以“JPG”格式保存图像。该数据集具有丰富的光照变化和遮挡的特点,更加符合林区行人目标检测的要求。在本次试验中按照8∶1∶1的比例随机将数据集划分为训练集、验证集和测试集,即训练集3 952张图片,验证集495张图片,测试集494张图片。

2.3 模型评价指标

为了验证模型的性能,本试验选择精确率(Precision,Pre)、召回率(Recall,Rec)、平均精度(Average Precision,AP)、平均精确度(Mean Average Precision,mAP)、参数数量(Parameters)、计算量(GFLOPs)和每秒传输帧数(FPS)作为检测性能的评价指标。评价指标计算公式为

Pre=TPTP+FP
Rec=TPTP+FN

式中:TP(True Positive)表示正确检测到的目标,即算法检测到的目标与实际存在的目标相匹配;FP(False Positive)表示错误检测到的目标,即算法检测到了实际上不存在的目标,导致误报;FN(Fasle Negative)表示漏检到的目标,即算法未能检测到实际存在的目标,导致漏报。

AP=01prdr
mAP=1N1NAPi

式中:AP衡量的是模型在单一类别上的表现,计算的是Precision-Recall曲线下的面积;mAP是多类别检测任务中的关键评价指标,计算所有类别的平均值;N为类别数量,在该试验中,N=1,只进行了行人目标检测。

2.4 试验结果

2.4.1 卷积模块对比试验

为验证不同卷积模块对模型性能的影响情况,在YOLOv8n的基础上引入不同的卷积模块进行对比试验,试验结果见表2

表2可知,引入的C2f_DWRSeg 模块在各项性能指标上均有较强的表现。其准确率为94%、召回率为82.5%、mAP50达到90.1%、mAP50-95为65.2%,这些指标均为表中最高。尽管其参数数量和计算量稍高,但所带来的性能提升使得这种增加是合理的。为进一步探究改进模型的效果,利用Grad-CAM生成可视化热力图,如图8所示,该图能够直观显示区域关注度高低,特征越明显,对应位置热度越高。相较于其他卷积模型的热力图,能明显看出使用C2f_DWRSeg卷积的模型对特征信息更加容易捕捉,在关注点上表现得较为集中,检测精度也有所提高。通过各种数据的对比可以得出,替换的C2f_DWRSeg卷积更有助于进一步提高林区行人目标检测模型的性能。

2.4.2 检测头对比试验

为验证不同检测头对模型性能的影响情况,在改进模型的基础上引入不同的检测头进行对比试验,试验结果见表3

表3可知,Detect_DBB的mAP50是三者中最高的,表明Detect_DBB能够提供更准确的检测结果,在应对复杂场景或多样化目标时尤为重要。Detect_DBB的参数数量和计算复杂度也处于中等水平,在提供较好的检测精确度的同时也没有消耗极大的计算资源。而Detect_FRM 的mAP50是三者中最低的,并且参数数量极高,计算复杂度也较大。为深入探索改进模型的可解释性,通过可视化热力图的对比可以直观地观察到模型关注的特征区域的不同,如图9所示。相较于其他检测头模块,使用Detect_DBB模块的模型对小目标特征细节关注得更加具体,并减少了漏检问题,能准确识别并定位行人的位置。综上,Detect_DBB在确保较高的检测准确率的同时减少了漏检率,所以Detect_DBB模块比其他模块更适应于林区行人检测任务中。

2.4.3 注意力机制对比试验

为验证不同注意力机制对模型性能的影响情况,在改进模型的基础上引入不同的注意力机制进行对比试验,试验结果见表4

表4可知,DLKAttention和Biformer的参数数量较大,尤其是Biformer的计算量最高,FPS最低,说明该模块需要较大的计算资源,在实时性场景中并不适用。CGA的mAP50、mAP50-9是所有注意力机制中最高的,并且在维持较低的计算复杂度和参数数量的同时,提供了最高的FPS,证实了其在林区行人检测任务中的有效性。再通过可视化热力图,将所有注意力机制进行对比,如图10所示。由图10可以清晰地看出,引入DLKAttention和Biformer的模型都出现了漏检的情况,而引入CGA的模型没有出现漏检的情况,这表明模型对行人特征的多尺度感知能力较强,能有效识别到行人的关键特征,对于行人的空间位置有更高精度的预测。综上,改进模型选取的CGA模块在特征提取与识别定位方面有较好的表现,能为林区行人检测提供坚实的技术支持。

2.4.4 损失函数对比试验

为验证不同损失函数对模型性能的影响情况,在改进模型的基础上引入不同的损失函数进行对比试验,试验结果见表5

表5可知,本研究使用的Focaler-ShapeIoU损失函数与其他损失函数相比,其召回率、mAp50及mAp50-95最优,分别为82.3%、90.2%、93.6%。由图11更能直观的对比出Focaler-ShapeIoU损失函数的优势,通过使用该损失函数,明显提高了YOLOv8n的林区行人检测精度,证明了该损失函数对于在林区背景下的行人检测任务的精度方面具有有效性。

2.4.5 消融试验

为进一步验证本研究改进算法性能的有效性,通过多个模块组合的方式进行消融试验,见表6。表中“√”代表使用此模块在测试集上的试验结果。

表6可知,基于YOLOv8n模型,通过引入C2f_DWRSeg模块和Detect_DBB模块,mAP50和mAP50-95都得到了提升,有效增强了模型在特征提取上的能力,提高了平均检测精度,证明了在增强小目标检测方面的重要性。为了进一步优化性能,引入了CGA注意力机制,提升了mAP50、mAP50-95的同时,FPS也显著提高,计算复杂度仅有小幅上升,表明该注意力机制可以在不显著增加计算负担的前提下,实现性能的大幅提升。最后,采用改进的损失函数Focaler-ShapeIoU,虽然FPS略有下降,但模型的检测精度都有所提升,再次强调了损失函数在优化检测性能中的关键作用。综合所有这些改进,与基准模型相比,本研究提出的改进算法在mAP50和mAP50-95指标上总共提升了2%和2.4%,同时检测速度提高了11%。这些数据表明,通过引入创新的网络结构和模块,模型的综合性能得到了显著提升。这些改进不仅优化了精度和效率,还保证了实时性,使得该模型成为一个在多个方面都表现优越的解决方案。

2.4.6 不同模型对比试验

为了进一步验证本研究改进模型的性能,对当前主流模型在同一个数据集进行对比验,结果见表7

表7可知,表格中列出了不同版本的YOLO模型和改进模型的各项性能指标。YOLOv3与YOLOv7虽然检测精度表现不错,但需要的参数量太多且计算复杂度太大,需要一定的计算资源,而改进模型更加轻量化,并具有较高的处理速度。并且改进模型的mAP50优于YOLOv5、YOLOv6和YOLOv8n,能够较为全面地检测到目标,有较好的检测精度。由图12可以看出,改进模型的收敛速度以及平均精度都是优于基线模型YOLOv8n,说明了改进的有效性。综上,基于YOLOv8n的改进模型在精确度、速度和效率上取得了很好的平衡。其不仅能够提供高准确性的检测结果,同时也支持高速处理,在林区行人检测任务中表现最优。

本研究使用3组场景的图片对YOLOv8n和改进模型的检测效果进行对比,如图13所示。在第1组图片中行人较少,可以看出,YOLOv8n出现了漏检的情况,但是改进算法模型并未出现漏检的情况并且检测精度明显提高;第2组图片中,有远距离小目标,改进模型的检测效果比YOLOv8更出色,能敏锐捕捉到小目标行人或是被遮挡的行人;第3组图片中,行人较为密集,YOLOv8n出现了误检的情况,与改进模型相比,检测精度也不高。总体来说,改进模型对目标的检测效果普遍优于原始模型,证明本研究模型在林区行人检测方面能够提取更丰富的语义信息,性能更优越。

3 结论

依托于现代信息技术的智慧林业管理技术已成为实现森林资源智能化与精细化管理的必然选择。本研究以东北林业大学林场为研究区域,进行图像数据集采集工作,并基于YOLOv8n算法提出一种新的林区行人检测算法,来实现林区行人的检测识别。考虑到林区背景复杂、存在远距离和小目标行人等问题,对原YOLOv8n算法进行改进。具体改进如下。

1)为提高检测模型对林区行人特征的提取能力,提高检测精度,设计了C2f_DWRSeg模块替换YOLOv8n颈部网络中C2f模块。

2)为在保持原有计算量的同时提升对小目标的检测精度与准确度,引入了具有重参数化思想的DBB模块构建新的检测头网络。

3)为获取更准确的目标检测结果,通过级联的设计,提高特征的多样性,嵌入了CGA注意力机制。

4)为提高模型对目标的定位和识别能力,使用Focaler-ShapeIoU损失函数替换原模型中的CIoU损失函数。

试验结果表明,这种改进方案提高了林区行人检测模型的整体性能。改进模型的检测精度优于基线模型,mAP50达到了90.2%。检测速度明显提升,帧速率比原模型提高了11.11%,满足了实时性需求。下一步将继续优化算法,在提高检测精度和准确度的基础上,减少模型大小和计算复杂度,进而提升模型的泛化能力和水平。为林区的安全管理和科学规划提供有力的技术支持,推动林区管理向数字化、智能化迈进。

参考文献

[1]

冯蕊.智慧林业管理技术在林业资源管理中的应用研究[J].林业科技情报202456(2):137-139.

[2]

FENG R.Research on the application of intelligent forestry management technology in forestry resource management[J].Forestry Science and Technology Information202456(2):137-139.

[3]

刘宇航,马健霄,王羽辰,基于改进CornerNet-Lite的林区行人检测算法[J].林业工程学报20216(4):153-158.

[4]

LIU Y HMA J XWANG Y C, et al.Forest-pedestrian detection algorithm based on improved CornerNet-Lite[J].Journal of Forestry Engineering20216(4):153-158.

[5]

曾小山,张小波.基于YOLO-RW模型的机器视觉原木端面识别定位[J].森林工程202339(5):144-153.

[6]

ZENG X SZHANG X B.A log end face recognition and positioning model based on YOLO-RW[J].Forest Engineering202339(5):144-153.

[7]

肖维颖,王健,李文顺.松树株数识别的YOLOv5轻量化算法研究[J].森林工程202339(4):126-133.

[8]

XIAO W YWANG JLI W S.Research on YOLOv5 lightweight algorithm for pine tree strain identification[J].Forest Engineering202339(4):126-133.

[9]

JUAN TDIANA M CÓRDOVA EROMERO-GONZÁ- LEZ J A.A comprehensive review of YOLO architectures in computer vision: from YOLOv1 to YOLOv8 and YOLO-NAS[J].Machine Learning and Knowledge Extraction20235(4):1680-1716.

[10]

ZHANG WFU CXIE H, et al.Global context aware RCNN for object detection[J].Neural Computing and Applications202133(18):1-13.

[11]

张忠民,吴泽.基于改进YOLOv5的密集行人检测方法[J].应用科技202350(1):33-39.

[12]

ZHANG Z MWU Z.Dense pedestrian detection method based on improved YOLOv5[J].Applied Science and Technology202350(1):33-39.

[13]

WANG QWU BZHU P,et al.ECA-Net: efficient channel attention for deep convolutional neural networks[C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition,Sealttle WA,USA,2020:11531-11539.

[14]

贵向泉,刘世清,李立,基于改进YOLOv8的景区行人检测算法[J/OL].计算机工程1-11[2024-06-05].

[15]

GUI X QLIU S QLI L,et al.Pedestrian detection algorithm for scenic spots based on improved YOLOv8[J].Computer Engineering1-11[2024-06-05].

[16]

汤静雯,赖惠成,王同官.远距离情形下的改进YOLOv8行人检测算法[J/OL].计算机工程1-12[2024-06-05].

[17]

TANG J WLAI H CWANG T G,et al.Improved YOLOv8 pedestrian algorithm for long-distance person[J].Computer Engineering1-12[2024-06-05].

[18]

LIU SQI LQIN H,et al.Path aggregation network for instance segmentation[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA,2018:8759-8768.

[19]

WEI HLIU XXU S,et al.DWRSeg: rethinking efficient acquisition of multi-scale contextual information for real-time semantic segmentation[J].arXiv preprint arXiv:2022.

[20]

DING XZHANG XHAN J,et al.Diverse branch block: building a convolution as an inception-like unit[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition.Nashville,TN,USA,2021:10886-10895.

[21]

ZHANG LZOU FWANG X,et al.Improved algorithm for YOLOX-S object detection based on diverse branch block(DBB)[C]//2022 6th International Conference on Electronic Information Technology and Computer Engineering.2022:1624-1630.

[22]

黄海霞,李耀翔,张哲宇.基于ResNet的森林土壤碳含量近红外预测模型[J].森林工程202339(6):164-171.

[23]

HUANG H XLI Y XZHANG Z Y.A NIR prediction model for forest soil carbon content based on ResNet[J].Forest Engineering202339(6):164-171.

[24]

LIU XPENG HZHENG N,et al.Efficientvit: memory efficient vision transformer with cascaded group attention[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition.Vancouver,B,Canada,2023:14420-14430.

[25]

DU SZHANG BZHANG P,et al.An improved bounding box regression loss function based on CIOU loss for multi-scale object detection[C]//2021 IEEE 2nd International Conference on Pattern Recognition and Machine Learning (PRML),Chengdu,China,2021:92-98.

[26]

ZHANG HZHANG S.Shape-IoU:More accurate metric considering bounding box shape and scale[J].arXiv preprint arXiv:2023.

[27]

ZHANG HZHANG S.Focaler-IoU: more focused intersection over union loss[J].arXiv preprint arXiv:2401. 10525,2024.

基金资助

黑龙江省应用技术研究与开发计划项目(GA20A301-2)

AI Summary AI Mindmap
PDF (7559KB)

357

访问

0

被引

详细

导航
相关文章

AI思维导图

/