基于改进YOLOv7的林业害虫检测分类方法

朱强军 ,  刘趁心 ,  王杨

森林工程 ›› 2026, Vol. 42 ›› Issue (01) : 160 -169.

PDF (3404KB)
森林工程 ›› 2026, Vol. 42 ›› Issue (01) : 160 -169. DOI: 10.7525/j.issn.1006-8023.2026.01.015
农林智能装备与技术

基于改进YOLOv7的林业害虫检测分类方法

作者信息 +

Forest Pest Detection and Classification Methods Based on Improved YOLOv7

Author information +
文章历史 +
PDF (3485K)

摘要

为提高林业害虫识别精度,提出改进YOLOv7的林业害虫检测模型(GhostConv and SE attention enhanced YOLOv7,GS-YOLOv7)。首先,该模型将主干网络的传统卷积改用GhostConv轻量卷积,减小模型运行的参数量,提高模型效率;其次,通过添加挤压激励(squeeze excitation,SE)注意力模块,强化对特征不显著的害虫图像边缘的提取能力,进而提高网络的特征提取能力;再次,用内容感知的特征重组(content aware reassembly of features,CARAFE)轻量级算子取代传统采样方法,提高特征重建质量,解决尺度不匹配问题,增强检测性能;最后,在 Neck 网络引入协调坐标卷积(coordinate convolution,CoordConv)模块,利用其位置信息解决目标定位不准问题,提高模型对空间位置的感受能力和泛化能力。在6种常见的病虫数据集上进行试验,GS-YOLOv7模型的精确率达到93.15%,交并比阈值为0.5时的平均精度均值达到93.29%,比原模型的精确率、平均精度均值分别提高6.50%和2.09%;参数量和模型大小分别降至1.9×107个和38.17 MB,比原模型分别降低51.4%和46.53%。结果表明,GS-YOLOv7模型较原模型性能有显著提升,模型改进有效。

Abstract

In order to improve the accuracy of forest pest identification, a forest pest detection model (GhostConv and SE attention enhanced YOLOv7, GS-YOLOv7) based on the improved YOLOv7 is proposed. Firstly, the model replaced the traditional convolution in the backbone network with GhostConv lightweight convolution to reduce the number of parameters in model operation and improve the model efficiency. Secondly, by adding the squeeze excitation (SE) attention module, the ability to extract the edges of pest images with insignificant features was enhanced, thereby further improving the feature extraction ability of the network. Thirdly, the content aware reassembly of features (CARAFE) lightweight operator was used to replace the traditional upsampling method to improve the quality of feature reconstruction, solve the scale mismatch problem, and enhance the detection performance. Finally, the coordinate convolution (CoordConv) module was introduced into the Neck network, and its position information was utilized to solve the problem of inaccurate target positioning and improve the model's sensitivity to spatial positions and its generalization ability. Experiments were conducted on six common pest and disease datasets, the precision of the GS-YOLOv7 model reached 93.15%, and the mean average precision at an intersection over union threshold of 0.5 reached 93.29%. Compared with the original model, the precision and mean average precision increased by 6.50% and 2.09%, respectively. The number of parameters and the model size decreased to 1.9×107 units and 38.17 MB, representing a reduction of 51.4% and 46.53%, respectively, compared to the original model. Results indicate that the GS-YOLOv7 model demonstrates significant performance improvements over the original model, confirming the effectiveness of the model modifications.

Graphical abstract

关键词

林业害虫 / 目标检测 / YOLOv7 / GhostConv / SE注意力 / CoordConv

Key words

Forest pests / object detection / YOLOv7 / GhostConv / squeeze excitation attention / CoordConv

引用本文

引用格式 ▾
朱强军,刘趁心,王杨. 基于改进YOLOv7的林业害虫检测分类方法[J]. 森林工程, 2026, 42(01): 160-169 DOI:10.7525/j.issn.1006-8023.2026.01.015

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

中国林业遭受生物胁迫的有害生物种类有8 000多种,经常造成危害的有200多种1。林业害虫会降低木材质量,抑制林木的自然生长与更新,从而造成林业资源大量损失,对生态环境造成严重影响2。及时、准确地识别林业害虫,制定合理的防治方案并采取相应的防治措施,对降低害虫造成的林业经济损失、保护生态环境具有重要意义。害虫检测主要包含人工检测、传统的机器学习算法检测和深度学习算法检测。人工检测是通过人工捕捉昆虫进行识别和计数,但该方法实时性差、效率低;传统的机器学习算法主要是通过支持向量机、随机森林等模型对人工提取的害虫图像特征进行分类,从而实现害虫检测识别,但该方法鲁棒性和泛化能力差。深度学习算法检测是将快速区域卷积神经网络(faster region-based convolutional neural networks,Faster R-CNN)、单次多框检测器(single shot multibox detector,SSD)和YOLO(you only look once)等深度学习算法广泛地应用到林业害虫的检测识别。徐信罗等3提出了基于Faster R-CNN的松材线虫病的检测识别,有效确定了受害木的位置,但检测精度不高。林文树等4提出一种改进YOLOv4模型的受灾树木实时检测方法,提高树木落叶松毛虫虫害的识别精度与检测速度,但存在漏检的情况。戴佳兵等5提出了一种YOLOv5s-SE(you only look once v5s-squeeze-and-excitation)和通道剪枝的虫咬紫金蝉茶检测方法,该方法检测速度较快,但检测精度较低。周宏威等6提出了一种改进的YOLOv8检测梢斑螟虫蛀树木,但平均检测精度仍需要提高。苏佳杰等7提出了深度双线性转换注意力机制网络,实现了林业有害生物的识别,但准确率有待提高。综上所述,现有的林业害虫检测存在检测精度不高、识别速度慢等问题。

为提高林业害虫识别的精度和效率,本研究提出改进YOLOv7的林业害虫检测模型(GhostConv and SE attention enhanced YOLOv7,GS-YOLOv7)。该模型在主干网络中引入GhostConv轻量卷积代替传统卷积减小模型参数量,引入挤压激励(squeeze excitation,SE)注意力机制提高特征提取能力;在Neck网络中,引入CoordConv卷积模块提高模型的空间位置感知能力和泛化能力,采用内容感知的特征重组(content aware reassembly of features,CARAFE)轻量级算子提高模型检测能力。该模型通过结合轻量化网络、特征重组等方法在降低模型参数量的同时,提高检测识别精度。

1 材料和方法

1.1 数据集构建与处理

数据集采用百度飞桨与北京林业大学合作开发的AI识虫数据集(https://aistudio.baidu.com/ datasetdetail/51399)。该数据集包含测试集245张、验证集245张、训练集1 693张,共计2 183张图片。首先,通过程序将xml格式的数据集标签转换为符合YOLOv7需要的txt格式标签;其次,将数据集按照训练集(train)、验证集(val)、测试集(test)为7∶1.5∶1.5的比例进行分配;最后,使用labelimg对测试集标签进行YOLO格式标注。测试集(test)集无标签,YOLOv7在测试时需要使用测试集的标签,需要对测试集进行标签标注。数据集包含7类,训练集中每类昆虫标签、实例统计结果,见表1。通过检索数据发现,昆虫Linnaeus(序号为2)和昆虫linnaeus(序号为7)在标注文件是相同的,将二者合为一类,数据集变成6类,其中Linnaeus实例数变成了8 727张。

1.2 方法

1.2.1 YOLOv7模型

YOLOv78模型主要由4个网络层次组成,分别是输入层(Input)、主干网络层(Backbone)、颈部(Neck)、检测头(Head)。输入层主要是将输入的数据进行尺寸归一化处理;主干网络层主要是使用深度卷积来提取不同尺度的特征信息;颈部主要是通过特征融合算法,将不同尺度的特征图像进行特征融合;检测头即输出层,将预测出的锚框坐标、种类及置信度进行非极大值抑制(non-maximum suppression,NMS)后输出。YOLOv7网络结构包括ELAN(effective long-range aggregation network)、MP(max pooling)和SPPCSPC(spatial pyramid pooling,cross stage partial channel)等多个多融合卷积模块。每一个多融合卷积模块通过改变卷积核大小及卷积步长来实现图像多尺度特征提取。CBS模块由卷积层(convocation,Conv)、批标准化层(batch normalization,BN)和激活层(sigmoid linear unit,SiLU)组成;ELAN模块是由7个CBS构成的网络聚合结构,工作机理是改变特征提取的路径,从而使主干层得到的特征信息更加丰富,并通过这种方式提高模型的鲁棒性。MP模块是由3个CBS与一个最大池化层(MP)组成,通过对图像进行最大池化算法和下采样算法实现图像特征的深度提取。SPPCSPC模块的作用是扩大特征提取的范围,可以对不同大小的图像进行特征提取,使YOLOv7算法模型可以适应不同分辨率的图像,通过这种方式提升算法的泛化能力。SPPCSPC模块的工作方式是划分特征图像,将其一分为二,其中一部分使用传统卷积进行特征提取,另一部分通过池化操作提高特征提取的广度。

1.2.2 GhostConv轻量化卷积模块

传统的特征提取操作是多个卷积核堆叠在一起的操作,是对输入特征图的所有通道执行卷积映射,造成资源的浪费。传统卷积能生成丰富的特征,但计算速度更慢,且参数量更多。针对YOLOv7网络结构采用传统卷积的特征提取导致模型参数多的问题,有学者提出了网络优化ShuffleNet、MobileNet等轻量级卷积网络9-11。这些网络简单、有效且易实现,但卷积仍然占用大量的内存。因此,引入GhostConv模块代替传统卷积模块,降低模型的参数,轻量化模型,提高速度。传统卷积与GhostConv模块如图1所示。GhostConv先通过普通的卷积操作生成一部分特征图,对特征图进行一系列的线性变换后获得更多的特征图,将线性变换前后的特征图进行级联操作,生成输出特征图。GhostConv可以减少非关键图像特征的学习消耗,获得更丰富特征信息,从而降低参数量和计算量,提高YOLOv7目标检测算法在对害虫识别和分类的速度。

1.2.3 SE注意力

SE12注意力机制是一种通道注意力机制,可以学习使用全局信息来选择性地强调特征信息,并抑制无关的特征信息。SE注意力机制已被广泛应用于目标检测、图像分割等任务中。SE注意力模块如图2所示。

SE 注意力机制的基本思想是不同通道的权重应该自适应分配,由网络自己学习出来。将向量输入到2个全连接层中,以学习每个通道的权重。第1个全连接层被称为“压缩层”,将平均值向量压缩为更小的尺寸,以减少计算开销。第2个全连接层被称为“激活层”,使用Sigmoid函数或ReLU函数等激活函数来学习每个通道的权重。压缩层表达式zc

zc=Fsq(u)=1H×Wi=1Hj=1Wuc(i,j)

式中:WH分别为输入特征的宽和高;uc(i,j)为通道ij上的单一元素点。

激活层表达式s

s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z))

式中:σ为ReLu激活函数;g为全连接层的线性变化函数;δ为Sigmoid激活函数;W1为降维层的参数;W2为升维层的参数。

输出特征图x˜c公式为

x˜c=Fscale(uc,sc)=scuc

式中:uc为输入SE模块的第c个通道原特征图;sc为激励操作输出的第c个通道权重。

1.2.4 CARAFE上采样算子

轻量级上采样算子CARAFE13包含上采样核预测模块和特征重组模块。其中上采样核预测模块含有特征图通道压缩、内容编码、上采样核预测和上采样核归一化4个部分。

1)特征图通道压缩。将形状为H×W×C的特征图像X,用一个最小单位1×1的卷积核对特征图像进行通道压缩,将大小为H×W×C的特征图像通道数C个压缩到Cm个,通过通道压缩,减少后续的计算量。

2)内容编码和上采样核预测。对通道压缩后的特征图像,利用大小为kup×kup的上采样核来预测,将压缩后的通道数Cm输入上采样核,生成输出的通道数为σ2kup2,最后对生成的通道数执行三维扩展操作,得到与输出图像的大小为σH×σW×kup2匹配的上采样核。

3)上采样核归一化。通过softmax对第2步中得到的上采样核进行归一化,使其卷积权重和为1。

4)特征重组。对于上采样归一化得到的特征图像将其映射回输入图像X,将X中大小为X1×kup的区域基于该区域进行特征重组。CARAFE上采样算子结构如图3所示。

1.2.5 协调坐标卷积

传统卷积具备平移不变性即进行特征提取时不会改变图像的特征信息,在分类等任务中可以更好地学习本质特征,但在需要识别目标位置信息的监督学习任务中,传统卷积则效果不佳。为使得卷积能够对空间信息有更好的感知能力,Liu等14提出了协调坐标卷积(CoordConv),在输入特征图像后增加2个Coordinate通道,分别表示原始输入位置坐标(ij),再进行传统卷积,使得卷积过程可以感知输入特征图像的空间信息,增强其特征感知能力,提高模型对图像的特征信息的感知能力,能够使得网络根据不同任务需求学习平移不变性或者一定程度的平移依赖性。常规卷积与协调坐标卷积如图4所示。

综上所述,为提高林业病虫识别精度,提出了GS-YOLOv7模型。该模型在主干网络中引入GhostConv卷积和SE注意机制,提高林业害虫识别精度;在Neck网络中,用协调坐标卷积代替传统卷积,提升网络对于空间关系的理解和利用能力,从而提高网络的检测精度;用CARAFE上采样代替传统上采样,增大感受野并提升模型的泛化能力。在CBS模块中,GhostConv代替Conv,轻量化模型。GS-YOLOv7模型网络结构如图5所示。

1.3 试验平台和评价指标

1.3.1 试验环境与参数设置

验计算机的操作系统为64位Windows10专业版,CPU型号为Intel(R)Core(TM)i9-13900K,GPU为NVIDIA GeForce RTX4070Ti,显存大小为12 G。集成编译软件为Pychram社区版2023.1.3,CUDA版本为12.0,深度学习框架 Pytorch2.0,Python3.8。试验训练过程中采用随机梯度下降(stochastic gradient descent,SGD)优化器来进行优化,训练周期(epoch)为150,线程(workers)为8,批量大小(batch_size)为16,输入照片尺寸(images_size)为640,初始化学习率(lr0)为0.01。

1.3.2 试验评估标准

采用精确率(precision,P),召回率(recall,R)、平均精度(average precision,AP,式中为SAP)和平均精度均值(mean average precision,mAP,式中为SmAP)作为试验评价指标,从而衡量不同模型检测水果的精度。以上指标的公式为

P=TPTP+FP
R=TPTP+FN
SAP=01P(R)dR
SmAP=1ni=1nSAPi

式中:TP为正样例预测为正样例的数量;FP为负样例预测正样例的数量;FN为正样例预测为负样例的数量;n为数据集的类别数,i为当前种类编号;SAPi为第i类别的平均精度,其值越高,说明模型的检测效果越好;SmAP为平均精度均值。

2 结果与分析

2.1 不同注意力机制对比试验

为进一步验证SE注意力机制模块的性能,在相同的试验条件下,将SE、高效通道注意力(efficient channel attention,ECA)15、卷积块注意力模块(convolutional block attention module,CBAM)16分别嵌入到YOLOv7网络结构中,通过试验得到不同注意力的PRSmAP0.5、内存和速率值,结果见表2

表2可知,YOLOv7-SE模型的PSmAP0.5是所有比较模型中最高的,分别达到了87.58%和92.19%。YOLOv7-SE模型的PRSmAP0.5比原模型分别提高了1.93%、0.15%和0.99%,消耗内存略大,VFPS略低;比YOLOv7-ECA模型的PRSmAP0.5VFPS分别提高2.67%、1.53%、1.67%和6.3 帧/s,消耗内存略大;比YOLOv7-CBAM模型的PSmAP0.5VFPS分别提高4.68%、5.10%和12 帧/s,R略低,内存消耗相同。

2.2 不同卷积层对比

为验证CoordConv14模块对YOLOv7算法的作用,在相同的试验条件下,将协调坐标卷积(CoordConv)模块、部分卷积(partial convolution, PConv)17模块和动态蛇形卷积核(dynamic snake convolution, DSConv)18模块分别嵌入到YOLOv7算法中,并对3种卷积网络进行对比试验,不同卷积网络模型试验结果见表3

表3可知,YOLOv7-CoordConv模型的PSmAP0.5VFPS是所有比较模型中最高的,达到了90.07%、92.13%和151.5 帧/s。YOLOv7-CoordConv模型的PRSmAP0.5VFPS比原模型提高4.42%、3.01%、0.93%、1.9 帧/s,消耗内存略高;比YOLOv7-PConv模型的R略低,其他参数均占优;比YOLOv7-DSConv模型的内存略高,其他参数均占优。

2.3 不同模型对比试验

为验证GS-YOLOv7目标检测模型在害虫识别分类的检测精度,GS-YOLOv7模型对数据各种害虫识别精度见表4。由表4可知,GS-YOLOv7模型对6种害虫检测识别效果较优。与同系列的YOLOv5、YOLOv78、YOLOv9c19和MS-YOLOv720模型进行比较,不同模型试验结果见表5

表5可知,GS-YOLOv7模型与其他模型比较,识别精确率最高,达到了93.15%;RSmAP0.5略低于MS-YOLOv7模型,均优于其他模型;参数量和大小除YOLOv5模型外,均优于其他模型;模型处理速度略低于MS-YOLOv7和YOLOv7。综上比较,GS-YOLOv7模型比YOLOv5模型、YOLOv7模型和YOLOv9c模型有较大优势;与MS-YOLOv7模型比较,本试验模型在参数量及内存占用方面有较明显优势。

2.4 泛化试验

为验证本研究模型的普适性,采用IP102公开数据集进行试验,IP102数据集是一个用于昆虫、害虫识别的大规模基准数据集,包含水稻、玉米、小麦和甜菜等害虫,其中包含各类害虫共102种,被用于训练和测试害虫识别和检测模型。采用IP102数据集作为本实验的泛化试验数据,选取其中5类最具代表性的昆虫进行试验对比。试验证明,GS-YOLOv7模型比YOLOv7模型的SmAP0.5提高了3.8%。GS-YOLOv7模型具有较好的泛化性,识别精度高,在林业生产中能够及时识别害虫从而及时防治,对害虫防治具有实际应用意义。

2.5 消融试验

为验证GS-YOLOv7模型中不同的改进模块对模型的影响,同时也为了验证各个模块的有效性,进行消融试验。各个模块对YOLOv7的影响见表6

表6可知,与原模型比较,模型1的PRSmAP0.5VFPS分别提高3.42%、2.01%、0.93%和1.90 帧/s,消耗内存增加了1.84 MB;模型1的VFPS达到了151.5 帧/s,是所有模型中最高的;模块2的PSmAP0.5略有上升,消耗内存略有增加,VFPS略有下降;模型3、模型4、模型6、模型8、模型11、模型12、模型14和模型15的PRSmAP0.5均有不同程度的提高,消耗内存和VFPS均有不同程度的降低;模型3的R提高5.66%,达到92.86%,是所有模型中最高的,但VFPS只有122.5 帧/s,是最小的;模型15的PSmAP0.5分别提高6.50%和2.09%,达到了93.15%和93.29%,是所有模型中最高的;同时模型15消耗的内存只有38.17 MB,是所有模型中最小的;模型5、模型7、模型9、模型10和模型13的PR均有不同程度的提高,SmAP0.5VFPS均有不同程度的降低,模型5的消耗内存略有增加,其他模型均有降低。综上分析,本文改进方法对模型的参数均具有积极效果。

3 结论与讨论

为降低林业害虫造成的损失,提出GS-YOLOv7林业害虫检测模型。该模型将GhostConv代替常规Conv,减少了模型参数,降低了计算量,达到了轻量化模型,实现更高效的检测;通过引入SE注意力,增强不显著的特征提取能力,提高了模型特征检测能力;采用CARAFE上采样提高了特征重建质量;通过引入CoordConv提高了模型空间位置的感受能力以及模型泛化能力。试验结果表明,GS-YOLOv7模型比原YOLOv7模型的PRSmAP0.5分别提高6.50%、4.03%和2.09%,分别达到93.15%、91.23%和93.29%,消耗内存降低33.21 MB,只有38.17 MB,VFPS略有下降。该林业害虫检测模型与同类先进模型比较,该模型具有精度高、计算量低和泛化能力强等优点,可促进林业害虫检测及分类任务向信息化、智能化方向发展。

GS-YOLOv7模型在林业害虫检测任务中展现出性能优势,通过创新的网络架构设计在精度与计算效率之间达成了突破性平衡。但该模型在维持高精度表现的同时,VFPS出现轻微下降,主要归因于GhostConv等轻量化模块引入的推理性能开销。未来可从2个方面进行优化。第一,探索轻量化与推理速度的优化平衡,通过重构网络分支结构降低计算冗余;第二,可引入模型量化等前沿技术,在保证模型精度的前提下进一步提升推理效率,为实现实时林业害虫检测提供解决方案。

参考文献

[1]

郑加强,徐幼林,张慧春,.国内外林业有害生物防治靶标识别技术的研究与展望[J].林业科学202359(3):152-166.

[2]

ZHENG J QXU Y LZHANG H Cet al.Advances and prospects of target recognition techniques for forest pest control at home and abroad[J].Scientia Silvae Sinicae202359(3):152-166.

[3]

孟贵,刘叶菲,张旭峰,.1998—2018年我国林业有害生物灾情的时序分析[J].林业科学202258(7):134-143.

[4]

MENG GLIU Y FZHANG X Fet al.Sequential variation analysis of forest pest disasters in China from 1998 to 2018[J].Scientia Silvae Sinicae202258(7):134-143.

[5]

徐信罗,陶欢,李存军,.基于Faster R-CNN的松材线虫病受害木识别与定位[J].农业机械学报202051(7):228-236.

[6]

XU X LTAO HLI C Jet al.Detection and location of pine wilt disease induced dead pine trees based on faster R-CNN[J].Transactions of the Chinese Society for Agricultural Machinery202051(7):228-236.

[7]

林文树,张金生,何乃磊.基于改进YOLO v4的落叶松毛虫侵害树木实时检测方法[J].农业机械学报202354(4):304-312,393.

[8]

LIN W SZHANG J SHE N L.Real-time detection method of dendrolimus superans-infested Larix gmelinii trees based on improved YOLO v4[J].Transactions of the Chinese Society for Agricultural Machinery202354(4):304-312,393.

[9]

戴佳兵,宋春芳,凌彩金,.基于YOLOv5s-SE和通道剪枝的虫咬紫金蝉茶检测方法研究[J].河南农业科学202453(5):157-163.

[10]

DAI J BSONG C FLING C Jet al.Research on insect-bitten Zijin tea detection method based on YOLOv5s-SE and channel pruning[J].Journal of Henan Agricultural Sciences202453(5):157-163.

[11]

周宏威,纪皓文,吴羿轩,.基于 YOLOv8 算法改进模型检测梢斑螟虫蛀树木[J].森林工程202541(1):126-137.

[12]

ZHOU H WJI H WWU Y Xet al.Improve the detection model of tree decay by dioryctria based on the YOLOv8[J].Forest Engineering202541(1):126-137.

[13]

苏佳杰,张哲宇,徐嘉俊,.基于深度双线性转换注意力机制网络的林业有害生物识别方法[J].林业科学202359(2):121-128.

[14]

SU J JZHANG Z YXU J Jet al.Forest pest identification method based on a deep bilinear transformation attention mechanism network[J].Scientia Silvae Sinicae202359(2):121-128.

[15]

WANG C YBOCHKOVSKIY ALIAO H Y M.YOLOv7:Trainable bag-of-freebies sets new state-of- the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision And Pattern Recognition (CVPR),Vancouver,BC,Canada,August 22,2023.IEEE,2023:1063-6919.

[16]

ZHAO L LZHU M L.MS-YOLOv7:YOLOv7 based on multi-scale for object detection on UAV aerial photography[J].Drones20237(3):188.

[17]

ZHANG X YZHOU X YLIN M Xet al.ShuffleNet:An extremely efficient convolutional neural network for mobile devices[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition,Salt Lake City,UT,USA,June 18-23,2018.IEEE,2018:6848- 6856.

[18]

HOWARD A GZHU M LCHEN Bet al.MobileNets:Efficient convolutional neural networks for mobile vision applications[EB/OL].arXiv.1704.04861v1[cs.CV](2017-04-17)[2024-10-08].

[19]

HU JSHEN LSUN Get al.Squeeze-and-excitation networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence202042(8):2011-2023.

[20]

WANG J QCHEN KXU Ret al.CARAFE:Content-aware reassembly of features[C]// 2019 IEEE/CVF International Conference on Computer Vision (ICCV),Seoul,Korea (South),October 27 - November 02,2019.IEEE,2019:3007-3016.

[21]

LIU RLEHMAN JMOLINO Pet al.An intriguing failing of convolutional neural networks and the coordconv solution[EB/OL].arXiv.1807.03247v2[cs.CV](2018-12-03) [2024-11-05].

[22]

WANG Q LWU B GZHU P Fet al.ECA-Net:Efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),Seattle,WA,USA,June 13-19,2020.IEEE,2020:11531-11539.

[23]

WOO S, PARK JLEE J Yet al.CBAM:Convolutional block attention module[C]// Proceedings of 15th European Conference on Computer Vision (ECCV),2018:3-19.

[24]

KAUR A,RAJ A, JAYANTHI Net al.Inpainting of irregular holes in a manuscript using UNet and partial convolution[C]//2020 Second International Conference on Inventive Research in Computing Applications (ICIRCA),Coimbatore,India,July 15-17,2020.IEEE,2020:778-784.

[25]

QI YHE YQI Xet al.Dynamic snake convolution based on topological geometric constraints for tubular structure segmentation[C]// 2023 IEEE/CVF International Conference on Computer Vision (ICCV),Paris,France,October 01-06,2023.IEEE,2023:6047-6056.

[26]

WANG C YYEH I HLIAO H Y M.YOLOv9:Learning what you want to learn using programmable gradient information[EB/OL].arXiv.2402.13616v2[cs.CV](2024-02- 29) [2024-11-05].

[27]

刘双喜,刘思涛,屈彗星,.基于MS-YOLO v7的多尺度稻飞虱识别分类方法[J].农业机械学报202354(1):212-221.

[28]

LIU S XLIU S TQU H Xet al.Multi-scale rice planthopper image recognition and classification based on lightweight MS-YOLO v7[J].Transactions of the Chinese Society for Agricultural Machinery202354(1):212-221.

基金资助

安徽省高等学校省级质量工程项目(2022sx052)

安徽省高校自然科学研究重点项目(2023AH052459)

AI Summary AI Mindmap
PDF (3404KB)

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/