基于YOLOv8算法改进模型检测梢斑螟虫蛀树木

周宏威 ,  纪皓文 ,  吴羿轩 ,  赵鹏

森林工程 ›› 2025, Vol. 41 ›› Issue (01) : 126 -137.

PDF (12812KB)
森林工程 ›› 2025, Vol. 41 ›› Issue (01) : 126 -137. DOI: 10.7525/j.issn.1006-8023.2025.01.010
森工技术与装备

基于YOLOv8算法改进模型检测梢斑螟虫蛀树木

作者信息 +

Improve the Detection Model of Tree Decay by Dioryctria Based on the YOLOv8

Author information +
文章历史 +
PDF (13118K)

摘要

梢斑螟是一种严重危害针叶树种的害虫,严重影响针叶树的健康和生长。梢斑螟虫的幼虫以针叶树的叶片为食物,在针叶树木中建立巢穴,逐渐摧毁叶片组织,导致叶片变黄、褪绿,最终树木枯萎。此外,幼虫也可能侵蚀树木的树皮,导致树皮剥落和树干暴露,使树木易受其他害虫、病菌和自然元素的侵害,增加树木的脆弱性,降低其生存能力。为辅助地面治疗被梢斑螟虫蛀树木,采用YOLOv8s目标检测算法,实现对梢斑螟虫蛀树木的检测与识别。通过采用C2f-GAM和动态检测头建立模型(YOLOv8-DM),来提高YOLOv8s对于梢斑螟虫蛀树木的检测能力。试验结果表明,YOLOv8-DM能够有效地识别梢斑螟虫蛀树木,其平均精准度达到84.8%。与其他目标检测算法相比,YOLOv8-DM有更高的平均精准度。

Abstract

Dioryctria is a kind of pest that seriously harms conifer species and seriously affects the health and growth of conifer trees. The larvae of Dioryctria feed on the leaves of coniferous trees and build nests in coniferous trees. Gradually, they destroy the leaf tissues, causing the needles to turn yellow and eventually leading to the withering of the trees. In addition, larvae may also erode the bark of trees, resulting in bark flaking and trunk exposure, leaving trees vulnerable to other pests, germs and natural elements, increasing the vulnerability of trees and reducing their viability. In order to assist the ground treatment of trees eaten by Dioryctria, the YOLOv8s target detection algorithm was adopted to realize the detection and recognition of the trees eaten by Dioryctria. By using C2f-GAM and dynamic detection head to build a model (YOLOv8-DM), the detection ability of YOLOv8s against Dioryctria moth trees was improved. The experimental results showed that YOLOv8-DM could effectively identify Dioryctria moth trees with an average accuracy of 84.8%. Compared with other target detection algorithms, YOLOv8-DM has higher average precision.

Graphical abstract

关键词

梢斑螟 / YOLOv8s / 识别 / 检测 / 准确率 / 不同场景 / C2f-GAM / DyHead

Key words

Dioryctria / YOLOv8s / identification / detection / precision / different scenarios / C2f-GAM / DyHead

引用本文

引用格式 ▾
周宏威,纪皓文,吴羿轩,赵鹏. 基于YOLOv8算法改进模型检测梢斑螟虫蛀树木[J]. 森林工程, 2025, 41(01): 126-137 DOI:10.7525/j.issn.1006-8023.2025.01.010

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

当前,林业病虫害面临诸多严峻挑战。其中一个主要问题是病虫害的频发和扩散,这对森林生态系统和经济造成了重大影响。气候变化导致的环境条件变化,如温度升高和降水模式变化,使得一些病虫害的生存环境更加有利,其活动季节也可能延长,这进一步加剧了病虫害的发生频率和范围。此外,全球化和国际贸易的增加,也带来了病虫害跨境传播的风险,增加了对林业生态系统的威胁。管理林业病虫害的复杂性还体现在防控手段的有限性和成本效益问题上,尤其是针对新型病虫害的防治研究相对滞后,导致在面对新威胁时应对不足。因此,综合利用现代技术手段、加强跨区域、跨国界的合作,以及深入研究和推广有效的病虫害防控策略,将是解决当前林业病虫害难题的关键路径。传统计算机图像识别技术面临多种问题,这些问题不仅影响技术的应用广度和深度,也需要不断地研究与创新来推动技术的进步和应用的可持续发展1-3。随着计算机视觉技术的快速发展,深度学习方法显著提高了图像识别的效率和准确性,同时弥补了传统方法的不足4-7。这种先进的目标检测技术已被广泛应用于林业有害生物的识别,为该领域提供了有效的技术支持8-10

在农林业领域中,深度学习方法在害虫研究方面取得了多项重要进展。例如,孙鹏等11提出了结合目标检测网络和注意力机制的方法,用于大豆害虫的识别。佘颢等12对目标检测单发多框探测器(single shot multibox detector,SSD)模型进行了改进,采用特征金字塔替代多尺度特征映射,提升了模型对于小目标的检测性能。张博等13对YOLOv3模型进行空间金字塔池化改进,开发用于农作物害虫识别的算法,增强了模型的检测和泛化能力。陈娟等14利用残差网络和边缘检测算法,强化模型对于园林害虫的识别效果。Jiao等15提出了名为AF-RCNN的目标检测网络。在该网络的构建过程中,先是精心设计了特征融合模块,借助这一模块从害虫相关信息里提取出有效的特征。随后,引入了基于融合特征图的无锚区域建议网络(AFRPN),利用该网络来确定可能存在虫害的具体位置。最后,把无锚区域建议网络(AFRPN)和Faster R-CNN进行融合,进而设计出一个全新的目标检测网络AF-RCNN。以解决在识别昆虫中存在小目标的问题,提高模型对于小目标害虫的识别精准率。Liu等16提出一种PestNet端到端的目标检测网络,用于大规模实际检测林业害虫的监测任务。Li等17设计了粗网和细网的目标检测模型,用于实现对于害虫的高效识别。孙丽萍等18通过对YOLOv5目标检测模型进行改进,用于各种害虫的图像特征提取以及识别工作,有利于农林业病虫害的防治。Liu等19提出了改进的YOLOv3目标检测算法,通过实景拍摄番茄叶片虫害图片构建数据集并进行检测,通过边界框维度聚类和多尺度训练优化了模型的检测效率。

本研究采用YOLOv8s目标检测模型对于梢斑螟虫蛀树木进行检测与识别工作,并对YOLOv8s模型进行改进,提升对于梢斑螟虫蛀树木特征的识别效率,弥补在林业病虫害检测领域对于梢斑螟虫蛀树木的空白。

1 YOLOv8目标检测模型

YOLO算法一种目标检测技术,由Redmon等20提出,该算法在单个网络中实现了目标检测的任务,经过多次更新和改进,YOLOv8s具有速度快和高精度的优点,并且已经在PyTorch中实现。与其他YOLOv8目标检测模型相比,YOLOv8s在梢斑螟图像数据集当中拥有较好的检测精准度和较为更快的检测速度。因此,选择YOLOv8s目标检测算法作为基线模型来解决梢斑螟虫蛀树木数据集的检测问题,将有助于提升林业病虫害的防治效率。

1.1 YOLOv8原理

YOLOv8是由Ultralytics团队开发的基于深度学习的实时目标检测算法,旨在提供高效、准确和易于使用的解决方案。该算法采用单阶段检测器架构,整合了轻量级骨干网络和高效的检测头部,实现了快速的目标检测和定位。YOLOv8可以根据需求进行定制和扩展,使得模型能够更有效地应对复杂场景下的梢斑螟虫蛀树木检测任务,提高了整体的性能表现和实用价值,如图1所示。YOLOv8的主干类似于YOLOv5的主干,不同点是将C3换成了C2f,以及将第一个Conv层设置为kernel size等于3,stride为2。而C2f相比于C3在YOLOv8中使网络更加轻量并且可以获取更加丰富的梯度流,另一方面,YOLOv8的主干采用快速空间金字塔池化(spatial pyramid pooling-fast,SPPF),通过将空间金字塔池化(spatial pyramid pooling,SPP)进行修改,在保证检测能力的同时,减少计算量,提高计算效率,接下来,将输入信息的结果进行张量拼接。颈部网络采用了PANet,这一结构整合了不同层次的图像特征。PANet按照自顶向下的顺序,聚合了各个CSP网络顶部的特征输出,并在预测阶段使用了CIOU Loss+DFL的回归损失形式。DFL(distribution focal loss)通过将框的位置建模成通用分布,帮助网络更快速地聚焦于目标周围的特征,增强这些特征的权重。DFL(式中记为DFL)的公式为

DFLSiSi+1)=-((yi+1-y)log(Si )+(y-yi )log(Si+1))。

式中:Si 为模型预测输出的与目标分布相关的概率值;Si+1Si 类似,为相邻的预测概率值用于后续与真实值关联计算;yi 为预先设定的离散区间边界值或锚定值界定不同区间范围;yi+1yi 类似,为是相邻的区间边界值,用于衡量与真实属性值所在区间关系。

DFL通过交叉熵优化最接近标签y的左右2个位置的概率分布,使网络快速集中在目标位置附近。其学习到的分布理论上接近真实浮点坐标,并使用线性插值权重来处理整数坐标距离。

1.2 改进YOLOv8s算法

本研究对YOLOv8s网络进行改进,增强其处理复杂的视觉场景能力。通过增强特征的全局感知能力和通道之间的动态关系,这些模块使得网络能够更好地适应各种复杂的场景变化,从而提高了模型在现实世界中的适应性和鲁棒性。

1.2.1 引入C2f-GAM

C2f-GAM模块将全局注意力机制(GAM)与C2f整合在网络架构中。全局注意力机制是一种整合全局信息的强大工具,可使神经网络掌握输入数据中的总体结构和上下文线索。另一方面,C2f是一种深度卷积神经网络,由CSP(跨阶段部分)结构和Darknet53网络组成21,旨在通过一系列卷积层和池化层逐步提取图像中的低级、中级和高级特征,专为物体检测任务而设计,C2f-GAM模块的示意图如图2所示。

向C2f-GAM模块发送特征信息后,将进行一系列操作。首先,输入特征“x”通过卷积层进行转换,以促进通道扩展。随后,生成的特征被分成2部分:一部分直接进入2个Bottleneck-GAM模块,而另一部分则被保留下来。通过卷积和激活函数等操作,这些特征将在Bottleneck-GAM模块中进一步学习和提取。然后,对合并的特征进行全局平均池化,即对每个通道的特征进行平均,得出一个单一的全局特征值。最后,利用GAM的通道关注机制来计算每个通道的关注权重。利用这些注意力权重来权衡合并后的特征,处理后的特征随后与原始特征融合,并通过卷积层进行传播,以实现通道转换。值得注意的是,在主干网络中,有2个C2f被替换为C2f-GAM,以增强模型的检测能力。

1.2.2 引入动态注意力检测头

使用DyHead(dynamic detection head)22对网络检测器进行替换。首先,其允许动态地调整感受野的大小,这有助于网络更好地适应不同尺度的目标,从小到大的物体都能更有效地检测;其次,DyHead促进了多尺度特征的融合,提高了网络对于不同大小目标的检测性能,此外,其还有助于抑制虚警,减少了对背景区域的误检,从而提高了检测的精度;最后,DyHead的动态性质增强了网络的鲁棒性,使其能够更好地处理复杂场景和各种挑战性情况,从较浅的特征图融合而来的特征图具有更强大的语义信息和准确的位置信息。图3显示了DyHead的工作原理。在YOLOv8s模型中,骨干网络通过横向、空间和通道3个维度(L、S、C)输出。YOLOv8s模型的检测头被改进为能够进行规模感知的动态检测头(DyHead),其注意力函数计算公式为

WF=πCπSπLFFFF

式中:πC为任务感知注意力;πS为空间感知注意力;πL为尺度感知注意力; F 为特征向量。

通过在3个特定维度上增加自注意力机制,使检测头针对梢斑螟虫蛀树木特征有更强的检测能力,提高算法对小目标的检测效果。计算尺度感知注意力、空间感知注意力和任务感知注意力的公式为

πLFF=σf1SCSCFF
πSFF=1Ll=1Lk=1Kwl,kFl;pk+Δpk;cΔmk
πCFF=maxα1FFC+β1F,α2FFC+β2F

式中:σ为激活函数;f为变换函数;pk为位置;Δpk为位置偏移;Δmk为额外权重;K为关键点数;α为注意力权重系数;β为加权协调;FC 为加权后的特征图。

引入尺度感知注意力,根据不同尺度的语义重要性进行动态特征融合。采用线性函数f(·),近似于1×1卷积层,并结合hard-sigmoid函数σx)=max(0,min(1,x+12))。空间感知注意力模块基于特征融合,关注空间位置与特征层次的一致性判别区域。利用可变形卷积实现注意力学习的稀疏化,聚合同一空间位置的跨层次特征。任务感知注意力模块动态开启和关闭,以支持不同任务需求。

2 结果与分析

2.1 改进YOLOv8s目标识别模型

该模型在工作流程中分为2个关键阶段:训练和测试,如图4所示。在训练阶段,模型利用大量的训练数据集进行学习和优化,以便能够准确识别和定位梢斑螟虫蛀树木的图像特征。这一过程中,模型逐渐调整内部参数和权重,以最大化对害虫的检测准确性和鲁棒性。而在测试阶段,经过训练的模型被应用于实际图像中,用于检测和识别输入图像中可能存在的梢斑螟虫蛀树木特征。模型会对每个检测到的虫蛀树木位置进行预测得分处理,并将这些预测结果直观地呈现在输出图像上。这种可视化展示有助于用户理解模型的检测能力和结果,同时为进一步的分析和决策提供支持。通过这种训练和测试的交替过程,模型不断优化自身,以应对不同环境下的复杂挑战,从而提高对梢斑螟虫蛀树木的检测效果和应用价值。

2.2 数据集构建

本研究在黑龙江省齐齐哈尔市新江实验林场利用无人机拍摄4 638张照片,展示了不同地区和光照条件下梢斑螟虫蛀树木的详细情况。为了准确标定每张照片中的虫蛀树木,使用标记工具labelimg,通过矩形框选出目标,并为每个框选的虫蛀树木标注了相应的类别信息,这些标记数据以txt格式保存。

为了确保训练出的模型能够在不同场景下有效运行,按照7∶2∶1的比例将数据集分为训练集、测试集和验证集。这一步骤是为了在训练过程中验证模型的性能,并在训练结束后评估其在新数据上的泛化能力,如图5所示。通过这些详细步骤和严格的数据管理,确保了模型在实际应用中能够达到高效准确地检测和识别虫蛀树木。

2.3 评价指标

采用精确率(Precision)、召回率(Reccall)和平均精确率(Average Precision)作为主要评价指标,这些主要的评价指标所使用的不同样本的定义见表1

精确度(Precision,式中记为Precision)表示预测为正样本且正确的比例;召回率(Recall,式中记为Recall)表示预测为正样本且正确的比例与所有真正为正样本的比例;平均精准度(AP,式中记为AP)是Precision和Recall围成的曲线下的面积,其计算公式分别为

Precision=TP/(TP+FP)×100%
Recall=TP/(TP+FN)×100%
AP=01Precisiond(Recall)

式中:TP为真正例;FP为假正例;FN为假负例。

2.4 YOLOv8-DM算法试验与分析

本研究通过增加动态检测头来提高YOLOv8s对于虫蛀树木的检测精准度。同时采用C2f-GAM关注图像中的局部信息和全部信息来保证下游的任务准确性,如图6所示。

基于YOLOv8s模型的基础上,通过使用不同模块的试验比较,验证了用C2f-GAM代替原C2f的优点,试验结果见表2。由表2可以看出,采用C2f-GAM代替原YOLOv8s的C2f,检测平均精确度提升了2.1%。这是因为C2f-GAM通过全局注意力机制能够更好地捕捉和提取在光照不充分环境下的微弱特征,使模型能够更准确地识别目标;通过全局特征关注,可以有效过滤掉不相关的背景信息,集中注意力在目标物体上,从而提高检测的精度;将动态检测头(DyHead)代替原网络中的检测器,平均精确度提升了1.3%。DyHead能够从不同尺度的特征图中提取和融合信息,使模型在处理不同大小的目标时表现更佳。这种多尺度特征聚合机制使得模型在检测多目标时都能保持较高的准确度。特别是针对梢斑螟虫蛀树木的检测任务,在光照不充分的环境下,目标物体的特征可能不明显。C2f-GAM通过全局注意力机制,可以更好地捕捉和提取这些微弱的特征,使模型能够更准确地识别目标。通过将2种改进方法结合,YOLOv8-DM模型在各种复杂环境下对梢斑螟虫蛀树木特征的检测性能显著提升,平均精准度提高3.7%。

根据表2数据,YOLOv8-DM在参数量和计算量方面具有明显优势。其参数量为10 862 127,少于YOLOv8s和YOLOv8s+C2f-GAM,提升了检测效率。其计算量为28.3,虽略高于YOLOv8s和YOLOv8s+DyHead,但保持较好的平衡。结合优异的精确率、召回率和平均精准度,YOLOv8-DM实现了高效计算与出色性能的理想平衡,增强了在光照不充分和背景复杂环境下的检测能力,有效识别梢斑螟虫蛀树木,提升了YOLOv8s模型的整体性能,适用于实际应用。

本试验旨在通过替换C2f中的不同注意力机制,系统地评估这些注意力机制对模型性能提升的有效性。首先,采用多种常见的注意力机制,并将其分别集成到C2f模型中。然后,通过一系列试验,对比不同注意力机制下模型的性能指标。从而为进一步说明C2f-GAM模型在实践中的优势。

本试验旨在验证C2f-GAM的有效性。通过替换注意力机制,发现C2f-BiFormer使平均准确度达到82.0%;C2f-MHSA的设计使平均精准度达81.6%;C2f-CBAM使平均精准度达82.6%。而本研究设计的C2f-GAM平均精准度达到83.2%。根据表3的试验结果,C2f-GAM在处理图像问题方面表现出色,平均精准度达83.2%,显著提升了模型检测性能,特别是在应对不同光照条件下的图像处理时表现尤为优异。本研究还通过热力图直观展示了改进后的C2f模型关注点的差异。

图7展示了不同改进C2f模块生成的热力图结果的比较分析。热力图是一种用于生成类激活热图的技术,描绘输入图像对输出预测的贡献分布。在这些热图中,红色更明显和更深的位置表示在输入图像中的相应位置具有更高的响应和对网络的更大贡献。

图7可知,本研究通过热力图的方式展示不同改进C2f模块在识别梢斑螟虫蛀树木时的关注点位置。试验结果表明,不同改进模块在特征关注方面存在显著差异。YOLOv8s+C2f-BiFormer在图像特征信息的关注方面存在不足,其对图像中关键特征的识别不够全面。这可能是由于其在聚合特征时存在信息丢失,从而导致对目标特征的关注度不足。相比之下,YOLOv8s+C2f-MHSA能够关注更多的特征信息,表现出更好的特征覆盖能力。该模块通过多头自注意力机制,能够在更大范围内进行特征交互,捕捉到更多的上下文信息。然而,其在处理复杂特征时仍存在一定的局限性,未能完全实现对所有重要特征的关注。YOLOv8s+C2f-CBAM在图像关注度上有所提升,但依然未能达到最佳的全面性。尽管其通过通道和空间注意力机制,增强了对特征图的关注,但在细节特征上仍存在不足,未能完全覆盖所有关键点。本研究采用的YOLOv8s+C2f-GAM在特征关注度方面表现出色,能够更全面地关注图像中的特征信息,从而提供更准确的识别结果。该模块通过融合全局和局部的特征信息,显著提高了模型对重要特征的响应能力,使其在处理复杂图像时表现尤为出色。

通过对比上述4种改进C2f模块的表现可以看出,YOLOv8s+C2f-GAM在处理复杂图像特征时具有显著优势,这也为梢斑螟虫蛀树木的自动识别提供了更可靠的技术支持。这些发现不仅展示不同改进模块的优劣,还为在相关领域的研究和应用提供了重要的参考依据。通过深入分析各模块的热力图表现,可以更好地理解不同注意力机制对模型性能的影响,从而推动更有效的模型改进和应用创新。

通过改进的YOLOv8-DM可以识别出梢斑螟虫蛀树木在图片中的位置,在光照充足的情况下梢斑螟虫蛀树木识别精准度可以达到80%以上,如图8所示。在光照不充分的情况下通过采用2种改进方式可以让模型识别精准度也在80%及以上,如图9所示。

图8可知,通过改进的YOLOv8-DM模型可以准确识别梢斑螟虫蛀树木的位置,在光照充足的情况下,该模型的识别精准度可达80%以上,其能有效捕捉目标特征并应对干扰环境。由图9可知,添加C2f-GAM模块后,YOLOv8s模型在光照不足的情况下检测精准度提高至80%,证明了其在复杂背景下的优势。此外,DyHead通过多尺度特征聚合,进一步增强了模型在多目标上的表现,提高了不同光照条件下的鲁棒性和准确性。试验证明,YOLOv8-DM模型在多种光照条件下均能保持高精度检测,使YOLOv8-DM模型在识别梢斑螟虫蛀树木方面达到了更高的平均精准度,有效解决了漏检问题。

2.5 不同算法性能比较

试验使用NVIDIA GeForce RTX 3060 GPU、PyTorch:1.12.0、CUDAToolkit:11.6、cuDNN:8.3.2。具体的训练参数设置以及不同模型性能详见表4

本研究对YOLOv8-DM目标检测算法、YOLOv5目标检测算法、YOLOv7目标检测算法和Faster-RCNN目标检测算法在梢斑螟虫蛀树木测试集上进行了检测和识别,并展示了在不同指标下的详细结果。由表4可以观察到,本研究的YOLOv8-DM算法在精度方面表现出色,具有92.9%的精确率,同时在召回率方面取得78.0%,最终实现84.8%的平均精准度。与其他算法YOLOv7、YOLOv5和Faster-RCNN相比,该模型显示出更高的精准率、召回率和平均精准度,这意味着YOLOv8-DM在识别虫蛀树木方面具有更出色的性能。

总之,YOLOv8-DM算法的性能在各方面均优于其他算法,这使其非常适合作为梢斑螟虫蛀树木检测与识别的首选算法,为梢斑螟虫蛀树木的检测与识别提供了有力支持,试验结果如图10图11所示。

本试验采用几种经典的目标检测模型与本研究提出的YOLOv8-DM模型进行对比。经典模型包括Faster R-CNN、YOLOv7、RT-DETR、YOLOX以及YOLOv5,这些模型在过去的研究中已经被广泛应用和验证。试验结果表明,在多个评估指标上,YOLOv8-DM的表现均超过了对比模型,尤其是在平均精准度(AP)和召回率(Recall)方面,取得了显著的提升。此外,在实际检测任务中,YOLOv8-DM对于漏检问题有了很大的改善。传统模型在面对复杂背景或多目标时,往往会出现漏检的情况,而YOLOv8-DM通过改进的网络结构有效地降低了漏检现象。YOLOv8-DM采用了多尺度特征融合技术,使得模型能够更好地捕捉不同尺度的目标,同时还引入了注意力机制,增强了模型对复杂场景中目标的检测能力。总的来说,本研究提出的YOLOv8-DM不仅在试验室环境下表现优异,在实际应用中也展示出了强大的鲁棒性和可靠性。该模型的创新设计为未来的目标检测研究提供了新的思路和方法,具有重要的理论意义和应用价值。

3 结论

本研究引入基于YOLOv8s算法改进的YOLOv8-DM模型,专用于梢斑螟虫蛀树木的检测与识别任务。通过试验结果验证,YOLOv8-DM模型在准确性和性能方面明显优于Faster R-CNN、YOLOv7、RT-DETR、YOLOX以及YOLOv5算法。未来的研究方向涵盖几个重要的方面:首先,需要扩展梢斑螟虫蛀树木数据集,以进一步提升模型的训练和泛化能力;其次,将深入探索虫蛀树木的检测技术,优化模型以应对更复杂的实际场景,同时,持续优化算法,特别是在提高检测精度和识别能力方面进行探索;最后,研究模型对梢斑螟引起的虫蛀树木图像的识别能力,以增强模型的全面性和适应性。这些努力将有助于推动梢斑螟虫蛀树木检测技术的进一步发展,为林业管理和保护工作提供更为有效的支持。

参考文献

[1]

李昊,刘海隆,刘生龙.基于深度学习的柑橘病虫害动态识别系统研发[J].中国农机化学报202142(9):195-201,208.

[2]

LI HLIU H LLIU S L. Research on dynamic identification systems of citrus diseases and pests based on deep learning[J].Journal of Chinese Agricultural Mechanization202142(9):195-201,208.

[3]

胡嘉沛,李震,黄河清,采用改进YOLOv4-Tiny模型的柑橘木虱识别[J].农业工程学报202137(17):197-203.

[4]

HU J PLI ZHUANG H Q,et al.Citrus psyllid detection based on improved YOLOv4-Tiny model[J].Transactions of the Chinese Society of Agricultural Engineering202137(17):197-203.

[5]

WANG JLI Y EFENG H L,et al.Common pests image recognition based on deep convolutional neural network[J].Computers and Electronics in Agriculture2020179:105834.

[6]

XIAO D QFENG J ZLIN T Y,et al.Classification and recognition scheme for vegetable pests based on the BOF-SVM model[J].International Journal of Agricultural and Biological Engineering201811(3):190-196.

[7]

任妮,鲍彤,沈耕宇,基于深度学习的细粒度命名实体识别研究——以番茄病虫害为例[J].情报科学202139(11):96-102.

[8]

REN NBAO TSHEN G Y,et al.Fine-grained named entity recognition based on deep learning: a case study of tomato diseases and pests[J].Information Science202139(11):96-102.

[9]

罗洪斌,岳彩荣,张国飞,机载激光雷达在不同区域尺度森林叶面积指数反演中的应用[J].西部林业科学202150(4):33-40.

[10]

LUO H BYUE C RZHANG G F,et al.Application of airborne LiDAR in inversion forest leaf area index at different regional scales[J].Journal of West China Forestry Science202150(4):33-40.

[11]

毛先胤,马晓红,王雪晨.基于可见光机巡图像技术的电力设备杂草智能识别[J].自动化技术与应用202140(11):118-121.

[12]

MAO X YMA X HWANG X C.Weed intelligent identification of power equipment based on visual light machine patrol image technology[J].Techniques of Automation and Applications202140(11):118-121.

[13]

CHENG B WWEI Y CSHI H H,et al.Revisiting RCNN:on awakening the classification power of faster RCNN[C]//Computer Vision-ECCV 2018,2018:473-490.

[14]

李子茂,刘恋冬,夏梦,基于深度学习的月季多叶片病虫害检测研究[J].中国农机化学报202142(8):169-176.

[15]

LI Z MLIU L DXIA M,et al.Detection of rose diseases and insect pests based on deep learning[J].Journal of Chinese Agricultural Mechanization202142(8):169-176.

[16]

余小东,杨孟辑,张海清,基于迁移学习的农作物病虫害检测方法研究与应用[J].农业机械学报202051(10):252-258.

[17]

YU X DYANG M JZHANG H Q,et al.Research and application of crop diseases detection method based on transfer learning[J].Transactions of the Chinese Society for Agricultural Machinery202051(10):252-258.

[18]

孙鹏,陈桂芬,曹丽英.基于注意力卷积神经网络的大豆害虫图像识别[J].中国农机化学报202041(2):171-176.

[19]

SUN PCHEN G FCAO L Y.Image recognition of soybean pests based on attention convolutional neural network[J].Journal of Chinese Agricultural Mechanization202041(2):171-176.

[20]

佘颢,吴伶,单鲁泉.基于SSD网络模型改进的水稻害虫识别方法[J].郑州大学学报(理学版)202052(3):49-54.

[21]

SHE HWU LSHAN L Q.Improved rice pest recognition based on SSD network model[J].Journal of Zhengzhou University(Natural Science Edition)202052(3):49-54.

[22]

张博,张苗辉,陈运忠.基于空间金字塔池化和深度卷积神经网络的作物害虫识别[J].农业工程学报201935(19):209-215.

[23]

ZHANG BZHANG M HCHEN Y Z.Crop pest identification based on spatial pyramid pooling and deep convolution neural network[J].Transactions of the Chinese Society of Agricultural Engineering201935(19):209-215.

[24]

陈娟,陈良勇,王生生,基于改进残差网络的园林害虫图像识别[J].农业机械学报201950(5):187-195.

[25]

CHEN JCHEN L YWANG S S,et al.Pest image recognition of garden based on improved residual network[J].Transactions of the Chinese Society for Agricultural Machinery201950(5):187-195.

[26]

JIAO LDONG S FZHANG S Y,et al.AF-RCNN:an anchor-free convolutional neural network for multi-categories agricultural pest detection[J].Computers and Electronics in Agriculture2020174:105522.

[27]

LIU LWANG R JXIE C J,et al.PestNet:an end-to-end deep learning approach for large-scale multi-class pest detection and classification[J].IEEE Access20197:45301-45312.

[28]

LI RWANG R JXIE C J,et al.A coarse-to-fine network for aphid recognition and detection in the field[J].Biosystems Engineering2019187:39-52.

[29]

孙丽萍,谭少亨,周宏威,基于YOLOv5的林业有害生物检测与识别[J].森林工程202238(5):104-109,120.

[30]

SUN L PTAN S HZHOU H W,et al.Forestry pests detection and identification based on YOLOv5[J].Forest Engineering202238(5):104-109,120.

[31]

LIU JWANG X W.Tomato diseases and pests detection based on improved Yolo V3 convolutional neural network[J].Frontiers in Plant Science202011:898.

[32]

REDMON JDIVVALA SGIRSHICK R,et al.You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Las Vegas,NV,USA.IEEE,2016:779-788.

[33]

LIU Y CSHAO Z RHOFFMANN N.Global attention mechanism:retain information to enhance channel-spatial interactions[C].arXiv preprint arXiv,2021:2112.05561.

[34]

DAI XCHEN YXIAO B,et al.Dynamic head:unifying object detection heads with attentions[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),Nashville,TN,USA.IEEE,2021:7373-7382.

基金资助

防护林病虫害发生演替规律与全程绿色防控技术体系集成示范项目(2022YFD1401000)

中央高校基本科研业务费项目(2572022DP04)

AI Summary AI Mindmap
PDF (12812KB)

437

访问

0

被引

详细

导航
相关文章

AI思维导图

/