基于改进YOLOv11n普洱龙珠茶外观质量检测分级算法

王建超 ,  李玮 ,  遆海龙 ,  姜晨曦 ,  廖洪森 ,  李健龙

森林工程 ›› 2026, Vol. 42 ›› Issue (01) : 206 -220.

PDF (6068KB)
森林工程 ›› 2026, Vol. 42 ›› Issue (01) : 206 -220. DOI: 10.7525/j.issn.1006-8023.2026.01.019
农林智能装备与技术

基于改进YOLOv11n普洱龙珠茶外观质量检测分级算法

作者信息 +

Appearance Quality Detection and Grading Algorithm for Pu′er Dragon Ball Tea Based on Improved YOLOv11n

Author information +
文章历史 +
PDF (6213K)

摘要

普洱龙珠茶的外观质量直接决定其市场价值,而传统检测方法难以满足实时性、精度与边缘部署的综合需求。为此,提出一种轻量级目标检测算法SHM-YOLO。该模型在YOLOv11基础上引入 洗牌网络版本2(ShuffleNetv2)(SHM中的S)作为主干网络,结合点群卷积与通道混洗以降低计算开销;通过引入融合通道注意力与维度匹配的高级筛选特征融合金字塔(hierarchical scale feature pyramid network,HS-FPN)结构(SHM中的H),提升多尺度特征融合效果;同时,借助多尺度注意力块(multi-scale attention block,MAB)模块(SHM中的M)优化C3K2结构,实现更高效的图像细节提取。为提高边界框回归性能,模型融合Inner-IoU与SIoU损失以加快收敛并提升定位精度。在自建普洱龙珠茶外观质量检测数据集上进行验证,SHM-YOLO仅使用0.969×10⁶参数和2.3 MB存储,即可实现97.2%的mAP@50、92.7%的精度(P)、93.6%的召回率(R)及303帧/s的检测速度。相较YOLOv11n,模型在准确率提升的同时,显著降低浮点计算量(减少62.5%)与内存占用(减少47.6%),展现出优越的轻量化性能和工业部署潜力。

Abstract

The apperance quality of Pu′er Dragon Ball tea plays a decisive role in its market value; however, conventional inspection approaches fail to simultaneously satisfy the demands of real-time efficiency, accuracy, and edge-level deployment. In response, we propose SHM-YOLO, a lightweight object detection framework. Extending YOLOv11, the model employs ShuffleNetV2 (denoted as S in SHM) as the backbone, integrating point wise group convolution with channel shuffling to minimize computational cost. Through the integration of a hierarchical scale feature pyramid network (HS-FPN, denoted as H in SHM) that combines channel attention with dimensional matching, the model strengthens the effectiveness of multi-scale feature fusion. At the same time, the multi-scale attention block (MAB, denoted as M in SHM) is utilized to optimize the C3K2 structure, enabling more effective image detail extraction. To improve bounding-box regression, the model combines Inner-IoU with SIoU loss, which expedites convergence and augments localization precision. Experimental validation on a self-developed dataset for Pu′er Dragon Ball tea appearance quality confirms that SHM-YOLO reaches 97.2% mAP@50, 92.7% precision (P), 93.6% recall (R), and 303 fps, with merely 0.969×10⁶parameters and 2.3 MB storage consumption. Compared to YOLOv11n, the model achieves higher accuracy while markedly decreasing floating-point computation (by 62.5%) and memory consumption (by 47.6%), highlighting its excellent lightweight characteristics and strong suitability for industrial deployment.

Graphical abstract

关键词

普洱龙珠茶 / 外观质量 / 改进YOLOv11n / ShuffleNetv2 / 高级筛选特征融合金字塔 / 多尺度注意力块 / 高精度检测 / 轻量化模型

Key words

Pu'er Dragon Ball tea / appearance quality / improved YOLOv11n / ShuffleNetv2 / HS-FPN / MAB / high precision detection / lightweight model

引用本文

引用格式 ▾
王建超,李玮,遆海龙,姜晨曦,廖洪森,李健龙. 基于改进YOLOv11n普洱龙珠茶外观质量检测分级算法[J]. 森林工程, 2026, 42(01): 206-220 DOI:10.7525/j.issn.1006-8023.2026.01.019

登录浏览全文

4963

注册一个新账户 忘记密码

0 引言

随着科技的不断进步和市场需求的日益增长,现代信息技术和智能农机装备在智慧农业领域的应用越来越广泛1-2。特别是茶叶产业,作为中国参与国际市场竞争的重要产业之一,其加工过程也越来越多地引入了自动化生产线,尤其是茶叶的自动化压制设备3。茶叶是世界三大饮品之一,中国是全球最大茶叶生产国,年产量近330万t,2023年中国茶叶市场收入近1 070亿美元4。普洱茶因独特香气、醇厚口感备受茶友喜爱5。普洱龙珠茶是高附加值紧压茶,呈精巧球状,单泡独立,方便计量取用,体积小巧,比传统茶饼、茶砖更易收纳存放。对普洱龙珠茶来说,外观质量至关重要。优质龙珠外形圆润紧实,条索清晰,色泽匀整有光泽,芽叶肥壮显毫,体现原料和工艺优良,预示茶汤滋味醇厚、香气纯正、口感丰富。外观差的龙珠可能原料或工艺有问题,茶汤品质不佳。外观好的龙珠更能吸引消费者,市场竞争力强、价格定位高,是衡量品质和价值的关键因素6

目前对于普洱龙珠茶逐渐采用机器压制,传统的人工检测方法在普洱龙珠茶的质量控制中存在效率低、主观性强和实时性不足且不便与自动化产线结合等问题7。近些年计算机视觉与深度学习技术的快速发展,为自动化边缘设备部署视觉检测系统提供了有力保障。相关学者应用传感器技术和图像处理技术实现了芒果8、柑橘9-11和草莓12-14等球形物体的检测与分类。

随着近些年计算机视觉和深度学习技术的迅猛发展,其在农产品检测领域掀起了一场深刻变革15-16。现有基于自然图像设计的目标检测模型在应对普洱龙珠茶这种尺寸较小、细节丰富且易受光照及背景干扰的目标时,往往难以兼顾检测精度和计算资源限制17。为此,本研究提出了一种基于YOLOv11改进的轻量级检测算法——SHM-YOLO,旨在实现茶叶龙珠外观质量的实时、精准检测。具体来说,本研究采用了洗牌网络版本ShuffleNetv2(SHM中的S)作为主干网络,通过引入点群卷积和通道混洗机制有效降低计算复杂度18;利用高级筛选特征融合金字塔(hierarchical scale feature pyramid network,HS-FPN)模块(SHM中的H)结合通道注意力和维度匹配机制进行多尺度特征融合,显著提升小目标检测能力19;针对C3K2模块,则引入了从单图像超分辨率任务中借鉴的多尺度注意力(multi-scale attention block,MAB)模块(SHM中的M)20,MAB由多尺度大核注意力和门控空间注意力单元构成,进一步强化了图像细节的提取效果,此外,本研究学习提出的InnerSIoU损失函数融合了Inner-IoU思想与传统SIoU21,通过辅助边界框的自适应计算,既加快了训练收敛速度,又提升了目标定位精度。试验结果表明,SHM-YOLO在普洱龙珠茶数据集上实现了精度92.7%、召回率93.6%、mAP@50达97.2%,同时在参数量、浮点运算次数(FLOPs)及内存占用等方面均显著优于基线模型,展现了在工业化实时检测应用中的巨大潜力。

1 方法和材料

本研究介绍了普洱龙珠茶检测的样品制备过程、系统图像采集方法以及相应的硬件和软件环境,以确保试验的可复现性和研究的科学性。

1.1 系统图像采集

本研究旨在开发适用于普洱龙珠茶缺陷分类检测技术的自动化平台。首先需要收集普洱龙珠茶图像。图像采集系统平台主要是由相机、光源、支架平台、计算机组成,如图1所示。工业相机选用的是HIKROBOTMV-CH100-60GC的1 000万像素网口相机,专门适用于工厂生产环境。光源采用的是20 W环形LED无影灯,其色温可调节,以模拟不同的生产环境灯光。相机通过网线连接到计算机,便于将采集到的图像数据传输到计算机中。

1.2 数据集准备和数据增强

1.2.1 普洱龙珠茶样品选取

本研究所使用的普洱龙珠茶样品来自云南某茶厂的自动化生产线,涵盖不同质量等级和外观特征的普洱龙珠茶,包括完整、合格、破损和发霉类别。为了保证数据的多样性,样品在不同生产批次、不同存储时间以及工厂不同环境条件下进行采集大量普洱龙珠茶图片,以模拟实际生产过程中的各种可能情况。以常见工厂环境下的白色、绿色、黑色传送带为背景,见表1,最终共采集了1 000张测试样本。

1.2.2 样品分类标准

为了建立标准化的检测流程,查询国家标准6以及咨询农学专家之后,样品严格按照以下标准进行分类和标注,如图2所示。

完整的龙珠(优质品):形状规整、球形度高、表面光滑、无明显缺陷。轻微变形的龙珠(合格品):球形度稍有偏差,但仍符合市场销售标准。破损的龙珠(不合格品):出现裂纹、碎裂或结构松散,不符合市场销售标准。霉变的龙珠(不合格品):出现裂霉菌生长,产品可能产生异味或变质,不符合市场销售标准。碎屑:龙珠破损而形成的小碎片、茶叶碎片或条状的茶叶残留物。

1.2.3 图像预处理

在图像采集阶段,原始拍摄获得了1 000张照片,经过初步筛选和质量检查,剔除了模糊、曝光不足或存在明显干扰的图像,最终筛选出可用图像730张,用于后续的数据预处理和模型训练。本研究对经过初步筛选得到的730张高质量图像实施了一系列数据增强操作,以扩充数据集并提升模型的泛化能力。具体来说,在数据增强部分,选取了最主要的几种方法,如图3所示,包括随机旋转与翻转、对比度调整、缩放、粗糙掉落以及噪声添加。这些方法分别针对不同方面对图像进行处理:随机旋转与翻转可以模拟实际拍摄中不同角度的情况;对比度调整用于补偿光照变化;缩放操作使得模型能适应目标在不同尺度下的变化;粗糙掉落能够模拟目标部分遮挡的情况;噪声添加则有助于提高模型对图像噪声的鲁棒性。通过组合这几种主要的数据增强策略,可以在保证数据多样性的同时,有效提升模型的泛化能力和检测准确性。

将增强后的图像按8∶1∶1的比例随机划分成训练集、验证集和测试集。标注软件使用LabelImg图像标注工具,以视觉对象类别(visual object classes,VOC)数据集格式对采集到的图像数据进行标注,为每种类别样本分配特定的标签,完整龙珠(优质品)、轻微变形龙珠(合格品)、破损龙珠(不合格品)、碎屑、发霉分别用0(nice)、1(good)、2(bad)、3(bits)、4(FM)进行标记,确保标注的准确性和一致性,为后续模型的训练提供可靠的监督信息。通过合理的数据集构建和处理,旨在提高模型对龙珠分类的检测精度和鲁棒性,使其能够更好地适应实际自动化生产中的复杂情况。

1.3 YOLOv11

YOLO系列算法是单阶段目标检测算法的代表,在目标检测任务中取得了多次当前最优水平(state of the art,SOTA)表现,相比于FasterR-CNN22、MaskR-CNN23等两阶段目标检测算法具有更快的推理速度和更多的版本选择性。

YOLOv11是一种先进的实时目标检测算法24,基于YOLO系列模型的发展,进一步提升了检测性能和速度。YOLOv11采用端到端目标检测架构,其整体结构主要分为输入模块、主干网络、颈部网络和检测头4大部分,如图4所示。输入模块负责对原始图像进行归一化、尺寸调整和必要的数据增强,确保输入数据的标准化和多样性;主干网络作为特征提取的核心部分,引入了改进的C3K2模块,通过对特征图的分割和3×3卷积操作,优化了传统跨阶段局部网络(cross stage partial network,CSP)结构的信息传递,同时融合了部分空间注意力机制(如C2PSA模块),以增强对图像中关键区域的捕捉能力25

颈部网络则借鉴了特征金字塔网络(feature pyramid networks,FPN)26的思想,通过横向连接和上采样操作,将来自主干不同层次的特征有效融合,整合出兼具深层语义信息与浅层细节信息的多尺度特征图,为检测头提供充分的特征支持。检测头部分采用深度可分离卷积模块,分别完成目标的分类与边界框回归任务,在降低模型参数量和计算量的同时,保证了检测精度和实时性。整体设计使得YOLOv11在复杂场景下能够高效应对多尺度、遮挡和背景干扰等各种挑战。

1.4 SHM-YOLO

1.4.1 SHM-YOLO模型结构

尽管YOLOv11在多种应用场景中展现出了其独特的优势,在对普洱龙珠茶外观质量检测中表现优异,但仍然存在一些局限性和缺陷,难以应对小目标的普洱龙珠茶的边缘缺陷,对于细微缺陷的判定需要高精度的分类和定位比较模糊,难以应对实际生产环境。为此,采用ShuffleNetv2作为主干网络,利用其通道重排与点群卷积机制降低计算开销。引入HS-FPN结构,通过通道注意力与维度对齐实现多尺度特征融合,提升小目标检测性能27;在C3K2模块中加入MAB模块,结合大核注意力与门控空间注意力以增强细节建模能力。此外,设计了Inner-SIoU损失函数,融合Inner-IoU28与SIoU思想,引入辅助边界框自适应机制,有效提升定位精度并加快收敛速度。最终SHM-YOLO的网络结构如图5所示。

1.4.2 ShuffleNetV2模块

卷积神经网络(convolutional neural network,CNN)已在计算机视觉领域取得显著进展29,尤其是在图像分类和目标检测任务中。然而,网络的深度和复杂度直接影响其性能,传统的卷积神经网络随着深度的增加,常常会遇到梯度消失和信息流失等问题,这限制了其感受野的扩大,从而影响了特征提取的能力。为了在计算资源有限的条件下实现高效的图像处理30,ShuffleNetV2提出了一种高效的轻量化架构设计,旨在通过优化卷积操作和通道设计,提高计算效率和精度。通过优化卷积操作和网络模块,实现了计算精度和速度的平衡,并通过巧妙的设计使得网络在计算资源受限的情况下,依然能够保持良好的表现。

ShuffleNetV2利用通道分割和通道重排操作,结合了轻量化网络设计的原则,克服了传统卷积神经网络在深度和计算复杂度上的限制31。ShuffleNetV2的设计理念基于若干关键原则,主要目的是提高计算效率并减少内存带宽的消耗。为了降低内存访问开销,ShuffleNetV2采取了均衡通道宽度的策略。内存访问是影响推理速度的主要瓶颈之一,尤其是在内存带宽有限的硬件平台上。为了实现最优化的内存利用,ShuffleNetV2确保输入和输出的通道数相等,从而大幅度降低了内存访问的成本。内存访问的成本(memory access cost,MAC,式中记为MAC)公式为

MAC=hw(c1+c2)+c1c2

式中:hw为特征图的空间维度;c1c2分别为输入和输出的通道数。通过均衡通道宽度,内存访问成本降低,从而提高了整体计算效率。

ShuffleNetV2引入了点群卷积32(point wise group convolution)和通道重排33(channel shuffle)的创新机制,从而在保持模型精度的同时显著减少了计算量。图6展示了这一创新机制的实现过程。

图6(a)可知,展示了2个具有相同分组数量的堆叠卷积层。每个输出通道仅与同一组内的输入通道相关联。由图6(b)可知,在不使用通道混洗的情况下,展示了在GConv1之后,GConv2从不同分组获取数据时输入和输出通道是如何完全相关联的。由图6(c)可知,提供了与图6(b)相同的实现,但使用了通道混洗来允许跨组通信,从而使网络内更有效和强大的特征学习成为可能。具体来说,网络通过多个简单的卷积层和加法操作进行特征融合,结合点群卷积(GConv)和通道重排,增强了网络的表达能力和计算效率。图7展示了ShuffleNetV2基本单元的架构,结合了多个操作以提升模型的性能。

图7(a)和图7(b)分别为原始ShuffleNet的基本单元和空间下采样单元,均采用组卷积(GConv)与通道洗牌(channel shuffle)以提升计算效率;图7(c)和图7(d)为本研究提出的改进结构,取消了组卷积,采用标准1×1卷积以增强特征融合能力,并通过通道划分(channel split)与深度卷积(DWConv)构建双路径结构,有效提升了模型的表达能力与运行效率。其中,改进的空间下采样单元图7(d)进一步用DWConv替代池化操作,实现更轻量的下采样方式,兼顾准确率与模型复杂度。ShuffleNetV2结构增强了对普洱龙珠茶细节的检测能力,为后续的外观质量分级提供了更轻量化、准确、稳定的特征支撑。

1.4.3 高级筛选特征融合金字塔(HS-FPN)

在普洱龙珠茶外观质量检测任务中,由于不同茶叶外观特征的尺度差异以及采集设备的多样性,常常面临多尺度特征融合的挑战。为了解决这一问题,本研究提出了高级筛选特征金字塔网络(HS-FPN)34,旨在通过有效的特征融合提升模型在各种尺度和条件下的检测精度。

HS-FPN主要由特征选择模块和特征融合模块2部分组成。HS-FPN的整体架构如图8所示,阐明了特征选择和融合的具体过程。在此过程中,首先对高层特征进行筛选,随后通过双线性插值和转置卷积技术对其进行上采样,以便与低层特征进行对齐和融合,最终获得更加精确的特征表达。

特征选择模块采用通道注意力(CA)机制,通过CA模块计算每个通道的权重fCA,公式为

fCA=SigmoidAvgPoolfin+MaxPoolfin

式中,fin为输入特征图,经过全局平均池化(Avg Pool)和全局最大池化(Max Pool)操作后,利用Sigmoid函数计算得到通道权重fCA。通过对高层语义信息的筛选,从而在不同尺度下捕捉到关键的普洱龙珠茶特征。筛选后的特征通过特征融合模块与低层特征进行融合,充分结合了高层特征的语义信息和低层特征的定位精度,从而增强了模型对普洱龙珠茶外观的表征能力。除此之外,选择性特征融合(selective feature fusion,SFF)35是HS-FPN网络中的一个关键组件,其主要作用是融合不同尺度的特征图。在特征融合模块中,高层特征与低层特征融合,公式为

fout=flow*CAfhigh+fhigh

式中:flow为低层特征图;fhigh为高层特征图;CAfhigh为通过CA模块得到的高层特征权重,用于加权低层特征。最终融合后的特征为fout,代表了多尺度信息的综合表达。

而SFF模块通过使用高级特征作为权重来过滤低尺度特征中的重要信息。图9为SFF模块的框架结构。

通过应用HS-FPN模块,本研究能够有效解决普洱龙珠茶外观质量检测中的多尺度问题,尤其是在面对不同尺度和尺寸差异较大的茶叶图像时。该方法在模型中引入了更加精细的特征选择和融合机制,使得检测模型在不同尺度和图像条件下都能保持较高的准确性。此外,HS-FPN的多尺度特征融合能够提升模型在复杂环境下的适应性,确保模型能够从不同的视觉尺度中提取到更加丰富的茶叶外观特征。总之,HS-FPN模块显著提升了普洱龙珠茶外观质量检测的效果,使得该方法在面临不同图像质量和尺度差异时,仍能够保持较好的检测精度。

1.4.4 C3K2_MAB模块

本研究提出SHM-YOLO算法,通过引入多尺度注意力模块(MAB)改进YOLOv11的C3K2模块,提升普洱龙珠茶外观质量检测能力。MAB由多尺度大卷积核注意力(MLKA)和门控空间注意力单元(GSAU)组成,能让模型在不同尺度捕捉普洱龙珠茶细节特征,增强复杂背景下的鲁棒性,平衡计算量与性能。MAB核心是多尺度特征学习和自适应注意力机制,动态聚合不同层次、尺度的特征信息,提升图像细节敏感度,加强全局与局部信息融合。在C3K2模块的特征提取阶段融入MAB,模型处理普洱龙珠茶外观时,能更好识别不同尺度关键细节,抑制背景噪声,处理特征图步骤公式为

N=LNXX=X+λ1f3MLKAf1Nf2NN=LNXX=X+λ2f6GSAUf4N,f5N

式中:LN(·)为层归一化;N为对输入特征X进行层归一化后的特征映射;λ为可学习的缩放因子;表示逐元素乘法;fi(·)表示保持维度的逐点卷积该结构通过MLKA36建立全局依赖关系,并通过GSAU37-38增强局部信息,形成了一个强大的特征提取块。

在SHM-YOLO中,本研究把MAB集成至YOLOv11的C3K2模块,提升普洱龙珠茶外观质量检测的准确性与鲁棒性。C3K2模块在YOLOv11里主要负责特征提取与目标定位,试验显示,融合MAB显著提高检测精度,能兼顾全局信息与局部细节,对细节丰富、结构复杂的普洱龙珠茶检测意义重大,模型推理速度和效率也有效提升。

1.4.5 Inner-SIoU损失函数

在普洱龙珠茶外观质量检测中,因其目标尺寸小、形态多样,传统目标检测方法在定位和分类上效果欠佳。为提升检测精度与回归速度,引入Inner-SIoU2128损失函数,优化 YOLOv11原始损失函数,以适配该特殊检测任务。

目标检测里,损失函数对模型训练效果极为关键。传统IoU损失函数处理小尺寸或形态复杂目标时,存在收敛慢、回归精度低等问题。Inner-SIoU损失函数结合传统IoU与尺度不变IoU(SIoU)损失优势,引入尺度因子比控制辅助边界框大小,让模型依不同样本特征自动调整回归过程。

SIoU损失函数(式中记为LSIoU)基于传统IoU损失提出,除考量预测框和真实框交并比,还引入角度和形状约束,强化回归过程,对目标框旋转和形状差异有额外约束,处理旋转框和不规则形状目标时鲁棒性更强,其表达式为

LSIoU=1-IOU+Δ+Ω2

式中:Δ为距离损失项,衡量预测框和真实框中心点之间的距离,并根据该距离进行调整;Ω为形状损失项,衡量预测框和真实框之间的形状差异,特别是宽高比的差异;IoU为标准的交并比(IoU),即预测框与真实框之间的重叠度,计算公式为

IOU=BBgtBBgt

式中:B为预测框;Bgt为真实框。

在计算IoU时,其中,xcgt,ycgt表示真实框(ground truth,GT)的中心坐标,xc,yc表示预测框(anchor)的中心坐标;wgthgt分别为GT框的宽度与高度,wh为Anchor框的宽度与高度。辅助框的缩放比例(ratio,式中记为ratio),通常取值范围为[0.5,1.5],用于调节辅助框的大小。计算辅助边界公式为

blgt=xcgt-wgtratio2brgt=xcgt+wgtratio2
btgt=ycgt-hgtratio2bbgt=ycgt+hgtratio2

式中,blgtbrgtbtgtbbgt为GT框辅助边界框的左、右、上、下边界。

对于预测框B计算公式为

bl=xc-wratio2br=xc+wratio2
bt=yc-hratio2bb=yc+hratio2

式中,blbrbtbb为Anchor框对应的左、右、上、下边界。

交集和并集的计算公式为

inter=minbrgt,br-maxblgt,blminbbgt,bb-maxbtgt,bt
union=wgthgtratio2+whratio2-inter

式中:inter为辅助框之间的交集面积;union为并集面积。

通过上述公式,本研究计算Inner-IoU的公式为

IOUinner=interunion

Inner-SloU损失函数的核心思想是通过调整辅助边界框的尺度来提高IoU样本的回归速度,同时增强低loU样本的回归效果。Inner-SloU损失函数(式中记为LInner-SIoU)计算公式为

LInner-SIoU=LSIoU+IOU-IOUinner

式中:LSIoU为标准的尺度不变IoU损失函数;IoU为预测框与真实框之间的交并比;IOUinner为通过辅助边界框计算得到的内部交并比。

通过引入Inner-SIoU损失函数,SHM-YOLO在处理普洱龙珠茶这一小尺寸、多样性强的目标时,表现出了更高的准确性和鲁棒性。具体而言,Inner-SIoU损失函数通过调整尺度因子比来控制辅助边界框的大小,这使得模型能够自适应地加速高IoU样本的回归,同时提升低IoU样本的回归效果。因此,SHM-YOLO对于普洱龙珠茶这一特定任务,能够实现更好的定位和更快的收敛。

2 结果与讨论

2.1 试验环境

本研究中用于模型训练和测试的硬件平台和软件环境见表2

2.2 评价指标

在深入探究改进模型的性能表现过程中,为实现对其全面且精准的验证,本研究精心选用了一系列具有关键意义的评价指标39

精准率(precision,P),作为衡量模型预测结果准确性的重要指标,能够直观反映出在所有被模型判定为正样本的实例中,实际为正样本的比例,其在评估模型预测的精确程度方面发挥着不可或缺的作用,计算公式为

P=TPTP+FP

式中:TP为真正例(true positive),模型正确预测为正的样本数量;FP为假正例(false positive),模型错误地预测为正的样本数量。

召回率(recall,R)同样至关重要,其专注于衡量模型在所有实际正样本中,成功识别出的正样本比例,这对于评估模型对正样本的覆盖程度意义重大,计算公式为

R=TPTP+FN

式中,FN为假负例(false negative),即模型错误预测为负的样本数。

平均精度均值(mean average precision,mAP,式中记为mAP),综合考量了不同召回率水平下的平均精度,能更为全面地评估模型在不同阈值设定下的性能表现,计算公式为

mAP=1ni=0nAP(i)

式中:n为类别个数;i为检测的次数;AP(i)为表示第i个类别的平均精度(average precision)。

参数量(Params)通过量化模型参数数量,直观反映模型复杂程度,对评估模型存储及训练计算资源需求意义重大。浮点运算次数(FLOPs)衡量模型一次前向传播的浮点运算量,助于了解运行时计算开销,从计算资源消耗评估模型性能。这些指标相互补充,从多维度为改进模型性能、开展性能验证提供全面深入的分析视角。

2.3 消融试验

针对本研究提出的模型优化方案,采用消融试验进行验证40。将YOLOv11n记为A,在A上依次累计加入ShuffleNetv2模块、HS-FPN模块、C3K2_MAB模块、Inner-SIoU损失函数,将得到的网络模型依次记为B、C、D、E,最终利用相同的训练、验证和测试数据集得到的试验结果,见表3

试验结果表明,融合ShuffleNetv2模块之后,对精度指标与速度指标同时具有增益效果,为了进一步轻量化模型,引入HS-FPN模块。而后引入C3K2_MAB模块、Inner-SIoU损失函数对精度以及召回率又进一步提升。SHM-YOLO与基线模型YOLOv11相比P提升6.6%,R提升4.1%,而参数量更是降为0.968 M。该组试验验证了各改进模块的有效协同作用,不但精确值得到了提升还显著降低了训练参数,达到了轻量化效果,且提升了检测性能。

A、B、C、D、E 5个模型训练过程中总损失曲线的变化如图10所示,横坐标为训练轮次(Epoch),纵坐标为总损失(total loss)。在300个训练周期后,5个模型逐渐收敛,此时其损失值波动最小。这一趋势表明这些模型在识别和预测普洱龙珠茶分类检测方面具有有效的能力。然而,在收敛后,E表现出最低的损失值,A记录了最高的损失值,而B、C、D则处于中间位置。这种模式与表3中的预测一致。

2.4 对比试验

为了验证改进模型SHM-YOLO在普洱茶质量检测任务中的性能优势,选取了YOLOv6n、YOLOv8n、YOLOv9-tiny、YOLOv10n主流目标检测模型进行对比试验。试验结果见表4

基于上述多维度数据分析及综合考虑,SHM-YOLO在进行普洱龙珠茶质量分类检测时达到了0.927的准确率,分别比YOLOv6-n和YOLOv9-tiny提高了3.81%和5.22%。此外,参数量下降到惊人的0.969 M。在检测速度方面,SHM-YOLO的帧率为303 帧/s(每张图像3.3 ms),分别比YOLOv8n和YOLOv9-tiny提高了121 帧/s(每张图像2.19 ms)和166 帧/s(每张图像3.98 ms)。这些发现证明了SHM-YOLO在普洱龙珠茶分级检测方面的有效性。凭借其在速度和准确性之间的良好平衡,SHM-YOLO在普洱龙珠茶生产场景中的实际应用具有巨大的潜力。

2.5 可视化和分析

为了评估SHM-YOLO和YOLOv11在实际生产中进行普洱龙珠茶分级检测的有效性,本研究将预训练的SHM-YOLO和YOLOv11模型应用于涉及种普洱龙珠茶的验证试验中。检测结果可能会受到各种因素的潜在影响,例如背景和光照条件。为了增强模型的鲁棒性,本研究中的数据是在各种条件下收集的,包括多个背景和光照条件。此外,使用了多种数据增强方法来提高检测模型的鲁棒性。然而,背景和光照问题仍然对检测模型提出了更大的挑战。首先在白色背景下,如图11(a)所示,SHM-YOLO和YOLOv11都展现出了较高的置信度,但SHM-YOLO更加优越。在不同光照条件下,以及绿色传送带背景,黑色传送带背景下,如图11(b)所示,SHM-YOLO得益于HS-FPN与C3K2_MAB联合作用,通过更加精细的特征选择和融合机制与多尺度注意力模块实现了更好的效果。

除此之外本研究还使用了梯度加权类激活图(gradient-weighted class activation mapping)来可视化,如图11(c)所示。从类激活图11(c)中可以观察到,SHM-YOLO比YOLOv11的轮廓的红色区域更深更大。这表明普洱龙珠茶的特征更加清晰,使得网络能够专注于更有价值的特征区域。综上所述,本研究通过对图像采集预处理、神经网络架构和评价指标优化等方面实施一系列改进策略,提出一套普洱龙珠茶分级检测的方案。这使得模型在茶叶形态相似、色泽相近等复杂情况下仍能有效运作。该模型不仅能精准地对普洱龙珠茶进行分级,还显著提升了检测效率,在普通的边缘生产设备上也能展现出良好性能。本研究的改进方法对其他茶叶品种的分级以及农产品品质检测领域具有较高的参考价值。不过,本研究也存在一定局限,例如模型对于部分特征极为相似的普洱龙珠茶的识别准确率,还有提升空间。在未来,将针对这些问题展开深入研究。

2.6 模型部署与应用

本研究提出的SHM-YOLO模型已成功部署于普洱龙珠茶的工业生产环境中。为实现检测系统的可行性与实时性,设计了由网络结构、机械装置及人机交互界面3部分构成的整体部署方案,如图12所示。系统架构包括SHM-YOLO检测网络、实体机构,以及基于西门子平台开发的人机交互界面。首先,通过高清工业相机实时采集传送带上的普洱龙珠茶图像,并将图像输入至部署有SHM-YOLO模型的边缘计算设备进行目标检测。模型结合可编程逻辑控制器(programmable logic controller,PLC)输出分类结果,引导后端执行单元完成自动摆盘与剔除操作。其中,合格产品经分拣后送入摆盘机构,次品则被剔除,实现了实时图像采集、智能识别与动态执行的闭环控制。系统配备的人机界面(human machine interface,HMI),可实时监测检测状态与分类结果,提升系统交互性与操作便利性。图12展示了模型结构、系统装配和界面设计在实际产线中的部署效果,验证了该检测系统在工业场景下的实用性与稳定性。

3 结论

本研究针对普洱龙珠茶质量检测分级任务的复杂性,提出了一种基于改进 YOLOv11n 的检测模型,重点在于优化模型的检测精度及使模型完成轻量化。为实现这一目标,进行了4项关键改进:以ShuffleNetv2为主干网络,用点群卷积和通道混洗减计算成本并保持特征提取力;引入HS-FPN结构,结合通道注意力与维度匹配提升多尺度特征融合;用MAB模块优化C3K2模块,MAB结合元模型(meta former),由多尺度大核注意力和门控空间注意力单元构成,高效提取恢复图像细节;改进目标框回归,提出InnerSIoU损失函数,提升边界框优化效果。在茶叶龙珠质量检测数据集试验显示,SHM-YOLO模型参数量0.969 M、浮点数运算量3.4 G,在普洱龙珠茶数据集上P达0.927、R达0.936、mAP50达0.972,帧率为303 帧/s,相较YOLOv11n,浮点数运算量降62.5%、内存占用降47.6%,帧率提升48.5%。试验结果表明,完成轻量化的模型在检测精度不受影响的前提下,平均精度均值(mAP@50)上达到了97.2%,同时召回率(R)提升至93.6%,并显著减少了模型参数量和计算复杂度。改进后的模型在检测精度、速度及轻量化性能方面均表现出色,可部署于各种计算能力受限的设备之上。​

未来本研究将改进的SHM-YOLO模型部署到实体设备上,如生产线上的工业相机配套设备等。在实际应用中,部署后的模型能够快速且精准地对普洱龙珠茶进行质量检测分级,大幅提高了普洱龙珠茶生产加工过程中的质量把控效率,实现分级。在生产线上,设备能够实时监测茶叶的生产情况,在HMI上,操作人员可随时观测到普洱龙珠茶的分类情况,及时获取检测结果,为普洱龙珠茶收购、售卖和品鉴等环节提供可靠依据,减少了人工主观判断的误差。有效避免了不合格产品的流出,提升了整个茶叶生产流程的智能化水平和产品质量稳定性,为普洱龙珠茶产业的高质量发展注入了强大动力。

参考文献

[1]

臧国航,张丽艳.智能农机装备在现代农业生产中的应用与发展前景[J].中国农机装备2025(3):137-139.

[2]

ZANG G HZHANG L Y.Application and development prospects of intelligent agricultural machinery and equipment in modern agricultural production[J].China Agricultural Machinery Equipment2025(3):137-139.

[3]

ZHANG G F.Analysis of the application advantages and technical characteristics of agricultural machinery automation technology[J].Forum on Research and Innovation Management20242(5):4520.

[4]

高一聪,许晨,林琼,.茶叶生产装备自动化与智能化技术研究进展与展望[J].农业机械学报202455(7):1-14.

[5]

GAO Y CXU CLIN Qet al.Tea production equipment automation and intelligent technology research progress and prospects[J].Transactions of the Chinese Society for Agricultural Machinery202455(7):1-14.

[6]

常一明,董颖慧,林炜域,.茶产业高质量发展水平评价研究——以福建典型茶叶主产区为例[J].中国农业资源与区划2025:1-17.

[7]

CHANG Y MDONG Y HLIN W Yet al.Evaluation of high-quality development level of the tea industry:A case study of major tea-producing areas in Fujian Province[J].China Agricultural Resources and Regional Planning2025:1-17.

[8]

保继刚,陈苑仪,董宇恒.普洱茶产业发展对乡村振兴的作用机制——以云南省易武镇为例[J].自然资源学报202338(8):1941-1954.

[9]

BAO J GCHEN Y YDONG Y H.Mechanisms of rural revitalization through Pu’er tea industry development:A case study of Yiwu,Yunnan[J].Journal of Natural Resources202338(8):1941-1954.

[10]

国家质量监督检验检疫总局,中国国家标准化管理委员会. 紧压茶生产加工技术规范:GB/T 24615—2009 [S].北京:中国标准出版社,2009.

[11]

General Administration of Quality Supervision,Inspection and Quarantine of the People’s Republic of China,Standardization Administration of the People’s Republic of China. Technique specification for producing and manufacturing of brick tea:GB/T 24615—2009 [S].Beijing:Standards Press of China,2009.

[12]

王琳,潘维,陈寅,.无损检测技术在茶叶加工中的应用研究进展[J].新农民2024(32):68-70.

[13]

WANG LPAN WCHEN Yet al.Research progress on the application of nondestructive testing technology in tea processing[J].New Farmers2024(32):68-70.

[14]

聂衍文,杨佳晨,文慧心,.基于机器视觉的轻量化芒果果面缺陷检测[J].食品与机械202339(3):91-95,240.

[15]

NIE Y WYANG J CWEN H Xet al.Light weight detection of mango surface defects based on machine vision[J].Food & Machinery202339(3):91-95,240.

[16]

吕强,林刚,蒋杰,.基于改进YOLOv5s模型的自然场景中绿色柑橘果实检测[J].农业工程学报202440(18):147-154.

[17]

LYU Q, LIN GJIANG Jet al.Detecting green Citrus fruit in natural scenes using improved YOLOv5s model[J].Transactions of the Chinese Society of Agricultural Engineering202440(18):147-154.

[18]

李莹,刘梦莲,何自芬,.基于改进YOLOv8s的柑橘果实成熟度检测[J].农业工程学报202440(24):157-164.

[19]

LI YLIU M LHE Z Fet al.Detecting Citrus fruit maturity using improved YOLOv8s[J].Transactions of the Chinese Society of Agricultural Engineering202440(24):157-164.

[20]

ZHANG Y FLI LCHUN C Pet al.Multi-scale feature adaptive fusion model for real-time detection in complex Citrus orchard environments[J].Computers and Electronics in Agriculture2024219:108836.

[21]

李力扬.基于改进YOLOv8的草莓识别算法[J].南方农机202556(5):16-20.

[22]

LI L Y.Strawberry recognition algorithm based on an improved YOLOv8 model[J].Southern Agricultural Machinery202556(5):16-20.

[23]

郭敬涛,吕凤,章慧婷,.基于迁移学习与轻量化YOLOv5s的草莓目标检测方法[J].中国农机化学报202546(3):253-260.

[24]

GUO J T,LYU F, ZHANG H Tet al.Strawberry target detection method based on transfer learning and lightweight YOLOv5s[J].Journal of Chinese Agricultural Mechanization202546(3):253-260

[25]

LIN Z XLIU WWANG S Yet al.Strawberry harvest date prediction using multi-feature fusion deep learning in plant factory[J].Computers and Electronics in Agriculture2025234:110174.

[26]

唐彦嵩,徐锐豪,王夙加.机器视觉在食品无损检测中的应用研究进展[J].中国食品学报202424(12):13-27.

[27]

TANG Y SXU R HWANG S J.Research progress in the application of machine vision in food nondestructive detection[J].Journal of Chinese Institute of Food Science and Technology202424(12):13-27.

[28]

贺佳贝,柳春柱,高嵩.机器视觉技术在农业领域的发展现状及应用前景[J].农业开发与装备2025(1):50-52.

[29]

HE J BLIU C ZGAO S.Development status and application prospects of machine vision technology in agriculture[J].Agricultural Development and Equipment2025(1):50-52.

[30]

DHANUSH GKHATRI NKUMAR Set al.A comprehensive review of machine vision systems and artificial intelligence algorithms for the detection and harvesting of agricultural produce[J].Scientific African202321:e01798.

[31]

MA N NZHANG X YZHENG H Tet al.ShuffleNet V2:Practical guidelines for efficient CNN architecture design[M]// Computer Vision – ECCV 2018.Cham:Springer International Publishing,2018:122-138.

[32]

CHEN Y FZHANG C YCHEN Bet al.Accurate leukocyte detection based on deformable-DETR and multi-level feature fusion for aiding diagnosis of blood diseases[J].Computers in Biology and Medicine2024170:107917.

[33]

WANG LSHEN JTANG Eet al.Multi-scale attention network for image super-resolution[J].Journal of Visual Communication and Image Representation202180:103300.

[34]

GEVORGYAN Z.SIoU loss:More powerful learning for bounding box regression[J].arXiv2205:12740.

[35]

REN S QHE K MGIRSHICK Ret al.Faster R-CNN:Towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence201739(6):1137-1149.

[36]

HE KGKIOXARI GDOLLÁR Pet al.Mask R-CNN[C]//2017 IEEE International Conference on Computer Vision (ICCV).October 22-29,2017,Venice,Italy.IEEE,2017:2980-2988.

[37]

KHANAM RHUSSAIN M.YOLOv11:An overview of the key architectural enhancements[J].arXiv2024:17725.

[38]

ALI M LZHANG Z.The YOLO framework:A comprehensive review of evolution,applications,and benchmarks in object detection[J].Computers202413(12):336.

[39]

KIOBYA TZHOU J FMAISELI B.A multi-scale semantically enriched feature pyramid network with enhanced focal loss for small-object detection[J].Knowledge-Based Systems2025310:113003.

[40]

LI Z QSU Y XZHANG Y Het al.Remote sensing image classification method based on improved ShuffleNet convolutional neural network[J].Intelligent Data Analysis202428(2):397-414.

[41]

ZHANG HXU CZHANG S.Inner-IoU:More effective intersection over union loss with auxiliary bounding box[EB/OL].arXiv2311.07916,2023-11-14[2025-09-05].

[42]

TRAN QMITRA JNGUYEN N.Learning model combining convolutional deep neural network with a self-attention mechanism for AC optimal power flow[J].Electric Power Systems Research2024231:110327.

[43]

HUANG YFU GREN W Cet al.Low-light images enhancement via a dense transformer network[J].Digital Signal Processing2024148:104467.

[44]

WANG Y FXU X SWANG Zet al.ShuffleNet-Triplet:A lightweight RE-identification network for dairy cows in natural scenes[J].Computers and Electronics in Agriculture2023205:107632.

[45]

肖天元,艾廷华,余华飞,.地图综合图卷积神经网络点群简化方法[J].测绘学报202453(1):158-172.

[46]

XIAO T YAI T HYU H Fet al.A point cluster simplification approach of graph convolutional neural network for map generalization[J].Acta Geodaetica et Cartographica Sinica202453(1):158-172.

[47]

李佳一,闫振纲,闫克丁,.基于注意力与通道重排的无人机对地目标检测算法[J].兵器装备工程学报202445(3):306-313.

[48]

LI J YYAN Z GYAN K Det al.Detection algorithm of ground target based on attention and channel rearrangement for UAV[J].Journal of Ordnance Equipment Engineering202445(3):306-313.

[49]

WOO H JSIM J WKIM E T.Lightweight super-resolution network with information distillation and recursive methods[C]//2022 IEEE International Conference on Consumer Electronics (ICCE).January 7-9,2022,Las Vegas,NV,USA.IEEE,2022:1-2.

[50]

温剑,邵剑飞,刘杰,.多维注意力机制与选择性特征融合的图像超分辨率重建[J].光学精密工程202331(17):2584-2597.

[51]

WEN JSHAO J FLIU Jet al.Multidimensional attention mechanism and selective feature fusion for image super-resolution reconstruction[J].Optics and Precision Engineering202331(17):2584-2597.

[52]

GUO M HLU C ZLIU Z Net al.Visual attention network[J].Computational Visual Media20239(4):733-752.

[53]

HUI ZGAO X BYANG Y Cet al.Lightweight image super-resolution with information multi-distillation network[C]//Proceedings of the 27th ACM International Conference on Multimedia.October 21-25,2019,Nice France.ACM,2019:2024-2032.

[54]

WANG W HXIE E ZLI Xet al.Pyramid vision transformer:A versatile backbone for dense prediction without convolutions[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV).October 10-17,2021,Montreal,QC,Canada.IEEE,2021:548-558.

[55]

LI Q XMA W JLI Het al.Cotton-YOLO:Improved YOLOv7 for rapid detection of foreign fibers in seed cotton[J].Computers and Electronics in Agriculture2024219:108752.

[56]

HE W LWU FSNYDER L Uet al.Improved two-stage deep learning algorithm and lightweight YOLOv5n for classifying cottonseed damage[J].Computers and Electronics in Agriculture2025232:110042.

基金资助

国家自然科学基金项目(524650231006957)

云南省重大科技专项计划项目(202402AE090027)

云南省教育厅科学研究基金项目(2023J0712)

AI Summary AI Mindmap
PDF (6068KB)

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/