PDF
摘要
针对由于光照、角度、背景干扰及行人目标太小等复杂场景的影响会导致行人检测精度下降,容易出现误检或漏检等问题,提出了一种基于改进YOLOv11n的行人检测模型YOLOv11-CREP。首先,引入由Conv卷积和空间深度转化卷积(space-to-depth convolution, SPDConv)融合形成的CSPDConv,使模型减少信息的丢失并增强对重要细节的提取;其次,给出RepNCSPELAN4-GC模块(其利用幽灵卷积GhostConv对RepNCSPELAN4进行改进,以减少RepNCSPELAN4模块的参数量),并用改进后的RepNCSPELAN4-GC模块来替换Neck层部分C3k2模块;再次,将高效多尺度注意力(efficient multi-scale attention, EMAttention)和并行网络注意力(parallel network attention, ParNetAttention)融合成新的EMPAttention注意力模块,以增强模型对小目标行人的检测能力;最后,针对小目标行人和遮挡目标的特性,新增小目标检测头P2来增强模型对小目标的识别能力。结果表明:YOLOv11-CREP与原始的YOLOv11n模型相比,平均精度(mean average precision, mAP)在IoU阈值0.5时提升4.6个百分点,达到95.3%;在IoU阈值范围为0.5~0.95时提升9.0个百分点,达到70.2%。所提模型兼顾高检测性能和实时性要求,有效提升了复杂场景下的行人检测性能,为行人检测任务建模提供了参考。
关键词
计算机图像处理
/
YOLOv11n
/
行人检测
/
复杂场景
/
注意力机制
/
小目标检测
Key words
基于改进YOLOv11n的复杂场景下行人检测模型[J].
河北科技大学学报, 2026, 47(1): 60-72 DOI: