基于单目视觉和改进YOLOv8-pose模型的篮筐位姿估计方法

陈琳, 徐震, 张春燕, 吉晓升, 成松松, 黄嘉俊

华南农业大学学报 ›› 2026, Vol. 47 ›› Issue (01) : 106 -117.

PDF
华南农业大学学报 ›› 2026, Vol. 47 ›› Issue (01) : 106 -117.

基于单目视觉和改进YOLOv8-pose模型的篮筐位姿估计方法

    陈琳, 徐震, 张春燕, 吉晓升, 成松松, 黄嘉俊
作者信息 +

Author information +
文章历史 +
PDF

摘要

【目的】当前设施大棚蔬菜采收装筐后的搬运作业仍以人工为主,存在效率低下、劳动强度大等问题,严重制约了农业生产的规模化与智能化发展。开发具备篮筐自主抓取功能的新型农业机器人,是破解该瓶颈、提升农业生产效率的关键技术路径。其中,基于计算机视觉技术实现对篮筐的精准位姿估计,是保障机器人抓取动作稳定可靠的核心前提与技术基础。然而,现有位姿估计方法的准确性与实时性难以满足复杂大棚环境下的实际作业需求,亟待进一步深入研究与优化。【方法】以YOLOv8-pose为基准模型,通过检测篮筐特征点并融合PnP算法估计篮筐位姿。首先,利用单目相机采集各种复杂背景下的篮筐RGB图像并制作成数据集。其次,在YOLOv8-pose模型基础上引入Biformer模块、GAM注意力机制和Focaler_GIoU损失函数,提升模型在复杂背景和遮挡情况下的关键点检测性能。最后,基于篮筐尺寸参数与检测到的关键点二维坐标,利用PnP算法求解篮筐在三维空间中的位姿参数。【结果】试验结果显示,关键点平均精度均值、准确率分别提升3.73、4.31个百分点,定位平均精准度提高了5.20像素,与手动标识的关键点之间的均方根误差为4.45像素。通过分析相机与篮筐距离对位姿估计精度的影响可知,在相机距离篮筐1.7~1.9 m时,位姿估计算法表现出较高的定位精度,表明相机与篮筐的相对距离对位姿估计精度具有重要影响。【结论】本研究提出的方法可为设施大棚场景下的篮筐位姿估计提供低成本、高精度的解决方案,为农业机器人抓取篮筐提供技术支撑。

关键词

视觉识别 / 关键点检测 / 位姿估计 / YOLOv8 / 农业机器人

Key words

引用本文

引用格式 ▾
基于单目视觉和改进YOLOv8-pose模型的篮筐位姿估计方法[J]. 华南农业大学学报, 2026, 47(01): 106-117 DOI:

登录浏览全文

4963

注册一个新账户 忘记密码

参考文献

AI Summary AI Mindmap
PDF

0

访问

0

被引

详细

导航
相关文章

AI思维导图

/