深夜的麦田中,一台自动驾驶收割机正轰鸣作业。突然,几个弯腰捡拾遗漏作物的农民身影出现在探照灯光边缘——传统监控系统很可能忽略这些“隐形人”,而一场事故或许就在下一秒发生。针对农业机械作业中行人检测的痛点,湖南农业大学研究团队开发出YOLOv8n-SS算法,让密集农田中的微小目标与遮挡行人无所遁形。
农机监控的“视力缺陷”
当前智能农机依赖计算机视觉实时感知环境,但在农田复杂场景中面临双重挑战:一是密集人群相互遮挡,二是远处农民在低分辨率画面中如同“像素点”。传统YOLO等模型在标准场景表现优异,一旦遇到光照多变、机械遮挡的农田环境,漏检率便急剧上升。研究显示,现有模型在农田密集行人检测中的平均精度(mAP)不足75%,相当于每四个行人中就有一个可能被系统“视而不见”。
给AI装上“高清镜头+智能聚焦”
研究团队从两方面改造了YOLOv8n模型的核心结构:
SPD-Conv模块:如同将模糊镜头升级为高清摄像,该模块通过空间深度转换技术,把下采样过程丢失的细节信息重新捕获。传统卷积层压缩图像时会丢弃大量像素信息,而SPD层将图像拆解为精细拼图后再重组,使远处农民的工作服纹理也能清晰保留。
SK注意力机制:就像摄影师手动选择对焦点,该机制让AI自动识别关键特征。当画面中出现被农机半遮挡的农民时,系统会动态融合不同尺度卷积核的观测结果,给草帽、手臂等关键部位打上“高光标记”,避免将人体误判为稻草堆。
实测效果:漏检率降低70%
在包含4.7万行人的CrowdHuman数据集测试中,新算法交出了突破性成绩单:
密集人群检测精度(mAP@0.5)达83.6%,比原模型提升7.2%
复杂场景泛化能力(mAP@0.5:0.95)达58.7%,提升9.2%
真实农田测试中召回率跃升14.9%,意味着每10个行人能多检出1.5人
更直观的对比出现在暗光场景:当传统模型(YOLOv8n)把树荫下的农民漏检时,改进模型(YOLOv8n-SS)不仅精准框出所有目标,连人物轮廓置信度都提高15%以上(如图)。在严重遮挡的麦收场景,新算法甚至能识别出仅露出头盔的拖拉机后方人员。
智慧农业的安全基石
这项突破意味着农业机械化正获得更可靠的“安全卫士”。当自动驾驶拖拉机在果园行进时,系统能实时发现弯腰采摘的果农;联合收割机作业时可自动避开拾穗者。研究团队指出,该技术已具备移植到农用无人机、果园机器人的条件,未来将结合目标跟踪技术,构建从预警到紧急制动的完整安全链条。
随着我国农业劳动力短缺加剧,智能农机渗透率持续提升,这项兼顾精度与效率的技术(模型体积仅5.2MB),为“无人农场”提供了关键安全保障。正如论文通讯作者李延飞教授所言:“让机器看懂农田里的人,是智慧农业不可逾越的起点。”
来源: 农业科学与工程前沿