京穗船舶开发的这款无人艇垃圾清漂船,是水域清洁的主力装备。它靠着自主导航算法和水面垃圾识别算法这两个车轮使劲跑,就能在“感知-决策-执行”这个大闭环里自如作业。要把船送对地方、避好险,就得靠多源感知技术跟分层算法一起干。 定位这块儿,咱们用GNSS(也就是GPS或北斗双模)再加上IMU惯性测量单元做主心骨,还搭配上激光雷达、超声波或者毫米波雷达。在开阔水面上,GNSS能把精度锁到厘米级;要是钻到桥洞底下或者箱涵里这种卫星信号被挡住的地儿,就立刻换成“IMU加激光雷达SLAM”或者视觉里程计,防止定位跑偏。环境感知这块也下了功夫,激光雷达负责近距离细抠礁石之类的东西;超声波/毫米波雷达看远处的障碍;高清摄像头给视觉目标补刀。 为了在各种复杂场景里跑通,咱们把导航算法给分层了。在开阔的河道或者湖泊里巡航时,用GNSS加上激光雷达来定位,把路径规划成网格形状;碰到突发障碍了,就用DWA算法灵活应对。这种模式能让无人艇在这种环境下24小时不停地干活,一小时能收拾20亩地的垃圾。要是进了狭窄的箱涵或者港口这种地方,就得换成“激光雷达SLAM加视觉辅助”。通过拟合箱涵的侧壁平面规划出一条中线,再用LOS导引律来跟踪中线,这样就算没有卫星信号也能稳住不跑偏。 有时候还需要多艘船一起干活,这时可以通过5G物联网把路径调度起来。这样既不撞车也不重复工作,把区域清洁效率提上去。 水面上的垃圾好不好找、能不能认出来、别认错了,全看垃圾识别算法的本事。咱们用深度学习作为核心,专门对付水面的复杂环境。拿到图像后先做预处理,比如调白平衡、矫正伽马值、去噪之类的操作,把水面反光和波纹的干扰给去掉。然后用改进型YOLO系列算法提取垃圾的形状、纹理、颜色这些特征,实现实时检测和定位。 分类的时候要把垃圾和自然飘着的树叶、水草分开。咱们会设定面积阈值和形状特征来筛选掉小目标噪声(比如水波倒影)。 为了连续地盯着目标不让它跑了,咱们还结合了SORT或者DeepSORT算法进行跟踪。这样就可以预测垃圾的运动轨迹了。 为了让模型跑到板子上不卡壳,我们用了HGNetV2这样的轻量化网络。把标准卷积换成深度可分离卷积以后,模型的参数能压到8MB以内。这样就能在Jetson Nano这种边缘计算盒上跑起来了。 为了对付水面上的不同尺度的目标(比如小瓶子和大片的水浮莲),咱们引入了感受野注意力机制(RFA)。为了防止半沉半浮的垃圾因为变形而被漏检,咱们用了形变自适应损失函数。 强光和低光照环境有时候也挺让人头疼的。咱们融合了多光谱和红外成像技术来解决这个问题。 为了让模型更抗折腾不闹情绪(鲁棒性更强),咱们用数据增强的方法(比如翻转、裁剪、亮度调整)来扩充数据集。这样一来就能训练出抗干扰的模型了。数据增强之后强光下的误检率从35%降到了5%以内。 算法的核心指标现在也不错:平均精度(mAP@0.5)优化后能达到85%到90%,比以前传统的算法提升了30%以上。推理速度在边缘设备上也有保证:能跑到30FPS以上。 这套系统把自主导航和垃圾识别算法深度联动起来: 第一步无人艇按预设路线自己巡过去,摄像头和激光雷达开始同步采数据; 第二步识别算法实时盯着视频流看; 第三步导航算法根据目标位置改航线; 第四步操纵推进器和打捞装置去拦截。 干完活儿还能自己开回去卸货或者充电。 虽然现在还得面对强光、大风浪这些复杂环境的挑战;还有垃圾重叠、遮挡这种麻烦情况;以及板子上的算力不够用得平衡精度和速度这几个问题。 不过以后还是有不少好的发展方向: 比如让视觉、声呐、红外这些多模态数据融合起来干活; 让算法自己通过实战不断进化来适应新情况; 再就是多艘无人艇互相配合实现区域全覆盖的高效清洁。