关键词:
目标检测跟踪
建图导航
非结构化场景
点云补全
复合机器人应用
摘要:
移动复合机器人作为具备自主末端动作执行能力的边缘智能体终端,已成为推动产业转型升级的重要力量。其主要应用于缺乏稳定作业单元配置、环境几何结构与感知条件动态变化的非结构化场景,导致任务位置、观测条件与目标状态具有高度不确定性,进而愈发依赖对高维多源信息(如视觉)的深度理解、解析与决策,来有效驱动精密动作执行。围绕多元任务需求与关键技术瓶颈,本文系统性地开展了面向非结构化场景的移动复合机器人视觉检测跟踪、定位建图导航与分类控制抓取方法研究,旨在构建手(足)眼协同的智能复合机器人系统,即通过视觉感知引导末端动作,为其执行跨域多类别任务提供理论依据与技术支撑。本文主要研究内容与创新点如下:
1)针对非结构化场景中因光照变化、密集堆叠等因素引发局部纹理退化与空间结构混叠,导致模型在高维特征空间中难以构建具有辨识度的有效表征问题,提出多梯度流输出的多维强化自我注意力机制,通过构建跨通道、多尺度特征关联融合的目标检测模型ACDet(Self-Attention and Concatenation Based Detector),有效增强了关键特征表达能力。为降低对人工监督训练样本的依赖,提出了基于时空对齐动态窗口的无监督在线学习自动标注方法,通过精确融合不同时间步长内的异构检测信息,有效构建了模型外部知识增益通道。在多模态图像数据集测试中,m AP领先主流同类算法6.31%至19.41%。在超过10万次的零样本验证实验中取得了99.91%的识别准确率,为复合机器人在不同应用场景下的自主决策与动作执行提供可靠的视觉语义理解和数据支撑。
2)检测阶段提供的静态帧内语义需进一步延展至时间维度,通过引入长期跟踪机制,建立关键目标时序一致认知信息,提高复合机器人在连续时间、空间内感知与动态决策中的响应能力。针对轻量级单目标短期跟踪算法在遮挡、消失等扰动下易产生模型误更新与漂移的问题,构建了基于脑启发的不确定性估计参数体系,提出连续学习率下的自适应模型更新机制与异构重检策略,从根源层面修复了长期跟踪易失效的缺陷。为应对多目标长期跟踪中数据关联匹配面临的搜索空间指数级膨胀现象,巧妙地将匹配过程建模为二次无约束二进制优化问题,并引入量子退火算法以实现高效求解。多类别数据集测试表明,单目标跟踪算法在覆盖率和定位精度上分别提升10.5%和5.8%,多目标跟踪算法计算效率提高51.7%。在实物验证中,复合机器人成功完成了协助巡检与模拟灭火任务。
3)通过视觉检测跟踪对非结构化场景中目标的持续感知后,需进一步完善基于视觉感知驱动的自主定位建图导航体系。针对极端照度与动态目标干扰条件下,多传感器SLAM(Simultaneous Localization and Mapping)出现的视觉测量退化问题,提出一种融合红外特征高斯加权与视觉跟踪结果驱动的前端直接动态区域剔除策略,构建了紧耦合定位建图框架IIVL-LM(IMU,Infrared,Vision,and Li DAR Fusion for Localization and Mapping),确保系统始终保持至少三个传感器的有效工作状态。为解决机械式避障存在的策略僵化问题,通过在多源视觉观测与动作约束空间中设计奖励函数方程组来有效融入优先避障理念,在降低人机碰撞风险的同时增强长距离导航能力。在光照变化和动态目标干扰环境下的仿真验证中,定位精度较近年多传感器SLAM算法平均提升29.1%,动态目标避障成功率提高16.7%,在复合机器人定位建图导航任务真实场景测试中展现出良好的稳定性与跨类别任务适应能力。
4)在实现自主定位导航的基础上,建立复合机器人从检测、跟踪、分类到控制抓取的完整闭环框架,是突破集中式任务分配约束,使其备高阶任务执行能力的关键前提。针对密集分类标签精确识别中局部不变特征匹配引发的计算开销激增现象,提出一种拓扑信息熵最优的分类多层小世界图索引体系,实现在高维特征空间中执行逐层逼近的最近邻搜索,有效地将时间复杂度降至对数级别。针对底盘定位和视觉测量误差叠加扰动导致的机械臂抓取控制精度下降问题,提出扩展高增益连续PID滑模跟踪控制方法,确保闭环系统误差的近似渐近收敛,提升轨迹跟踪精度与抓取稳定性。针对视觉观测受限与运动模糊干扰导致的三维点云残缺,从源头上制约基于6D位姿估计的抓取鲁棒性问题,提出了多模态视图引导式点云补全网络UBCnet(Unified Multimodal Encoding and Bilateral Complementary Fusion Network),通过构建统一特征编码和双向信息融合机制,显著提升了点云重建精度。整套框架部署于复合机器人平台并开展实物验证,在对0.4?m/s匀速运动目标的抓取测试中,分类信息识别准确率达99.0%,控制抓取成功率为82.0%。