关键词:
视觉SLAM
动态场景
目标检测
位姿估计
摘要:
针对传统的视觉同步定位与地图构建(SLAM)在动态场景下容易受到运动物体干扰,导致位姿估计精准度和鲁棒性下降的问题,提出了一种基于目标检测网络的视觉SLAM算法。该算法通过在ORB-SLAM2的跟踪线程中新增动态特征点检测剔除模块,从而利用静态特征点进行位姿估计。首先,选择YOLOv7作为目标检测的主干网络,结合GhostNet轻量化卷积网络和具有SE注意力机制的卷积(Conv_SE),以有效地检测周围环境;其次,对检测到的物体进行分类处理,剔除动态物体特征点,通过几何约束的方法进一步检测和剔除潜在运动物体;最后,仅利用静态特征点进行特征匹配和位姿估计。在TUM数据集上的验证结果表明,与ORB-SLAM2相比,提出的算法在动态Walk序列下,绝对轨道误差(ATE)的均方根误差平均减少96.5%,在其他动态序列下也有改进效果。实验证明,该算法在动态场景下能够显著提升系统的定位精度和鲁棒性。