关键词:
图像处理
自动驾驶视觉联合感知
任务特征解耦
语义融合
双分辨率解耦
摘要:
针对现有自动驾驶视觉联合感知算法耦合解码网络未考虑各子任务不同特征需求,导致检测任务内部竞争及边缘分割粗糙问题,提出一种基于任务特征解耦的自动驾驶视觉联合感知(TFDJP)模型。在目标检测解码部分,设计逐级语义增强模块及空间信息细化模块,聚合不同语义层次特征,对分类与定位子任务梯度流分离编码,减少子任务间内部冲突,同时在定位部分增加交并比感知预测分支,加强子任务间关联,提升定位精度。在可行驶区域分割及车道线检测解码部分,构建双分辨率解耦分支网络,对目标低频主体区域及高频边界像素分离建模,采用边界损失引导目标完成从局部到整体的训练学习,实现目标主体及边缘的逐步优化,提升整体性能。在BDD100K数据集上的实验结果表明,与YOLOP相比,TFDJP的目标检测平均精度提升2.7百分点,可行驶区域分割平均交并比提升1.3百分点,车道线检测准确率提升10.6百分点。相较于其他多任务模型,TFDJP实现了准确性与实时性的有效平衡。