您的常用邮箱:*
您的手机号码:*
问题描述:
关键词: 图像处理 多聚焦显微图像 目标识别 目标追踪 多图融合
摘要: 多聚焦细胞图像序列在采集过程中因培养基具有流动性会造成同一细胞在不同帧图像的位置变化,且失焦细胞与聚焦细胞在形态学上存在明显差异,因此细胞图像序列无法满足现有的多聚焦图像融合算法需要保证图像内容在空间上一致性的要求。为此,本文提出了一种基于目标识别的多聚焦细胞图像融合方法,通过改进的YOLOv10目标识别模型对图像序列的所有细胞完成锁定后,进行目标追踪以关联多帧细胞并确认其运动轨迹,并对关联的同一细胞进行清晰度评价后选择清晰度最高的细胞经过图像分割,提取和融合得到最终的全聚焦清晰图像。将所提出方法与7种多聚焦图像融合算法应用于多聚焦细胞图像融合并对融合结果进行对比分析,本文提出方法的峰值信噪比平均提高3.9993,结构相似性指数达0.9741以上,融合图像内容完整、细节准确、清晰度高,实现了对多聚焦细胞显微图像的高质量融合。
关键词: 深度学习 图像处理 遮挡检测 可变形卷积v2 Soft-NMS Alpha-CIOU损失函数
摘要: 为了解决生产环境中烟丝检测因粘连、遮挡现象而引发的检测精度不足等问题,提出一种基于改进YOLOv5s的遮挡烟丝检测方法。利用DCN v2C3模块替换YOLOv5s网络颈部的C3模块,提取烟丝深层次的特征信息,提升网络模型的空间变换能力及其泛化到不同形状目标的能力;引入Soft-NMS算法,平滑抑制冗余的边界框,增强对遮挡烟丝的识别能力;采用Alpha-CIOU损失函数,以优化模型的边界框定位精度。实验结果表明,与原始方法相比,改进方法的检测精度提高了2.7%。该方法在提高了检测精度的同时减少了计算量。
关键词: 光伏组件 红外图像 目标检测 YOLOv8 深度学习
摘要: 通过无人机拍摄光伏组件红外图像进行检测时,图像背景较为复杂,且其中含有的小目标热斑故障在检测过程中容易丢失信息,出现误检或漏检等状况。针对上述问题,将HCF-Net与YOLOv8n网络结合,提出一种融合网络(HCF-YOLO)用于光伏组件红外图像热斑故障检测。加入并行化注意力机制(PPA),通过分层特征融合和注意力机制来增强小目标的表达,确保在多个降采样步骤后保留热斑关键信息。采用维度感知选择性集成模块(DASI),注重对高维和低维特征的自适应选择和精细融合,增强小目标的显著性。使用PIOU(Powerful IoU)作为HCF-YOLO的损失函数,在回归的早期阶段,引导预测框沿着有效路径回归,提升检测速度。HCF-YOLO算法相较于原有的YOLOv8n算法检测精度(average precision 50,AP50)由89.27%提升至97.28%,并且检测速度达到217.33帧/s,实验结果可证明模型的有效性。
关键词: 无人机 目标跟踪 孪生网络 多尺度特征融合
摘要: 针对传统目标跟踪算法计算量大、跟踪精度低等问题,提出了一种结合孪生网络和Transformer的轻量级目标跟踪算法,能够有效应对无人机跟踪场景的各种挑战。首先,基于轻量级特征提取网络GhostNet设计模型的主干网络,提取目标的多尺度特征。随后,利用改进的Transformer结构搭建模型的多尺度特征融合层,充分融合目标的多尺度特征。最后,将改进的Transformer结构与孪生网络的互相关操作相结合,整合特征的全局与局部信息,实现对跟踪目标的精确定位。在UAV123、GOT-10k和LaSOT数据集上的实验结果表明,所提算法跟踪性能优秀,跟踪速度达到了87帧/s,在GPU和CPU平台上均实现了实时目标跟踪。
关键词: 高速公路 无人机 YOLOv8 目标检测 多目标 小目标
摘要: 正常运行的高速公路上,存在干扰驾驶员判断、造成交通隐患的危险目标,使用无人机进行检测时可能面临遮挡、重叠、分散、异构等难点。为解决这些问题,提出一种基于YOLOv8n的高精度检测算法--CT-YOLO。首先,在YOLOv8骨干网络C2f模块中重构空洞卷积(Dilated Convolution),在卷积前后分别融合1×1卷积,解决应用场景目标分散的问题;其次,改进经典特征金字塔网络,额外增加两个检测层,提高了对遮挡、小目标的检测精度;最后,将改进的三重注意力机制融合到Head部分的C2f模块中,增强模型对异构目标信息的捕捉能力。通过视频采集、分帧、人工标注和数据增强,构建了一个包含11种异常目标的图像数据集,包括裂缝、修补、果皮、树叶、塑料、坑槽、箭头、车道线、纸箱、泛油和易拉罐。实验结果表明,CT-YOLO算法在异常目标图像数据集上mAP@0.5提升了13.2%,mAP@0.5:0.95提升了11%,检测精度明显提高,具有较好的实际应用效果。
关键词: 无人机航拍 小目标检测 YOLOv11n LAMP剪枝 Focal-DIoU
摘要: 【目的】针对无人机航拍图像中小目标检测面临的背景复杂、尺度变化大导致的检测精度较低和推理速度较慢等问题,文章提出了一种基于YOLOv11n模型的改进算法YOLOv11n-DPD,旨在提升无人机航拍图像中小目标的检测精度,并实现模型轻量化和推理加速,便于资源受限的嵌入式设备上部署运行。【方法】首先,在C3k2模块中引入可变形卷积(DCN),增强模型在复杂背景下对多尺度目标的特征提取能力,特别是对于形变显著的小目标。其次,针对无人机航拍图像中小目标占比较多等情形,新增P2(Prediction Layer 2)小目标检测层并去除了P5(Prediction Layer 5)大目标层,有效提高了小目标特征的捕获精度,同时减少了大目标检测层的冗余计算。然后,提出了一种结合Focal Loss与DIoU Loss的Focal-DIoU(Focal Loss and Distance-IoU Loss)损失函数,解决了小目标检测中的各目标类别不平衡问题,并优化了边界框的定位精度。最后,采用LAMP剪枝方法对模型进行轻量化处理,主要通过适当调整剪枝加速比,自适应地按层评估并删除冗余连接,减少模型整体计算量并加速推理过程。【结果】在VisDrone2019数据集上的实验结果表明,YOLOv11n-DPD相较于原YOLOv11n模型,在mAP50指标上提升了6.5%,达到了40.7%,增强了对无人机航拍小目标的检测精度。同时,YOLOv11n-DPD在推理速度方面,在Ubuntu和JETSON平台上分别提高了32FPS和6FPS,显著加快了推理过程。模型的大小和参数量分别减少了3.87和2.02 MB,证明了算法在轻量化方面的优势。此外,与现有主流的小目标检测方法相比,YOLOv11n-DPD在检测精度、推理速度和计算资源上综合表现更好,具有显著优势。【结论】文章所提YOLOv11n-DPD算法通过引入可变形卷积、优化小目标检测层结构、改进损失函数和进行模型剪枝,提高了检测精度、加速了推理过程并优化了模型大小,与现有的小目标检测方法相比表现更优,尤其适用于无人机航拍小目标检测任务和嵌入式平台的部署推理。
关键词: 无人机 边缘计算 目标检测 目标跟踪 公路巡检
摘要: 对公路标线的实时跟踪是无人机公路巡检任务中的一个重要环节。较新的深度学习网络算法一般伴随着较大参数量,限制了其在边缘设备上的应用,针对其部署在边缘计算平台上的需要,本文提出了一种基于改进YOLOv3-tiny和DeepSORT的公路标线跟踪算法。改进的算法首先进行K-Means++聚类,其次采用CIOU损失函数,使检测框的回归更加稳定,最后引入改进的SPP结构和SAM空间注意力机制丰富有效特征提取。对检测到的公路标线进行跟踪,并根据实际巡检的情况对DeepSORT进行改进。实验结果表明改进的YOLOv3-tiny算法相比于原算法mAP提高了4.02% ,改进的DeepSORT算法相比于原算法MOTA值提升了1.9 %,在Nvidia Jetson Xavier NX平台上进行测试,平均帧速率可达31.2帧/s,满足了无人机实时巡检的需求。
关键词: 自动驾驶 目标检测 注意力机制 多尺度特征融合 尘雾环境
摘要: 针对扬尘、雾霾等恶劣环境下,车辆目标检测中漏检、误检及远小目标检测精度低等问题,提出了EPMYOLOv8的目标检测算法。将高效通道注意力(ECA)模块集成到YOLOv8n算法的C2f模块,使骨干网络更加关注浅层较小的目标特征信息;通过增加目标检测层,并设计多尺度特征融合架构,提高模型目标特征提取能力与检测精度;使用基于最小点距离交并比(MPDIoU)损失作为损失函数,提高检测框回归精度。试验结果表明:EPM-YOLOv8模型检测框查准率达到83.6%,检测精度达到76.8%,对尘雾恶劣环境的检测性能具有一定优越性。
关键词: 目标检测 特征提取 注意力机制 插值函数
摘要: 针对Deformable DETR仅采用ResNet进行简单特征提取限制了后续模块检测效果的问题, 提出一种基于特征增强与多项式差值的目标检测网络. 首先引入特征提取模块同时提取图像局部和全局信息, 帮助网络更精确地捕捉图像关键特征; 然后设计双注意力模块根据需求动态地调整特征通道和空间位置的权重, 使网络能够聚焦于对当前任务更为重要的图像区域; 最后提出一种多项式插值方法拟合目标点周围更多的特征向量, 计算生成更高质量的特征向量. 在COCO数据集上采用一致的实验条件进行实验, 相比Deformable DETR, 所提网络平均检测精度提升至44.8%, 大目标检测精度提升1.9个百分点, 各项检测精度均得到提升, 并且优于对比的其他系列网络.
关键词: 滑坡体监测 变动识别 图像处理 Python 大尺度粒子图像测速(LSPIV)
摘要: 针对传统滑坡体形变位移监测方法在点状测量、设备安装及维护上的局限性,提出了一种基于图像差分技术的滑坡体形变监测新方法。首先对监控相机拍摄的图像进行预处理,包括计算参数设定、位移噪声过滤与差值计算;随后,采用大尺度粒子图像测速(Large Scale Particle Image Velocimetry,LSPIV)技术分析图像序列,精准测量物体表面的位移或速度矢量场;最后,结合自编Python算法实现滑坡体变动的自动识别与移动区域的精确测速。试验结果表明:该方法相对误差平均为5.35%,验证了LSPIV技术在滑坡体形变监测中的高精度与可靠性。通过对室内滑坡模型及实际滑坡视频数据的处理,实现了滑坡体形变与移动的准确识别与测量。该方法不仅能够实现大范围区域的面状监测,还在满足高精度要求的同时具有较低的实施成本,为滑坡体变动监测提供了一种创新性的解决方案。