您的常用邮箱:*
您的手机号码:*
问题描述:
关键词: 毫米波引信 锥旋运动 Keystone变换
摘要: 在炮弹攻击目标的过程中,由于存在锥旋运动导致毫米波引信回波出现距离走动问题,无法准确测距。为解决该问题,首先结合实际情况构建了弹头的锥旋运动模型并进行理论推导,得到影响距离走动的主要参数及由锥旋引起的回波延时,然后通过近似为匀加速运动实现相参积累,并采用Keystone变换进行运动补偿,最终利用二维FFT实现测距分析。仿真结果表明,俯仰角、方位角及锥旋角对锥旋引起的距离走动均存在影响,采用Keystone变换可以进行有效补偿。
关键词: 机器视觉 玻璃纤维束 图像处理 缺陷检测 KNN分类算法
摘要: 玻璃纤维束是由成百上千根细小的玻璃纤维组合而成的整体,由于这种结构,在纤维缠绕制品生产工艺过程中的断纱缺陷难以识别。针对此难题,提出了一种基于机器视觉检测玻璃纤维束是否有缺陷及缺陷位置定位的方法。利用工业相机实时拍摄纱路上玻璃纤维束的图像,并把图像传输到计算机,由计算机利用OpenCV库对每一帧玻璃纤维束的图像进行处理,得到每根玻璃纤维束的轮廓及缺陷特征,根据缺陷特征通过缺陷检测算法判断玻璃纤维束是否完全断开或部分断开,利用KNN算法判断缺陷所在的位置。玻璃纤维束的运动速率为1m/s,以30 fps的帧率采集600张图像进行实验验证,检测数据表明综合准确率达96.6%,满足玻璃纤维束缺陷检测的要求。
关键词: 深度学习 缺陷检测 YOLOv8 图像处理
摘要: 针对铸造零件X射线DR图像小目标缺陷特征不明显,现有目标检测算法精度不高的问题,提出一种基于YOLOv8的铸件DR图像小目标缺陷检测方法。首先通过CLAHE算法,增加图像对比度,突出缺陷细节。其次对灰度图像进行通道扩充,增加深度学习网络可学习信息。最后改进YOLOv8网络,使用空洞卷积提取更大感受野的初始特征;引入SimAM注意力机制加强重要特征;添加小目标检测层获得较大尺寸的特征图。结果表明,改进的YOLOv8算法对铸件小目标缺陷检测的均值平均精度(mAP)和mAP@0.5:0.95分别达到了86.1%和52.5%,较原模型分别提高了2.4和4.8个百分点,铸件小目标缺陷检测精度更高。
关键词: 遮挡行人重识别 计算机视觉 自注意机制 三元组损失
摘要: 遮挡行人重识别(ReID)是一项旨在将遮挡人物图像与整体图像进行匹配的人物检索任务。为了解决遮挡问题,基于局部特征的方法已经被证明是有效的,因为它们提供了小粒度的信息,并且非常适合表示部分可见的人体。针对基于局部的模型训练存在的两个挑战:身体部位外观不像全局外观那样具有可辨别性与身体部位错位。LGFNet(local-global feature Net),基于自注意力机制,生成感受野大小自行调整的空间注意力图,进行全局-局部特征联合学习。LGFNet在Market-1501数据集上,Rank-1为95.2%,mAP为86.5%;在DukeMTMC-reID数据集上Rank-1为90.2%,mAP为80.3%;在Occluded-Duke数据集上Rank-1为71.5%,mAP为60.9%。相较同类方法,在准确率方面均取得了显著提升。
关键词: 自动对焦 深度学习 成像系统 图像处理 视觉测量
摘要: 针对传统对焦法需要采集较多的离焦图像,大大增加了对焦耗时,从而限制了其在视觉测量系统场景中应用的问题,提出了一种基于深度学习的对焦方法。该方法将自动对焦问题转化为图像的离焦距离预测问题,首先利用Shufflenetv2与MLP构建轻量化深度回归网络并通过工作场景中采集的目标图像数据集进行训练。然后通过合理的对焦策略,利用两帧图像即可完成对焦,减少了对焦耗时。同时也可以避免传统对焦法由于局部极值点导致的对焦误差较大的问题。实验结果表明,该方法的对焦耗时仅为传统对焦法的15%-24%,对焦稳定性相比传统对焦法提升约40%,具有对焦速度快、对焦稳定性高、模型复杂度低等优点,能够很好地应用于视觉测量系统当中。
关键词: 图像处理 三维点云 泊松曲面重建算法 区域生长算法 曲面分割 边界特征
摘要: 针对传统泊松曲面重建算法易在物体内外边缘产生伪封闭曲面导致重建结果出现偏差的问题,提出了一种基于边界区域生长的改进方法。基于泊松曲面,通过法线提取物体边界点并拟合连续的边界曲线;采用向量叉乘法筛选边界的近邻点,获取边界特征;采用双射线法提取边界内曲面的初始种子点,利用以边界特征为约束的区域生长法分割泊松曲面。实验验证该方法可有效去除模型中存在的伪封闭曲面,提高重建曲面的准确度和完整性,对不同类型的物体具有良好的适应性与性能稳定性。
关键词: 遥感图像 光学遥感图像 船只目标检测 无锚检测器 旋转框目标检测
摘要: 精准高效的船只目标检测在确保海洋利益和构建海洋强国中发挥着重要作用,其现实价值显著。然而,现有的基于可见光遥感图像的船只检测算法大多依赖于锚框,计算量大、超参数且算法的泛化能力有限。尽管自然图像目标检测算法通过采用无锚的方法改进了这些问题,但它们仅能实现水平框检测,无法应对船只目标形状狭长、角度分布不同和排列紧密等特点。针对这些问题,本文设计了一种无锚旋转框遥感图像船只目标检测算法。具体来说,本文在CenterNet的基础上,针对遥感图像船只检测任务,提出了一种基于分布先验的置信度系数预测分支来产生更高质量的正样本;一种基于双曲激活的角度预测分支来限制角度的输出空间,得到更准确度旋转角度表示;同时,该方法采用柔性正负样本标签分配策略,以提供动态的精细化的监督信息,加速网络的收敛。在HRSC2016数据集上的实验验证了本文方法相比与其他先进对比方法的优越性,并证实了各模块的有效性。
关键词: 民居建筑 典型特征 信息提取 计算机视觉 多尺度结构相似度
摘要: 传统的民居建筑典型特征提取主要是通过大量现地观察、测量和采样后,凭借个人经验进行提炼总结,抽象概括出有代表性民居建筑形状、颜色和样式等造型特征。该类方法容易受个人主观因素影响,工作量大,可复现性不强,稳定性、可靠性和科学性不高。针对以上问题,结合计算机视觉、统计分析和遥感成像等技术手段提出一种西藏地区高原民居建筑典型特征遥感提取方法。首先,利用K-means无监督聚类对民居建筑形状特征进行提取,获取典型民居建筑长度、宽度和长宽比等典型形状特征指标;其次,将RGB三色的民居建筑样本转换到Lab色彩空间, 通过色差阈值分割与统计分析提取民居建筑典型颜色特征;最后,引入样本多尺度结构相似度对建筑样式进行定量化表征,通过样本精选、结构特征模板提取和最大相似度匹配提取典型民居建筑样式。以西藏地区的桑耶镇和曲水镇作为实验区分别选择四种经典主流方法开展了两组对比验证实验。实验结果表明,该方法提取的建筑典型特征一致性较好,结果稳定、可靠,受人为因素影响较小。同时也发现,高原民居建筑长宽比大致在1.1:1左右,长度约24~29m,宽度略窄。民居建筑颜色主要为浅灰褐色,占比最大的前3~4种主色与当地的裸土颜色非常相似。典型民居建筑样式主要呈“回”字型结构,中间有庭院和四周为围墙。
关键词: 环视图像 三维目标检测 注意力机制 时序融合
摘要: 为了解决当前基于环视图像的纯视觉三维目标检测算法难以兼顾和均衡精度和计算速度的问题,提出了一种改进DETR3D的环视图像三维目标检测算法。算法整体框架基于DETR3D的编码器解码器架构,在图像特征提取分支外增加3D位置编码器以增强图像特征,为物体查询向量Object query定义两个分量分别表示物体边界框和实例特征,在解码器部分引入了基于欧氏距离的多尺度自适应注意力机制以捕捉3D空间中的多尺度信息,提高对于自动驾驶场景中复杂多样物体的检测能力,在特征采样部分引入时序信息,通过连续多帧图像的特征对齐来提高当前帧下的物体检测精度,并且使用多点采样来提高采样过程的鲁棒性。在nuScenes数据集上进行了实验,实验结果表明,和基准算法相比,所提出的算法在检测精度和计算速度方面分别提高了17.1%和4.22倍,且能够检测出被遮挡环境下的物体。
关键词: BP神经网络 绝缘子憎水性 目标检测算法 图像处理
摘要: 目前基于卷积神经网络将复合绝缘子喷水图像进行整体憎水性分类的方法对于图像局部的憎水性关注度不足,因此本文提出了一种基于目标检测算法的复合绝缘子表面憎水性判别方法。首先取样不同形态的喷水图片共5 800张,根据水珠形貌和接触角提出了单独针对水珠的分类标准。之后采用以SE-Resnet为骨架网络的Faster R-CNN对表面水珠进行分类,并获得了基于目标检测算法的21个水珠局部特征参数。为了兼顾图片全局特性,同时基于数字图像处理构建了12个与水珠亮斑面积和形态相关的全局参数。最后通过特征筛选,建立了基于BP神经网络的26参数憎水性等级自动判别模型,实现了检测过程的自动化。在±1误差允许范围内,模型判别准确率达到了99.13%。