您的常用邮箱:*
您的手机号码:*
问题描述:
关键词: 河流流速 智能检测 图像处理 特征点识别 特征点筛选
摘要: 图像法在流速测量领域有着越来越重要的地位,在时空图像法的基础上,提出了基于帧间特征点匹配的流速测量算法,在实验模型上进行了验证,并在黄河范县段进行了应用。对SURF(Speeded Up Robust Features,加速稳健特征)与BF(Brute Force,暴力匹配)进行改进,根据图像中的轮廓信息对河道区域进行分割,使得SURF的识别区域与识别结果更精准,识别速度更快。然后,根据特征点间的欧氏距离筛选特征点,计算出特征点的像素位移,根据帧速率计算得到特征点的像素速度并将其转化为实际速度。与多普勒流速仪测量结果进行对比,本文算法测量结果的平均绝对误差为0.56cm/s,平均相对误差为5.7%。与LK光流法相比,分别提高了0.3cm/s与4.1%;最后,将算法应用于黄河濮阳范县段,平均相对误差4.24%,比光流法提高了4.15%。基于帧间特征点匹配的流速测量算法在保证了测量精度的情况下,能兼顾流速测量的实时性与便捷性,基本满足了水利数字化、信息化的背景下,对河流流速的实时、准确、便捷的测量要求。
关键词: 可变形卷积 目标检测 损失函数 深度学习 实时监测
摘要: 穿戴个人防护装备是保障矿井人员作业安全的重要手段,开展矿井人员防护装备监测是煤矿安全管理的重要工作内容。煤矿井下环境较为复杂,视频监控易受到噪声、光照以及粉尘等因素干扰,导致现有的目标检测方法对矿井人员防护装备存在检测精度低、实时性差、模型复杂度高等问题,提出了一种改进YOLOv8的矿井人员防护装备实时监测方法,称为DBE-YOLO。DBE-YOLO模型首先在基准模型主干网络的CBS模块中结合可变形卷积(DCNv2)组成DBS模块,使卷积具有可变形能力,在采样时可以更贴近检测物体的真实形状和尺寸,更具有鲁棒性,有效提升了其对不同尺度目标的特征获取能力,有利于模型提取更多人员防护装备的特征信息,提高模型检测精度。其次在特征增强网络融合了加权双向特征金字塔机制(BiFPN),在多尺度特征融合过程中删除效率较低的特征传输节点,实现更高层次的融合,提高了对不同尺度特征的融合效率,同时BiFPN引入了一个可以学习的权值,有助于让网络学习不同输入特征的重要性。最后使用WIoUv3作为模型的损失函数,其通过动态分配梯度增益,重点关注普通锚框质量,在模型训练过程中减少了低质量锚框产生的有害梯度,进一步提升了模型性能。实验结果表明,DBE-YOLO模型在矿井人员防护装备监测中有着良好的效果,查准率、查全率、平均精度分别为93.1%、93.0%、95.8%,相较于基准模型分别提高0.8%,2.9%,2.9%,检测实时性提升到65 f·s-1,提高了8.3%,此外,参数量、浮点计算量、模型体积分别为2M、6.6G、4.4MB,相较于原模型分别降低33.3%、18.5%、30.2%。使用煤矿现场作业视频监控对改进模型进行验证,其有效改善了漏检和误检问题,为提高矿井人员的作业安全提供了技术手段。
关键词: 食用油 酸价 图像处理 机器学习 检测
摘要: 为了建立一种简单、便捷的食用油酸价检测方法,本文通过铜皂比色法使游离脂肪酸与吡啶-铜离子的络合离子反应生成铜皂络合物呈现靛蓝色,用手机采集相关的图像,在标准化预处理后,选择合适的颜色参数作为响应值,经回归机器学习建立颜色响应值与酸价大小的对应关系,实现对酸价的检测。研究表明:标准化预处理过程可以减少油中色素等显色物质对颜色的影响,提取的16个颜色参数可用于酸价的检测。稳健线性回归算法建立的模型具有最好的预测效果,其RMSE为0.7343。与国标滴定法相比,图像比色法在校准、验证中,都显示出较好的预测效果(R>0.99,SD<0.25),盲样验证的结果也证实了数字图像比色方法的准确性和可靠性(R=0.9942,SD=0.1902)。精密度分析中图像法的相对标准偏差为4.14%,略小于国标法的4.16%。由此,基于数字图像比色法食用油酸价检测是可行性的。
关键词: 小目标检测 平移依赖性 注意力机制 轻量化
摘要: 针对目标检测任务中小目标具有尺寸小,密集度高和排布复杂,易出现漏检错检的问题。提出一种融合平移依赖性与双维度的混合注意力机制算法。旨在保证模型轻量化同时提高小目标特征提取的完整性,以及对特征处理的针对性。设计位置信息自适应模块CIM(Coordinate Information Module),为特征图添加坐标编码,完善目标的位置信息。设计了自适应批归一化模块BNM(Batch Normalization Attention Module)及优化-激励模块OEM(Optimization-Excitation Module),对输入数据内部以及彼此之间的特征进行更具针对性的权重分配,帮助模型在处理复杂任务时集中注意力于最相关的信息。最后设计了以一条主分支两条次分支的结构,将三个模块结合成为融合平移依赖性与双维度的混合注意力算法TDHA(Translation and Dual-Dimensional Hybrid Attention)。该算法可以兼容任意目标检测网络,具备通用性。为验证算法性能,在无人机数据集VisDrone2021上进行了实验,实验结果表明,加入该算法后较基线模型mAP0.5精确度提高1.6%,mAP.5:.95提高1%;较YOLOv8精确度mAP0.5提高了1.4%。
关键词: 岩石质量指标(RQD) 钻孔岩芯 图像处理 深度学习
摘要: 为了对岩体质量进行分类和评估,岩石质量指标(RQD)在地矿工程中被广泛应用。传统上,为了获取岩芯RQD,需要手动测量岩芯片段的长度,然后手动计算RQD,既费时又费力。随着计算机软硬件的进步,基于计算机视觉的图像处理使自动获取RQD逐步成为现实。首先提出了一种基于目标检测和图像分割的RQD自动生成算法,根据颜色、纹理等特征的相似性,采用SAM模型对图像中的岩芯进行检测,然后采用YOLOv8算法训练模型,通过提取岩芯片段的缝隙特征进行不同岩芯片段的分割,最后为了测试该算法的性能,选取了来自宜涪铁路五峰段的10段岩芯样本开展案例研究。结果表明:采用该算法获取的RQD在准确率上与传统的手动方式不相上下,平均相对误差不超过5%,在效率上明显优于传统的手动方式,可以节约60%以上的时间。
关键词: 裂缝检测 注意力模块 轻量化 YOLOv5s 目标检测
摘要: 为解决当前混凝土裂缝检测模型庞大难以部署到移动端设备且裂缝检测不准、漏检问题,提出一种基于多维注意力模块的轻量化混凝土裂缝检测方法。方法中,针对当前主流的裂缝检测模型庞大的问题,采用深度可分离卷积对YOLOv5s中的CBS特征提取模块进行重构得到轻量化CBS特征提取模块(Lightweight CBS,LCBS),以减少网络的参数量及计算量;针对裂缝检测不准问题,提出一种多尺度特征提取模块(Multi-Scale Feature, MSF)用于替换YOLOv5s第一层的卷积层,以增强网络对不同尺寸裂缝特征的提取能力;针对裂缝漏检问题,提出融合空间及通道信息的多维注意力模块(Multi-Dimensional Attention, MDA),以增强裂缝特征提取能力和减少裂缝漏检。实验表明,所提方法比YOLOv5s参数量减少35.2%,计算量减少50.9%,模型规模减少了32.8%,且平均精度均值(mAP@0.5)提高4.2%,与目前主流的同类目标检测方法相比也具有较低的参数量和较高的检测精度。
关键词: 视觉引导 目标跟踪 孪生网络 煤矸石分拣 轨迹规划
摘要: 现有煤矸分拣机器人在分拣煤矸石时存在误抓取、空抓、碰撞等问题,其主要原因是煤矸石随皮带运输过程中存在打滑、跑偏等现象,依靠带速的煤矸石跟踪方法难以实时获取其精准位姿信息,导致机械臂抓取时出现较大误差,影响机器人分拣效率。针对该问题,提出一种基于视觉实时引导的煤矸石跟踪方法,即通过相机获取煤矸石实时位姿信息,引导机械臂调整动作完成煤矸石跟踪抓取。首先,通过视觉识别模块获取待抓取目标初始位姿与跟踪模板,由控制系统进行策略分配,将煤矸石分配给对应机械臂进行抓取;当目标煤矸石进入机械臂抓取工作区后,由基于孪生网络构建的单目标跟踪模型获取煤矸石实时位姿信息,并实时调整机械臂动作,完成抓取。最后,对不同带速下的煤矸石进行视觉跟踪实验,并构建煤矸分拣机器人仿真系统完成不同程度打滑、跑偏工况的煤矸石跟踪轨迹规划仿真。仿真实验结果表明,构建的煤矸石跟踪模型跟踪准确率为96.9%,跟踪速度为39fps,满足实时引导的需求。当存在不同程度打滑、跑偏时,基于视觉实时引导的机械臂抓取误差均降低至1mm以内。相较于基于带速的跟踪方法,可有效消除运输过程中由于皮带打滑、跑偏等带来的累积误差,提高系统实时响应能力,进一步提升煤矸石分拣效率。
关键词: 人工智能 计算机视觉 深度学习 胃癌根治术,腹腔镜 实例分割
摘要: 目的:探究计算机视觉人工智能技术在腹腔镜胃癌根治术场景中对器械和脏器检测识别的可行性和准确性。方法:收集国内4家大型三甲医院[解放军总医院第一医学中心(3份)、辽宁省肿瘤医院(2份)、江苏省人民医院溧阳分院(2份)、复旦大学附属肿瘤医院(1份)]共计8份完全腹腔镜远端胃癌根治术手术视频。使用PR软件每5~10 s进行抽帧转换为图帧,转换后进行人工去重,去除明显雷同图帧和模糊图帧以确保质量。转换并去重后,抽帧图像共3 369张,图像分辨率为1 920×1 080 PPI,用LabelMe实例分割图像;共计23个类别包括静脉、动脉、缝针、持针器、超声刀、吸引器、出血、结肠、钳子、胆囊、小纱布、Hem-o-lok夹、Hem-o-lok钳子、电钩、小肠、肝圆韧带、肝脏、网膜、胰腺、脾脏、吻合器、胃和Trocar穿刺器。将抽帧图像按照9∶1比例随机分为模型训练集和模型验证集,使用YOLOv8深度学习框架进行模型训练和验证。采用精确度、召回率、精确度均值和平均精确度均值(mAP)评价检测识别准确性。结果:训练集3 032帧图像,23个类别共计30 895个实例分割数量;验证集337帧图像,共计3 407个实例分割数量。使用YOLOv8m模型训练,训练集损失曲线中损失值随迭代计算轮次增加而逐步平滑下降。训练集中,23个类别检测识别AP值均达0.90以上,23个类别mAP为0.99。验证集中,23个类别mAP为0.82。单一类别中,超声刀、持针器、钳子、胆囊、小纱布和吻合器的AP值分别为0.96、0.94、0.91、0.91、0.91和0.91。模型成功推理应用于时长为5 min的腹腔镜下缝合胃肠共同开口视频片段。结论:本研究初步证实了计算机视觉可高效准确并实时地检测腹腔镜胃癌根治术各手术场景中的脏器和器械。