您的常用邮箱:*
您的手机号码:*
问题描述:
关键词: 数字图象处理
ISBN: (纸本)9787302654100
摘要: 本书分为12章,每章阐述数字图像处理技术中的一个知识点,内容包括数字图像处理基础、图像基础性运算、图像的正交变换、图像增强、图像平滑、图像锐化与边缘检测、图像复原、图像的数学形态学处理、图像分割、图像描述与分析、图像编码等。
关键词: 计算机视觉
ISBN: (纸本)9787113311254
摘要: 本书共9章, 分为三部分。第一部分包括第1章和第2章, 论述机器视觉的基本概念和组成结构; 第二部分包括第3-8章, 论述传统工业机器视觉在动态检测、三维立体检测、模板匹配、分拣系统、导航等方面的应用; 第三部分包括第9章, 论述在现代人工智能背景下基于深度学习的机器视觉的应用, 以帮助读者快速掌握基于深度神经网络的配置方法、模型应用等技巧。
关键词: 目标跟踪
ISBN: (纸本)9787121474026
摘要: 本书共有11章。第1章介绍了多源信息目标定位与跟踪的基本概念。第2章讲述了常用的目标运动模型和传感器量测模型。第3章阐述了目标定位与跟踪涉及的估计与滤波技术。第4章介绍了常用的目标定位方法。第5章深入分析了信息转换滤波及其在目标跟踪中的应用。第6章至第10章讲述了多目标跟踪、机动目标跟踪、扩展目标跟踪、被动目标跟踪等各类目标跟踪的前沿理论和技术。第11章介绍了相关性能评估方法和进展。
关键词: 图象处理
ISBN: (纸本)9787302652472
摘要: 全书共10章, 遵循由浅入深, 从基础知识到案例进阶的学习原则, 对图像处理的基础、辅助调整、细节修饰、颜色调整、抠取合成、特效应用以及自动化处理等内容进行了逐一讲解。最后两章介绍了图像处理的热门小工具: 网页端的稿定设计和移动端的醒图。全书结构合理, 内容丰富, 易学易懂, 既有鲜明的基础性, 也有很强的实用性。
关键词: 茶叶病害 目标检测 无人机遥感 深度学习 轻量型网络
摘要: 针对无人机采集的茶叶枯病图像中病斑差异大,病斑和背景之间相似性高等问题,本研究设计了一个轻量型网络LiTLBNet,用于准确、实时地检测野外茶园无人机图像中的茶叶枯病。LiTLBNet使用轻量型的M-Backbone作为骨干网络,用来提取茶叶枯病病斑的可区分特征,减少因图像中病斑的尺度、颜色和形状的巨大差异而导致的漏检。在LiTLBNet的LNeck结构中引入了SE和ECA模块,帮助网络在通道维度上学习目标的综合特征,减少因病斑和背景之间的相似性造成的误检,同时删除原基线网络最大的特征图,以减少计算量和模型大小。此外,本研究还通过旋转、加噪声、构建合成图像等方式来扩充训练样本数量,提高小样本条件下LiTLBNet网络的泛化能力。实验结果表明,利用LiTLBNet检测无人机遥感图像中茶叶枯病的精度为75.1%,mAP为78.5%,与YOLO v5s接近。然而,LiTLBNet的内存占用量只有2.0MB,只有YOLO v5s网络的13.9%。LiTLBNet网络可用于对茶叶枯病进行实时、准确的无人机遥感监测。
关键词: 桥梁工程 荷载识别系统 计算机视觉 车辆荷载 深度学习 结构监测
摘要: 车辆荷载是大跨桥梁最重要的作用荷载之一,且是大部分桥梁疲劳劣化的最主要原因。但桥梁动态称重系统昂贵,无法在桥上分布式布置,桥梁车辆荷载分布信息的动态识别仍是挑战性难题。本文面向大跨桥梁结构健康监测需求,引入计算机视觉与深度学习技术,建立了一套集成化的桥梁车辆荷载时空分布智能识别系统。首先研究基于交通监控数据和深度目标检测网络的车辆识别方法,开展车辆目标检测任务的YOLOv7深度网络训练,并通过训练后模型获取单摄像头数据中包含车辆类型与时间等信息的车辆图像;然后引入HardNet深度特征描述符,建立图像点特征匹配方法,通过分布布置的监控视频数据设计搜索匹配策略,实现车流方向多个监控对应车辆图像数据的匹配,并对监控盲区线性插值估计车辆位置,得到车辆在桥梁上的时空分布信息。最后将各方法集成,建立车辆荷载时空分布识别系统,该系统可结合动态称重数据,自动输出车辆荷载时空分布信息与可视化结果,实现从监控数据到车辆荷载时空分布的一体化流程。本文以九江长江大桥监控数据进行应用验证,结果表明系统基于视频数据实现车辆目标识别与匹配追踪,运算耗时小于输入视频时长,对大型车辆匹配准确率达97.62%,可以快速、准确地识别车辆荷载分布信息,系统对保障桥梁服役安全具有重要的意义,应用前景广阔。
关键词: Target tracking
摘要: The tracking error of the traditional Kalman method is significantly increased or even divergent due to the influence of interference and noise. A neural network-based target tracking method is proposed. The proposed method uses the deep neural network to solve the nonlinear change of target azimuth with time in different motion modes. The neural network model of underwater target tracking can generate a large number of measurement data through the motion model for full training, which effectively solves the problems of insufficient underwater acoustic target data and insufficient labeled samples. A new loss function is proposed to enhance the robustness of target tracking model under the condition of measurement discontinuity. The unlearned simulation data and measured sea trial data were tested. The results show that the convolutional neural network (CNN) is applicable for a target in 3 different motion modes,and can stably track targets when the platform is stationary or moving. Compared with the traditional Kalman filtering method, the tracking error of the neural network model is reduced by 7. 75° and 1. 41°, respectively, for the unlearned simulation data and the measured sea trial data, which verifies the robustness and scalability of the model. © 2024 China Ordnance Industry Corporation. All rights reserved.
关键词: AI智能 倾斜摄影 三维建模 人工智能技术 图像处理
摘要: AI智能解译在倾斜摄影三维建模中的应用具有广阔前景.通过自动处理倾斜摄影数据,AI可以快速准确地生成三维模型,提高建模效率和精度.在城市规划、地质勘探、文化遗产保护等领域都有广泛的应用.倾斜摄影三维建模结合AI智能解译技术,可以为各行业提供可靠的数据支持,推动相关领域的发展和应用.
关键词: 图像处理 颜色恒常性 语义分割 多区域融合 光源估计 场景语义
摘要: 针对现有颜色恒常性算法在复杂场景下的适用性差,光源估计精度不高的问题,提出一种多区域融合的全卷积颜色恒常算法。首先,利用金字塔场景解析网络(Pyramid Scene Parsing Network,PSPNet)模型对目标图像进行场景语义分割;其次,将本文提出的基于全卷积网络架构的端到端光源估计模型(Full Convolutional Illuminant Estimation Network,FCIEN)用于各语义区域进行光源估计,各区域通过加权融合得到整体图像的光源估计值;最后,根据得到的光源估计值使用Von Kries模型对目标图像进行偏色校正。在Gehler-Shi、NUS-8camera等数据集中的实验结果表明,相较于同类型的算法,本文算法的光源估计角度误差值分别下降20.73%、15.22%。实验结果表明,本文算法针对复杂场景的光源估计有着较强的鲁棒性和准确性。
关键词: 弱监督目标检测 特征融合 注意力机制 半监督学习
摘要: 为了降低标注成本,解决目标定位不准、细节信息遗漏等问题,本文提出双注意力引导特征融合的半弱监督目标检测算法,利用全标记和弱标记数据来平衡检测性能和标注成本,使用空间注意力将低层特征图与高层特征图进行像素级加权融合,使高层特征图具有丰富的低层信息,对融合后的特征图进行通道加权运算,得到细节、位置信息丰富的高层特征图。为了得到更准确的伪标注框,提出更鲁棒性的候选框筛选策略。试验表明,本文算法具有较优的检测性能,减少了全标记图像的数据量和额外的图像级标注。