关键词:
乳腺癌组织病理学图像
量子张量网络
卷积神经网络
类激活图
纹理特征
摘要:
2022年全球癌症流行病学数据表明,乳腺癌已成功超过肺癌,成为世界发病率第一的癌症。然而,乳腺癌的早期发现和及时治疗将大大降低患者的死亡率。目前用于乳腺癌检查的方法包括乳房X线检查、超声检查、核磁共振成像和CT检查等等,但这些方法不仅费用昂贵还容易产生误诊。乳房活检的组织病理学图像诊断的出现给乳腺癌高危发病群体带来福音。这种通过活检组织的显微技术获得的医学图像,在帮助专家准确辨别乳腺癌亚类型的同时也能够在细胞的基础上观察组织特征,进而精确的定位病变的区域。因此组织病理学图像诊断也通常被视为乳腺癌检测的“金标准”。目前医学图像分析的难点在于需要有经验的组织病理学医生,但对于这些人才的培养需要大量的时间和资源。更糟糕的是,图像诊断结果很容易被医生误判。随着图像处理技术的提高以及机器学习的飞速进展,人们也不断尝试利用计算机技术来提高诊断的准确率和效率。目前,多种深度学习算法运用于乳腺癌组织病理学图像进行分类识别,但这些方法不仅参数量巨大,同时不能很好的获取全局特征,导致模型学习过程中丢失大量的有效信息。张量是向量和矩阵的数学形式的高阶泛化,可以当作数据存储器,当用于图像分类时可以在保持图像像素之间的空间相关性的同时降低数据存储的成本。张量网络是由几个张量按照特定规则收缩而成的一类网络,可以将高阶张量分解为相互关联的低阶核心张量来减少参数。相较于传统的张量网络,起源于多体量子物理的量子张量网络将输入数据映射到希尔伯特空间中,这样能够很好地保持高维空间数据的内在结构信息,解决了传统二维矩阵难以描述数据之间关系的问题,因此量子张量网络模型可能成为乳腺癌医学图像分类的一个突破口。本文完成的主要工作如下:(1)提出了一种基于卷积神经网络(Convolutional Neural Network,CNN)和量子张量网络(Quantum Tensor Network,QTN)的量子张量增强卷积表示融合模型(Quantum Tensor-augmented Convolutional Representations Network,ConTenNet)来对乳腺癌组织病理学图像二分类。将QTN应用于乳腺癌组织病理学图像分类,通过QTN对参数压缩的特性,将模型参数量降低;通过QTN对相邻区域的数据提取和层与层之间的信息传递实现相邻区域之间的信息连接,获得更深入的全局特征。同时,也为QTN与经典模型的进一步结合奠定了基础。为了保证训练数据集的平衡使用数据增强方法对良性图像进行增强和减少颜色对实验的干扰对原始图像进行颜色归一化。本文从图像级和患者级两个角度对不同放大倍率的图像进行对比实验,实验证明本模型可以在原始图像的图像级别的40x下达到99.06%左右的准确率,患者级别的40x下达到92.98%左右的准确率;在颜色归一化图像的图像级别的40x下达到97.56%左右的准确率,患者级别的40x下达到91.89%左右的准确率。最后,使用Grad-CAM方法证明了虽然颜色归一化后准确率有所下降,但该方法具有重要性和必要性,而且使二分类融合模型具有可靠性和可解释性。(2)提出了基于ConTenNet和纹理特征提取的融合模型来对乳腺癌组织病理学图像进行多分类。将ConTenNet模型参数压缩和特征提取的特性迁移过来,同时针对乳腺癌组织病理学图像多分类的复杂性,引入传统的纹理特征提取方式,即灰度共生矩阵、局部二值模式和Gabor滤波方式,并将灰度共生矩阵方法分别和局部二值模式、Gabor滤波方式进行融合,从而获得乳腺癌组织病理学图像在空间上以及不同尺度和方向上局部的细胞形状特征。最后,通过特征融合,将数据输入到全连接层中进行分类。实验结果表明,融合后的模型在原始图像的图像级别的100x下达到97.20%左右的准确率,患者级别的100x下达到97.07%左右的准确率;在颜色归一化图像的图像级别的40x下达到95.67%左右的准确率,患者级别的40x下达到95.34%左右的准确率,都优于目前常见的对比模型。最后,对实验结果进行混淆矩阵分析,表明本模型对八种类别进行了较好的分类,展现了本模型较强的分辨能力,同时具有较好的性能。