论文部分内容阅读
随着医学图像在医疗卫生领域的普遍应用,医学图像分割在病理分析、临床诊断和医学研究等领域扮演着重要角色。近几年,卷积神经网络特征提取能力的不断挖掘,越来越多的深度学习技术被用于医学图像分割任务,也取得了相比于传统分割方法更好的结果。全卷积神经网络(Fully Convolutional Network,FCN)是一种广泛应用于图像分割的深度学习技术,但是由于医学图像中分割目标的大小、形状变化复杂,正负样本分布不平衡等问题,FCN在一些医学图像分割中并未达到很好的预期效果。为了获得更加精确的分割结果,本文提出了两种基于全卷积神经网络的改进方法。这些方法对分割目标的形态变化有较好的鲁棒性,提高了分割准确度。本文的主要工作如下:1.受DenseNet和U-Net等神经网络的启发,本文提出了一种基于全卷积DenseNet网络结构的医学图像分割方法。该方法将目前分类性能较好的DenseNet从自然图像迁移到医学图像数据集,以提高网络特征提取能力和训练速度;并且采用反卷积和类似U-Net的连接方式,在恢复分辨率的同时融合细节信息,从而实现端到端的图像分割网络;引入并改进Dice相似性损失函数,以解决医学图像中背景区域远远大于目标区域导致的模型训练困难问题。在前列腺分割数据集上进行实验,相较于目前的主要方法,该方法分割效果更好,所耗时间更短。2.本文提出一种具有可变形编码器和重构上采样解码器的U-Net医学图像分割方法。该方法使用并改进可变形卷积提高网络学习几何形变的能力,并提出更有效的上采样方法——重构上采样卷积(Reshape Upsampling Convolution,RUC)。该分割方法将集中性损失函数(Focal Loss)应用到医学图像分割任务中,解决了样本分布不均和简单样本过多导致的模型偏移问题。所提出的方法不仅大大降低了网络的参数数量,并且在果蝇细胞数据集和Warwick-QU腺体数据集上取得了较好的分割效果。