论文部分内容阅读
随着成像技术的发展,成像空间分辨率得到不断提升,一些人为因素影响下的复杂的多目标、多地类覆盖的场景类型在遥感图像中开始清晰地呈现出来。在这种新的形势下,传统的逐像元/对象单元、逐土地覆盖类别进行分类的思路已经无法很好地胜任这种图像场景理解的任务,因此,需要从根本上解决低层视觉特征与高层语义特征之间的“语义鸿沟”。鉴于语义表达在图像理解中的重要性,本文以近年来机器视觉领域中出现的中层特征表达方法——视觉词包(bag-of-visual-words,BOVW)模型为基础,对视觉词包模型与高空间分辨率遥感图像场景分类结合中涉及到问题展开了一系列研究。论文的主要研究内容和创新点包括以下几点: (1)提出了改进的基于K均值聚类的视觉词典构建方法。为了解决传统的视觉词包模型在利用K均值聚类构建词典时出现的待聚类的数据量巨大、聚类时效性低,且初始聚类中心无法很好确定的问题,本文提出了两个阶段的K均值聚类,融入了事先已知的不同图像的场景类别信息,使初始聚类中心的选择更加具有针对性,同时还在一定程度上缓解了单次聚类中待聚类样本数量庞大的问题。实验结果表明,相比传统方法,本文所提出的改进方法能够压缩视觉词典构建时间,提升分类精度。 (2)提出了基于信息熵和各类别间特征区分度的多特征加权融合的视觉词包模型分类方法。针对现有的基于两阶段分类的多特征融合方法的不足,本文在利用多特征词包进行场景分类的过程中,融入了不同场景类别之间的特征区分度信息,实现了不同类别分类中,不同特征类型权重的差异化对待。实验结果表明,通过挖掘不同特征类型在区分不同场景类别时的区分度及重要性,本文方法在分类性能上优于几种传统的基于两阶段分类的多特征融合方法。 (3)提出了基于二维小波分解的多尺度视觉词包特征表达方法。利用二维小波分解在多尺度图像分解和多方向纹理特征表达等方面的特点,将其与传统的视觉词包模型特征表达方法相结合,从而将视觉词包特征在不同尺度的空间信息与空间结构信息有机结合起来。实验结果表明,相比几种经典方法,本文所提出的视觉词包特征表达方法能够显著提升场景分类的准确率。 (4)提出了基于同心圆结构的,具有空间旋转不变性的视觉词包特征表达方法。由于传统的视觉词包模型在空间信息表达的过程中对图像场景旋转十分敏感,导致同一类场景的特征表达存在较大差异,影响最终的分类精度。本文提出将同心圆结构的空间划分方式引入到视觉词包特征表达中,以提高原有视觉词包模型对高分辨率遥感图像场景内容的旋转不变性。 (5)提出了一套区域遥感影像场景分类的流程方法。该流程方法实现了对本文所提出的有关视觉词包模型改进方法的整合,引入了极限学习机(extremelearning machine,ELM)算法以提高场景分类的时间效率,同时还利用了空间上邻近区域之间的相关性以消除分类结果中的不合理性,最终得到区域遥感影像中不同场景类型的分布结果。