论文部分内容阅读
高分辨率遥感影像场景的分类对影像解译有重要意义。传统场景分类方法仅可获取中低层局部特征或全局特征,造成信息的丢失,且中低层特征对高分辨率遥感场景语义信息表达不足。本文提出一种融合全局和局部深度特征的视觉词袋模型(Global and Local Deep Features based Bag-of-visualwords,GLDFB),它同时顾及场景的局部和全局信息,通过视觉词袋模型将深度卷积神经网络提取的多个层次的高层特征进行重组编码并融合,并利用支持向量机对融合特征分类。该方法充分利用包含场景局部细节信息的卷积层特征和包含场景全局信息的全连接层特征,形成对遥感影像场景的高效表达,从而实现高分辨率遥感影像场景的准确分类。实验表明相比现有方法,本文方法在高层特征表达能力和分类精度方面都有显著提高。