论文部分内容阅读
在室内场景中,智能机器人往往需要感知并理解场景,其中物体检测是机器人在人机交互、导航和路径规划以及运动控制方面等方面起到重要作用。常用的物体检测方法都是在已有标注好的数据上进行训练,在室内场景中检测物体。而在真实的应用场景中,机器人需要在交互过程中学习物体概念信息,并将其迁移应用至室内场景中进行物体检测。因此,本文提出了RGB-D场景下基于手持物体学习的室内场景物体检测框架,实现在人机交互中的物体学习与检测。在手持物体学习过程中,智能机器人需要分割获取人手中的物体。在室内场景的物体检测中,智能机器人也需要分割得到场景中的物体提名。由于手持物体数据与室内场景数据特征分布存在差异,本文运用基于对抗学习的深度无监督自适应网络来自适应匹配特征,从而减小两个不同域之间的偏差。本文完成的主要工作如下:(1)针对人机交互过程手持物体的分割,本文提出了基于人体骨骼数据和深度图像信息的改进区域增长算法。(2)针对室内场景中的物体区域提名。本文运用随机抽样一致性(RANSAC)算法和基于欧式距离的聚类方法拟合平面并聚类物体点簇,最后通过相机参数估计得到RGB图像和深度图像中的分割区域。(3)针对手持物体数据与实际室内场景数据差别明显,分布不一致的问题,基于深度无监督自适应深度神经网络的思想,本文提出了RGB-D室内场景下基于手持物体学习的室内物体检测的框架,使手持物体更好地匹配目标域的室内场景物体。通过实验分析,在RGB图像模态、深度图像模态以及结合RGB图像和深度图像上训练和测试,运用深度无监督自适应网络的检测准确率比使用普通深神经网络框架准确率要高。这表明本文所提的物体检测框架中使用的迁移学习的技术能够减小手持物体数据与室内场景中的物体的差异,有助于提升交互环境下的物体检测性能。