论文部分内容阅读
多视点视频系统为观看者提供了多视角观看场景的视觉效果,目前,多视点彩色加深度(Multi-view Video plus Depth,MVD)的视频格式是其主流的表示方式。深度视频结合绘制原理(Depth based Rendering,DIBR)绘制出多个虚拟视点,降低了多视点视频需要传输的数据量。当前的高效视频编码(High Efficiency Video Coding,HEVC)的三维扩展标准(3D Video Coding Extensions of HEVC,3D-HEVC)中,即采用彩色联合深度的表示方式。3D-HEVC深度视频编码的基本框架仍然继承 HEVC的框架,并针对深度视频的特征,进行了一些技术改进。在3D-HEVC整体编码效率提高的同时,编码复杂度随之增加。本文结合3D-HEVC深度视频编码技术的分析、深度特征信息和视觉感知因素,进行深度视频编码的具体研究。 (1)3D-HEVC中,深度视频帧内预测继承HEVC技术中遍历的方式。同时,深度视频加入其特有的深度模型模式(Depth Modeling Modes,DMM)。最终,更加准确的帧内预测方案带来了更大的计算量。针对上述问题,本论文提出了一种结合彩色视频信息,和划分区域方法的深度视频快速帧内编码算法。算法的仿真实验结果表明,在绘制视点质量不变的情况下,平均节省了55.11%的总体编码时间和61.57%的深度编码时间。 (2)由于深度视频主流获取技术的限制,采集得到的不准确视频影响编码效率。同时,3D-HEVC的深度视频帧间预测技术具有较高的复杂度。考虑这些因素,通过对深度视频进行编码前滤波处理,降低不准确现象对编码的影响。对处理后的深度视频,提出结合彩色视频编码信息的快速帧间编码算法。实验结果表明,算法在绘制虚拟视点的质量基本不变的情况下,降低了总体编码时间的44.24%,深度视频的编码时间下降了72.00%,编码码率下降了24.07%。 (3)考虑深度视频用于虚拟视点绘制,其失真不能反映观察者感知的失真。根据对应的彩色视频的恰可察觉失真(Just Noticeable Difference,JND)模型,结合绘制算法得到深度视频的恰可察觉失真(Depth Video JND,DJND)模型。结合编码块的DJND阈值,提出联合DJND的模式提前决定和编码单元(Coding Unit,CU)分割深度预测的深度视频编码快速算法。实验结果表明,所提算法在虚拟视点质量基本不变的情况下,减少了24.1%到54.38%的编码时间。