Board logo

标题: 国际视频编码标准mpeg简述及AVS视频关键技术 [打印本页]

作者: yuyang911220    时间: 2016-10-24 21:39     标题: 国际视频编码标准mpeg简述及AVS视频关键技术

国际视频编码标准mpeg简述
    20世纪90年代以来,ITU-T和ISO制定了一系列音视频编码技术标准(信源编码技术标准)和建议,这些标准和建议的制定极大地推动了多媒体技术的实用化和产业化。从技术进步的角度看,1994年完成的第一代信源编码技术标准MPEG-1和MPEG-2的压缩能力为50-75倍。进入新世纪以来,第二代信源编码技术标准相继出台,压缩效率可达到100-150倍。第二代信源编码技术标准将使原来刚刚形成不久的国际数字电视和数字音视频产业格局重新“洗牌”。
    国际上音视频编解码标准主要有两大系列:ISO/IEC JTC1制定的MPEG系列标准,数字电视采用的是MPEG系列标准;ITU针对多媒体通信制定的H.26x系列视频编码标准和G.7系列音频编码标准。
    CCITT(国际电报电话咨询委员会,现并入国际电信联盟ITU)从1984年开始提出一系列有关音频编码算法和国际标准。1984年CCITT第15研究组成立了一个专家组,专门研究电视电话的编码问题,经过5年以上的研究和努力,在1990年12月完成和批准了CCITT推荐书 H.261。在H.261的基础上,1996年ITU-T完成了H.263编码标准,在编码算法复杂度增加很少的基础上,H.263能提供更好的图像质量、更低的速率,目前,H.263编码是IP视频通信采用最多的一种编码方法。1998年ITU-T推出的H.263+是H.263建议的第二版,它提供了12个新的可协商模式和其他特征,进一步提高了压缩编码性能。
    MPEG是国际标准化组织和国际电工委员会第一联合技术组(ISO/IEC JTC1)1988年成立的运动图像专家组(Moving Picture Expert Group)的简称,全称为ISO/IEC JTC1第29分委会第11工作组(ISO/IEC JTC1/SC29/WG11),负责数字视频、音频和其他媒体的压缩、解压缩、处理和表示等国际技术标准的制定工作。从1988年开始,MPEG专家组每年召开四次左右的国际会议,主要内容是制定、修订、发展MPEG系列多媒体标准。视音频编码标准MPEG-1(1992)和MPEG-2(1994)、基于视听媒体对象的多媒体编码标准MPEG-4(1999年)、多媒体内容描述标准MPEG-7(2001)、多媒体框架标准MPEG-21。目前,MPEG系列国际标准已经成为影响最大的多媒体技术标准,对数字电视、视听消费电子产品、多媒体通信等信息产业的重要产品产生了深远影响。
    CCITT H.261标准始于1984年,实质完成于1989年,是MPEG的先驱。MPEG-1和H.261有共同的数据结构、编码工具和语法元素,然而两者并非完全后向兼容,MPEG-1可看作是H.261的扩展集。MPEG-1的发展始于1988年,实质完成于1992年。MPEG-2可被看作是MPEG-1的扩展集,始于1990年,实质完成于1994年。H.263始于1992年,第一版完成于1995年。MPEG-4(其视频部分建立在MPEG-2和H.263的基础上)始于1993年,第一版实质完成于1998年。
MPEG专家组已经和正在制定的标准包括:
(1) MPEG-1标准:1992年11月正式成为国际标准,名称为“用于数字存储媒体速率为1.5Mbps的运动图像及其伴音的压缩编码”。MPEG-1的支持的视频参数为352 X 240 X 30帧/秒或相当。
(2) MPEG-2:1994年11月成为国际标准(ISO/IEC13818),这是一个适应性广的动态影像和声音编码方案,最初目标是把视频及其伴音信号压缩到10Mb/s,经实验可适用于1.5-60Mb/s的编码范围,甚至还可以更高。MPEG-2可用于数字通信、存储、广播、高清晰度电视等的压缩编码。DVD和数字电视广播采用的是MPEG-2标准。1994年后,MPEG-2标准还进行了一定扩展和修订。
MPEG标准中视频编解码技术
    MPEG标准主要基于三大编码工具:自适应块变换编码(Adaptive block transform coding)消除空间冗余;运动补偿差分脉冲编码调制(Motion-compensated DPCM)消除时域冗余,二者融合为混合编码技术(hybrid coding)。熵编码(Entropy coding)用于消除混合编码器产生的统计冗余。还有一些辅助工具作为主要工具的补充,用于消除已编码数据某些特殊部分的剩余冗余,或者根据具体应用对编码进行调整,也有的编码工具支持将数据格式化为特定比特流以便于存储和传输。
    现代熵编码始创于20世纪40年代末;60年代末应用于视频编码;然后不断改进,80年代中期引入了二维可变长编码(2D VLC)和算术编码(arithmetic coding)方法。
    DPCM始创于1952年,同年首次应用于视频编码。DPCM最初是作为空间编码技术而发展,到了70年代中期,DPCM开始用于时域编码。DPCM作为一种完整的视频编码方案,一直持续到80年代初期。从70年代中早期开始,DPCM的关键元素与变换编码技术融合,逐渐形成了混合编码技术,并于80年代早期发展成为MPEG的雏形。
    变换编码60年代末首次用于视频,70年代上半期得到实质性的发展,被认为在空间编码方面达到最高分辨率效果。在混合编码中,变换编码用于消除空间冗余,DCPM用于消除时间冗余。运动补偿预测技术极大地提高了时域DCPM的性能,它始创于1969年,80年代初发展成为MPEG的基本形式。80年代早期,扩展出内插编码(interpolative coding),即通过多帧内插进行预测,中间帧通过比例运动矢量(scaled motion vectors)预测。直至80年代末,双向预测技术(bi-directional prediction)诞生,该技术才发展到最终形式。在近年来的进展中(H.264),预测质量得到改进,亦即不同信号之间的相关性降低。因此,变换的必需性降低,H.264使用了简化的变换(4 x4)。

AVS标准和相关国际标准的时间对应关系以及AVS工作组已经开展的工作如下图所示。

视频压缩基本原理
    视频能够压缩的根本原因在于视频数据具有较高的冗余度。压缩就是指冗余的消除,主要基于两种技术:统计学和心理视觉。
    消除统计冗余的基本依据是视频数字化过程在时间和空间上采用了规则的采样过程。视频画面数字化为规则的像素阵列,其密集程度适于表征每点最高的空间频率,而绝大多数画面帧包含非常少甚至不含这种最高频率的细节。同样,所选的帧频能够表征场景中最快的运动,而理想的压缩系统只要描述场景所必需的瞬时运动即可。简言之,理想的压缩系统能够动态适应视频在时间和空间上的变化,所需要的数据量远低于数字化采样所产生的原始数据。
    心理视觉技术主要是针对人类视觉系统极限。人类视觉在对比度带宽、空间带宽(特别是彩色视觉)、时间带宽等方面存在极限。而且,这些极限并非相互独立,整体的视觉系统存在上限,例如,人眼不可能同时察觉到时间和空间的高分辨率。显然,没有必要表征那些不能被感知的信息,或者说,一定程度的压缩损失是人的视觉系统是感知不出来的。
    视频编码标准并非一个单一的算法,而是一整套的编码工具,这些工具综合起来就达到了完整的压缩效果。视频压缩的历史可以追溯到上个世纪50年代初,在随后30多年时间里,主要的压缩技术和工具逐渐发展起来,在上世纪80年代初,视频编码技术初步成型。最初每个主要的工具都是作为视频编码的一个完整解决方案而提出,各条技术主线平行发展,最终各性能最佳者汇合成为完整的解决方案,方案集成的主要贡献者是标准化组织,来自各国家和组织的专家们共同完成了方案集成工作,或者说,编码标准方案是标准委员会原创的。另外,尽管有些技术多年前就已经提出,但由于实现代价昂贵而没能在当时得到实际应用,直到近年来半导体技术的发展才满足实时视频处理的要求。

图 2编码工具与标准的发展(Cliff, 2002)
(3) MPEG-4:注意到低带宽应用的需要和交互式图形应用(游戏等合成内容)、交互式多媒体(WWW等内容分发和访问技术)的快速发展,MPEG专家组成立了MPEG-4工作组,以促进上述三个领域的集成。1999年初,定义标准框架的MPEG-4(第一版)成为国际标准(ISO/IEC 14496-1),提供多种算法和工具的第二版已于99年底成为国际标准(ISO/IEC 14496-2),后续还在制定第三、四、五版。
(4) MPEG-7与MPEG-21标准:MPEG-7是面向多媒体信息搜索、过滤、管理和处理的内容表达标准,2001年7月成为国际标准。正在制定的MPEG-21的重点是多媒体框架,为与多媒体内容递交相关的所有已开发的和正在开发的标准提供基础体系。




欢迎光临 电子技术论坛_中国专业的电子工程师学习交流社区-中电网技术论坛 (http://bbs.eccn.com/) Powered by Discuz! 7.0.0