热点推荐:
您现在的位置: 电脑学习网 >> 硬件专区 >> 正文

什么是H.264编码

2013-09-12 17:16:43  来源: 硬件专区 
  随着HDTV的兴起,H.264这个规范频频出现在我们眼前,HD-DVD和蓝光DVD均计划采用这一标准进行节目制作。而且自2005年下半年以来,无论是NVIDIA还是ATI都把支持H.264硬件解码加速作为自己最值得夸耀的视频技术。H.264到底是何方“神圣”呢?www.sq120.com推荐文章

  什么是H.264?H.264是一种高性能的视频编解码技术。目前国际上制定视频编解码技术的组织有两个,一个是“国际电联(ITU-T)”,它制定的标准有H.261、H.263、H.263+等,另一个是“国际标准化组织(ISO)”它制定的标准有MPEG-1、MPEG-2、MPEG-4等。而H.264则是由两个组织联合组建的联合视频组(JVT)共同制定的新数字视频编码标准,所以它既是ITU-T的H.264,又是ISO/IEC的MPEG-4高级视频编码(Advanced Video Coding,AVC),而且它将成为MPEG-4标准的第10部分。因此,不论是MPEG-4 AVC、MPEG-4 Part 10,还是ISO/IEC 14496-10,都是指H.264。

  H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。举个例子,原始文件的大小如果为88GB,采用MPEG-2压缩标准压缩后变成3.5GB,压缩比为25∶1,而采用H.264压缩标准压缩后变为879MB,从88GB到879MB,H.264的压缩比达到惊人的102∶1!H.264为什么有那么高的压缩比?低码率(Low Bit Rate)起了重要的作用,和MPEG-2和MPEG-4 ASP等压缩技术相比,H.264压缩技术将大大节省用户的下载时间和数据流量收费。www.ITcOMPuteR.com.cn尤其值得一提的是,H.264在具有高压缩比的同时还拥有高质量流畅的图像。
H.264算法的优势
  H.264是在MPEG-4技术的基础之上建立起来的,其编解码流程主要包括5个部分:帧间和帧内预测(Estimation)、变换(Transform)和反变换、量化(Quantization)和反量化、环路滤波(Loop Filter)、熵编码(Entropy Coding)。  
cpi是什么意思

什么是cpi?这是最近网友经常提问的!鼠标的分辨率,是选择一款鼠标的主要依据之一。一款鼠标性能高低的决定性因素,就在于其鼠标内部的解码装置所能辨认的每英寸长度内的点数,也就是一般人们所说的分辨率,单位是DPI或CPI。其意思是指鼠标移动中,每移动一英寸能准确定位的最大信息数。分辨率是衡量鼠标移动精确度的标准,分为硬件分辨率和软件分辨率,硬件分辨率反映鼠标的实际能力,而软件分辨率是通过软件来模拟出一定的效果。dpi是dots per inch的缩写,意思是每英寸的像素数,这是目前最常见的分辨率单位。cpi是count per inch的缩写,这是由鼠标核心芯片生产厂商安捷伦定义的标准,意思是每英寸的采样率。dpi和cpi都可以用来表示鼠标的分辨率,但是dpi反应的是个静态指标,用在打印机或扫描仪上显得更为合适。由于鼠标移动是个动态的过程,用cpi来表示鼠标的分辨率更为恰当。电脑知识网推荐文章

如果你不经常打游戏,或者说你不是疯狂的游戏发烧友(特别是FPS第一人称游戏),2000CPI的鼠标对你来说不仅是一种浪费,更让人恼火的是当你不打游戏时,使用1600CPI或2000CPI这种分辨率的鼠标,轻轻一动,就会让光标满屏幕跑——移动速度实在是太快了,所谓的高CPI,就是指当鼠标光标在满屏幕跑的时候还能保证一种“精度”和“准确的定位”,但这些东西除了能满足某些“极端”的玩家外,并不适合普通用户在其他方面的应用。这就是在实际使用中,高CPI的鼠标给人的切身感受。所以现在很多鼠标厂商在鼠标的驱动里面都设置了可以调节CPI的选项。除了本身的最高分辨率外,一般还有400CPI/800CPI等几挡可以选择(如图)。将分辨率设置成800CPI就已经可以完全满足我们的使用要求了。

 
Shader Model是什么意思   Shader Model在PC游戏和显卡的发展史上扮演了非常关键的一个角色,它彻底解放了显示芯片,使得技术人员可以用它去创造接近真实环境的3D世界。换句话说,逼真的场景、细节的毫发毕现、像看电影那样玩游戏已成为现实。无怪乎人们开始把Shader Model版本的高低当作衡量显示芯片价值的重要指标之一。www.sq120.com推荐文章

  在Shader Model发展史上,从SM 1.0进化到SM 2.0称得上是真正意义上的技术革命,后者赋予了显示芯片强大的能力,人们在游戏中也领略到前所未有的视觉体验,例如水面光影和雾化等特效的出现使游戏场景更真实。相对而言,SM 2.0到SM 3.0的改进不如SM 1.0到SM 2.0的变化大,SM 3.0除了支持32bit浮点运算是亮点外,其他特效用SM 2.0也可以完成。例如,GeForce 6系列显卡上市时曾大力宣传SM 3.0和HDR(高动态范围)技术,这无形之中就给人一种SM 2.0不能实现HDR或者HDR效果差的错觉。其实在《半条命2∶失落的海滩》中,我们发现使用SM 2.0b的Radeon X800显卡对HDR的支持就很好,只不过SM 2.0的先天不足限制了这些特效的应用罢了。

  我们不可否认,SM 3.0的诞生让微软彻底统治了娱乐图形领域。尤其是它更新了统一的渲染语言——全新的HLSL高级程序语言,这大大简化了3D程序的编写工作,同时公正的态度使得程序员不必为NVIDIA或ATI单独考虑优化措施。微软通过DirectX和HLSL从根本上控制了图形技术未来的发展方向,而NVDIA和ATI为了取得更大的市场份额,不得不全力支持。因此从某种意义上来说,真正统治娱乐图形领域的霸主不是NVIDIA,也不是ATI,而是微软。小编这里建议现阶段想购买显卡的游戏爱好者,最好选择支持SM 3.0的产品,因为采用SM 3.0特性的游戏会越来越多。
  毋庸置疑,游戏永远是以显卡为首的电脑硬件更新换代的“催化剂”。随着《分裂细胞3》、《孤岛惊魂》(即FarCry)、《帝国时代3》、《使命召唤2》等支持Shader Model 3.0游戏的陆续问世,GeForce FX系列或Radeon 9500系列之前的显卡也面临着“下岗”的命运。究竟什么是Shader Model?它给游戏带来了哪些变化呢?
Shader Model带来可编程革命
  经历过S3 Trio64时代的DIYer一定还记得,当时所有的游戏都运行在DOS实模式下,3D游戏要调用这些特效必须借助显卡厂商特制的API(应用程序接口)才行。为了在竞争中取胜,显卡制造商开始疯狂地为产品增加各种硬件特效,如Alpha混合、平面着色、透明化处理等等。
  这样的特效竞赛持续没多久,人们便发现,无论怎么增加特效都不能满足游戏开发者的需求。而且由于缺乏统一的API,无法充分利用纷繁复杂的特效。当时的游戏为了尽量支持市场上的各种硬件,不得不同时为每一块显卡准备相应的执行程序,这对游戏开发商来说无疑是个噩梦。为了使显卡发展摆脱特效竞赛的怪圈,设计一款能自由编程的显示芯片便成了研发人员迫在眉睫的任务。不过,在实现可编程之前需要统一的API。好在微软的DirectX开始逐步成熟,OpenGL也已相当完善。显卡制造商们只要直接使用这两种API就能实现所有的硬件功能。
  GeForce 256的诞生拉开了GPU时代的序幕。由于在GPU内部首次引入T&L(几何转换和光照处理)引擎,因此使得显示核心能够更快地实现各种复杂的运算,而相应的DirectX 7也在3D应用中开始扮演越来越重要的角色。既然摆脱了CPU的依赖,显卡就有了实现可编程的基础,伴随着DirectX 8的发布,GeForce 3系列产品首次向世人展示了GPU的可编程能力,吃力不讨好的固定特效时代一去不复返。
什么是Shader Model
  在3D图形领域,Shader被称为“渲染引擎”或“着色器”,Shader Model(以下简称SM)就是“渲染引擎模式”了。事实上,Shader是一段能够针对3D对象进行操作、并被GPU所执行的程序。通过这些程序,程序员就能够获得绝大部分想要的3D图形效果。在一个3D场景中,一般包含多个Shader。这些Shader中有的负责对3D对象表面进行处理,有的负责对3D对象的纹理进行处理。
  早在微软发布DirectX 8时,Shader Model的概念就出现在其中了,并根据操作对象的不同被分为对顶点进行各种操作的Vertex Shader(顶点渲染引擎)和对像素进行各种操作的Pixel Shader(像素渲染引擎)。  
From:http://www.itcomputer.com.cn/Article/Hardware/201309/2231.html
  • 上一篇文章:

  • 下一篇文章:
  • Copyright © 2005-2013 电脑知识网 Computer Knowledge   All rights reserved.