您当前的位置:首页 > 教育论文>师范教育论文

浅析多媒体视频信息处理的方式创新

2015-12-16 15:52 来源:学术参考网 作者:未知

现代科学技术的飞速发展,使人类社会进入了信息时代。计算机技术在当今教育领域中的应用,是教育现代化的一个重要标志。多媒体技术运用多种现代化手段对信息进行加工处理,显示与重放,模拟、仿真与动画技术的应用可以使一些在普通条件下无法实现或无法观察到的过程与现象生动而形象地显示出来,可大大增强人们对抽象事物与过程的理解与感受。交互式多媒体技术将图、文、声、像融为一体,可以达到在短时间内获取大量知识信息的效果。

  视频信息与图像信息、音频信息一样,是多媒体信息的重要组成部分,是多媒体技术研究的重要内容。视频信息是连续变化的影像。是多媒体技术最复杂的处理对象。视频通常指实际场景的动态演示,例如电影、电视、摄像资料等。

  1.视频

  视频信号是指活动的、连续的图像序列。在视频中,一幅图像称为一帧,是构成视频信息的最基本单位。在空间、时间上互相关联的图像序列(帧序列)连续起来,就是动态视频图像。

  在多媒体技术中,视频处理一般是指借助于一系列相关的硬件(如视频卡)和软件,在计算机上对输入的视频信号进行接收、采集、传输、压缩、存储、编辑、显示、回放等多种处理。

  计算机要处理视频信息,首先要解决的是将模拟视频信号转为数字视频信号。计算机需要对输入的模拟视频信息进行采样和量化,并经过编码使其变成数字化图像。

  图像采样就是将二维空间上模拟的连续亮度(即灰度)或色彩信息转化为一系列有限的离散数值来表示。由于图像是一种二维信息,所以具体的做法就是对连续图像在水平方向和垂直方向等间隔的分割成矩形网状结构,所形成的矩形微小区域,称之为像素。被分割的图像若水平方向有M个间隔,垂直方向有N个间隔,则一幅视频画面就被表示成MxN个像素构成的离散像素的集合。MxN表示图像的分辨率。

  在进行采样时,采样点间隔的选取是一个非常重要的问题,它决定了采样后的图像是否能真实地反映原图像的程序。一般说来,原图像中的画面越复杂,色彩越丰富,则采样间隔应越小。

  采样后得到的亮度值(或色彩值)在取值空间上仍然是连续值。把采样后所得到的这些连续量表示的像素值离散化为整数值的操作叫量化。图像量化实际上就是将图像采样后的样本值的范围分为有限多个段,把落入某段中的所有样本值用同一值表示,是用有限的离散值量来代替无限的连续模拟量的一种映射操作。在量化时所确定的离散取值个数称为量化级数,为表示量化的色彩值(或亮度值)所需的二进制数位称为量化字长。一般可以用8 bit、16bit、24bit或更高的量化字长来表示的颜色。量化字长越长、则越能反映原有图像的颜色,但得到的数字图像的容量也越大。

  在多媒体系统中,视频信号的采样和量化是通过视频卡对输入的画面进行采集和捕获,并在相应的软件支持下完成的。画面采集可分为单幅画面采集和多幅动态画面连续采集。单幅画面采集时,用户可以将输入的视频信息定格,然后将定格后的单幅画面以图形文件格式加以存储。为得到活动的视频画面,要进行连续采集,视频卡可以对视频信号源泉输入的视频信号进行实时、动态的捕获和压缩,可以每秒25帧到30帧的采样速度对视频加以采样和量化。

  视频信号经数字化后,需要将数字化信息压缩后加以存储。在使用时,再将数字化信息从介质中读出,还原成图像信号加以输出。作为一个完整的信息表示,有时视频信息还需要与信息同步播放,这就需要将视频信号与音频信号按某种格式组织起来,在播放时实现二者的同步。在多媒体的应用领域中,由于数字化的图像资料信息数据过于庞大,面临图像数据存储和传输的困难。因此视频技术一直是多媒体技术中比较困难的部分。在多媒体系统中,动态视频图像不仅需要巨大的存储容量,而且对传输速度也有很高的要求,视频信号的采集、存储、显示、传输都要涉及到庞大的数据,而现有的计算机由于存储容量和处理速度有限,从而成为视频处理的瓶颈。一个有效的方法就是对图像进行压缩处理,在视频信号采集的同时对其进行压缩处理,然后再存储起来,在播放时先进行解压缩,然后再输出。

  2.视频处理过程

  2.1 视频采集。

  视频信号的采集是在一定的时间以一定的速度对单帧视频信号或动态连续地对多帧视频信号进行接收,采样后形成数字化数据的处理过程。视频采集分为两种:单帧画面采集和多幅连续采集。

  2.2 编码处理。

  对视频信号进行编码压缩处理是减少数字化视频数据量的有效措施。如果数据传输速度达不到23MB/S,那么会导致大量数据的丢失,从而会影响视频采样和播放的质量。

  2.3 基本编辑。

  视频基本编辑主要是片段取舍:首先确定片段起点和终点,然后将其去掉或保留,最后保留的片段按时间顺序排列,从头到尾连续播放,形成完整的视频节目。编辑软件中用于排列这些片段的工作空间称为时间轴。

  2.4 图像增强和复原。

  图像增强和复原的目的是为了提高图像的质量同,如去除噪声,提高图像的清晰度等。图像增强不考虑图降质的原因,突出图像中所感兴趣的部分。如强化图像高频分量,可使图像中物体轮廓清晰,细节明显;如强化低频分量可以减少图像中噪声影响。图像复原要求对图像降质的原因有一定的了解,一般讲应根据降质过程建立“降质模型”,再采用某种滤波方法,恢复或重建原来的图像。

  2.5 视频回放。

  回放是指将存储的数字化视频数据通过实时解压缩恢复成原来的字计算机屏幕上显示重现。由于数字视频数据量庞大,因此视频的回放与屏幕显示的速度和质量密切相关,即与显示卡的质量有关。

  3.视频文件——MPG文件

  MPEG压缩标准是针对动力图像而设计的,其基本方法是:在单位时间内采集并保存第一帧信息,然后只存储其余帧相对第一帧发生变化的部分,从而达到压缩的目的。它主要采用两个基本压缩技术:运动补偿技术(预测编码和插补码)实现时间上的压缩,变换域(离散余弦变换DCT)压缩技术实现空间上的压缩。

  3.1 MPEG-4标准(1998)。

  更加注重多媒体系统的交互性和灵活性,主要应用视像电话、视像电子邮件等,对传输速率要求较低,在4800—64000BIT/S之间,利用很窄的带宽,采用帧重建、数据压缩技术,实现了用最少的数据获得最佳 的图像质量。

  3.2 MPEG-7标准(2001)。

  MPEG-4中定义的音频、视频对象的描述同样适用于MPEG-7标准,MPEG-7标准的描述可以增强其他MPEG标准的功能,作为国际化的标准研究和制定,具有很好的兼容性,能够快速、有效地搜索出用户所需的不同类型的多媒体影像资料。

  参考文献

  [1]科技信息杂志2010年上半期.

  [2] 用工具软件(第五版).

  [3] 音视编辑与电视节目制作.

  [4] 实用办公软件基础教程.

  [5] 刘新龙,张占军.MPEG-4视频流编解码与视频采集方法研究.第18卷,第4期,2004年出版.

相关文章
学术参考网 · 手机版
https://m.lw881.com/
首页