太原理工大学现代科技学院 毕业设计 - 图文 联系客服

发布时间 : 星期一 文章太原理工大学现代科技学院 毕业设计 - 图文更新完毕开始阅读d8aaceb2c850ad02df804101

第1章 绪 论

1.1 课题研究的目的及其意义

计算机处理视频的前提是进行图像压缩。图像信号数字化以后数据带宽比较高,一般会达到20MB/秒,所以计算机将会很难对其进行保存、传输和处理。采用数据压缩后数据带宽可以下降到1-10MB/秒,便于计算机将图像信号储存并且容易做相应的处理。IOS制订了常用的算法,即JPEG和MPEG算法。JPEG是静态图像压缩标准,适用于连续色调彩色或灰度图像,它包括两部分:一是基于DPCM(空间线性预测)技术的无失真编码,一是基于DCT(离散余弦变换)和哈夫曼编码的有失真算法,前者压缩比很小,主要应用的是后一种算法[1]。

OV2640 是OmniVision公司生产的一颗 1/4 寸的 CMOS UXGA(1632*1232)图 像传感器。该传感器工作电压要求低、传感器尺寸小,在很小的体积上集成了单片UXGA摄像头以及图像处理器的所有功能。可以通过SCCB对其进行各方面参数的控制,可以输出整帧、子采样、缩放和取窗口等方式的各种分辨率 8/10 位影像数据。该产品 UXGA 图像最高达到 15 帧/秒(SVGA 可达 30 帧,CIF 可达 60 帧)。 使用者可以根据需要控制采集图像质量、数据输出格式和传输方式。片上图像处理功能主要包括伽玛曲线、 白平衡、对比度、色度等。都可以通过SCCB对其进行控制。OmmiVision 公司生产的图像传感器使用了独有的传感器制造技术,通过减少光学或电子缺陷如拖尾、固定图案噪声、浮散等,以提高图像的最终质量,最终得到清晰稳定的图像。

目前需要设计一种低成本,低功耗的视频采集及输出的设备,可以将图像数据采集并且传输到计算机并且储存。在此次设计中,需要掌握有关视频图像压缩的相关知识,ARM微控制器的应用、编程相关知识,通过研究现有的视频采集、传输设备帮助自己完成自己的设计。

信息如何被高效存储和传递的问题一直是计算机研究的一个重要课题, 而解决这一问题的最常用的就是数据压缩技术。计算机为什么需要数据压缩技术呢? 一是因为容量的限制, 促使各程序员开始开发各种压缩软件对软件进行压缩。二是信息通讯量的限制, 人们希望在网上下载的软件越小越好。随着数码技术的发展,压缩技术也在不断发展, 因为硬盘和光盘的空间毕竟是有限的, 而游戏、音频、视频、图片在计算机中应用中越来越普遍, 但它们又非常占据空间, 所以压缩技术前景非常广阔并且不断在发展。与压缩相关的有两个步骤: 第一个步骤是压缩, 第二个步骤则是解压缩。

–1–

在计算机中所有信息都是以二进制代码形式存在的, 这些信息具体形式可以是声音、图像、软件, 因此我们把只用二进制编码的像片、音频等可以称为数码像片或数码音频。以数码图片为例, 压缩就是要把的图像的二进制代码中冗长的、重复的代码遵循一定的算法用简短的代码来代替。如果把软件中的冗长的、重复的代码如果都按一定的算法用简短的代码来替换的话, 最后重新生成的软件一定会小得多。这个过程, 就叫做压缩。

一般而言, 被压缩的文件是不能直接运行的, 那是因为它的代码都被简化了。被压缩了的文件只是变小了空间而已, 是不能直接使用的。要想再使用这些压缩过的文件, 就必须解压缩。解压缩文件要用到对应的压缩软件。解压缩的过程正好和压缩的过程相反, 即通过算法将简短的压缩代码还原为程序的真正代码。

在多媒体应用中,数字化信息的数据量相当庞大,对存储器的存储器的存储容量、网络带宽以及计算机的处理速度都有较高的要求,完全通过增加硬件设施来满足现实需求是不可能的,必须采用有效的压缩技术。多媒体数据之所以能够进行压缩时因为原始数据存在以下三种形式的冗余:(1)编码冗余。如频率相差很大的像素用相同长度的代码进行编码;(2)像素间冗余。如相邻像素间具有时域或空域相关性;(3)视觉信息冗余。即人的视觉图像边缘急剧变化不敏感,对色彩的分辨能力弱,只对图像的亮度敏感,对经压缩和解压缩后的图像失真难以察觉或影响甚微。这些数据本身的冗余和人的感官特性构成了多媒体数据压缩的基础,同时也确定了数据压缩的研究方向。

1.2 视频采集、压缩与存储国内外研究现状

1.2.1 图像传感器发展历程

上世纪五十年代左右,宾·克罗司比实验室率先发明了录像机,该设备可以将电视转播中的电流脉冲信号记录到当时使用的磁带上。20世纪60年代美国国家航空航天局(NASA)在探月工程中由于探测器传送回来的模拟信号质量较差,导致地面站无法将接收到的图像还原,此后其工程师开始向新的技术研究,数字图像技术开始飞速发展,其次冷战时期的科技竞争也加快了其发展,多数间谍卫星上都使用了数字图像技术[2]。关于传感器,20世纪60年代就开始了“CCD芯片”的研究与开发。1969年,贝尔实验室将科室电话和半导体泡存储技术结合,发明了CCD器件的原型。当时CCD的目的是改进存储技术,随后人们意识到可以利用其光电效应来拍摄并且存储图像。1972年,喷气推进实验室研制出尺寸100*100像素阵列的CCD传感器阵列。1975年,柯达实验室创造出世界上第一台数码相机,同时拍摄了世界上第一张数码照片,至此,CCD

–2–

感光阵列开始飞速发展,由最初的1万像素发展到今天的主流1300万像素,以至于目前的4K(4096x2160像素单元)图像采集系统。 1.2.2 图像压缩技术发展

从20世纪80年代开始,世界上已有几十家公司纷纷投入到多媒体计算机系统的研制和开发工作。20世纪90年代已有不少精彩的多媒体产品问世,诸如荷兰菲利浦和日本索尼联合推出的CD-I,苹果公司Macintosh为基础的多媒体功能的计算机系统,Intel和IBM公司联合推出的DVI。此外,还有Microsoft公司的MPC及苹果的Quick Time等,这些多媒体计算机系统各具特色,丰富多彩,竞争异常激烈。

具有人机交互特色的多媒体技术,使计算机进入普通家庭,进入人们的生活、学习、娱乐及人们的精神生活领域。人们像使用家用电器一样地使用计算机。计算机能听懂人的话语;计算机成为能讲话的实用型产品进入市场,也为时不远了。

Internet技术的迅猛发展与普及,推动了世界范围的信息传输和信息交流。在色彩缤纷、变幻无穷的多媒体世界中,用户如何选择产品,如何自由地组合、装配来自不同厂家的产品部件,构成自己满意的系统,这就涉及一个不同厂家产品的兼容性问题,因此需要一个全球性的统一的国际技术标准。

国际标准化协会(International Standardization Organization,ISO)、国际电子学委员会(International Electronics Committee,IEC)、国际电信协会(International Telecommunication Union,ITU)等国际组织及CCITT,于20世纪90年代领导制定了多个重要的多媒体国际标准。如H.261、H.263、JPEG和MPEG等标准。

H.261是被可视电话、电视会议中采用的视频、图像压缩编码标准,由CCITT制定,1990年12月正式批准通过;JPEG是由ISO与CCITT成立的“联合图片专家组(Joint Photographic Experts Group,JPEG)”制定的,用于灰度图、彩色图的连续变化的静止图像编码标准,于1992年正式通过;MPEG是以H.261标准为基础发展而来的。它是由IEC和ISO成立的“运动图像专家组(Moving Picture Experts Group,MPEG)”制定的,于1992年通过了MPEG-1,并在后来的几年中,陆续推出了MPEG-2、MPEG-4、MPEG-7等标准。

数字时代来临后,同时也带来了数据压缩,传统的模拟信号与数字信号相比虽然可以原模原样的保留原始数据,但是在有些场合下会导致数据量庞大,不以存储和传输等缺点,所以人们便将数据转化成数字信号进行压缩,在可以恢复到原始数据的条件下,最大化的减小数据的体积,以便进行存储以及高速传输。

–3–

国际标准化组织于1986年、1998年先后成立了联合图片专家组JPEG和运动图像压缩编码组织MPEG。JPEG专家组主要致力于静态图像的帧内压缩编码标准ISO/IEC10918的制定;MPEG专家组主要致力于运动图像压缩编码标准的制定。经过专家组不懈的努力,基于第一代压缩编码方法(如预测编码、变换编码、熵编码及运动补偿等)的三种压缩编码国际标[3]。

众所周知,人类通过视觉获取的信息量约占总信息量的70%,而且视频信息具有直观性、可信性等一系列优点。所以,视讯技术中的关键技术就是视频技术。

视频技术的应用范围很广,如网上可视会议、网上可视电子商务、网上政务、网上购物、网上学校、远程医疗、网上研讨会、网上展示厅、个人网上聊天、可视咨询等业务。但是,以上所有的应用都必须压缩。传输的数据量之大,单纯用扩大存储器容量、增加通信干线的传输速率的办法是不现实的,数据压缩技术是个行之有效的解决办法,通过数据压缩,可以把信息数据量压下来,以压缩形式存储、传输,既节约了存储空间,又提高了通信干线的传输效率,同时也可使计算机实时处理音频、视频信息,以保证播放出高质量的视频、音频节目。可见,多媒体数据压缩是非常必要的。由于多媒体声音、数据、视像等信源数据有极强的相关性,也就是说有大量的冗余信息。数据压缩可以将庞大数据中的冗余信息去掉(去除数据之间的相关性),保留相互独立的信息分量,因此,多媒体数据压缩是完全可以实现的。

图像编码方法可分为两代:第一代是基于数据统计,去掉的是数据冗余,称为低层压缩编码方法;第二代是基于内容,去掉的是内容冗余,其中基于对象(Object-Based)方法称为中层压缩编码方法,其中基于语义(Syntax-Based)方法称为高层压缩编码方法。图像压缩编码技术可以追溯到1948年提出的电视信号数字化,到今天已经有50多年的历史了。在此期间出现了很多种图像压缩编码方法,特别是到了80年代后期以后,由于小波变换理论,分形理论,人工神经网络理论,视觉仿真理论的建立,图像压缩技术得到了前所未有的发展[4],其中分形图像压缩和小波图像压缩是当前研究的热点。

1990年,ISO制订了H.261标准,用于可视电话和电视会议。

1991年制定JPEG静态图像编码标准。同年制定MPEG-1标准,用于数字电视图像存储。

1993年为动态图象及其伴音音频压缩制定MPEG-2标准 1996年ITU-T制定H.263,用于低码率视频编码。

1998年拟定MPEG-4,首次在编码中提出了视频对象和基于内容编码的概念。

–4–