首页

> 学术发表知识库

首页 学术发表知识库 问题

无损压缩算法研究与实现论文

发布时间:

无损压缩算法研究与实现论文

文件压缩原理我们使用计算机所做的事情大多都是对文件进行处理。每个文件都会占用一定的磁盘空间,我们希望一些文件,尤其是暂时不用但又比较重要不能删除的文件(如备份文件,有点像鸡肋呀),尽可能少的占用磁盘空间。但是,许多文件的存储格式是比较松散的,这样就浪费了一些宝贵的计算机存储资源。这时,我们可以借助压缩工具解决这个问题,通过对原来的文件进行压缩处理,使之用更少的磁盘空间保存起来,当需要使用时再进行解压缩操作,这样就大大节省了磁盘空间。当你要拷贝许多小文件时,通过压缩处理可以提高执行效率。如果小文件很多,操作系统要执行频繁的文件定位操作,需要花费很多的时间。如果先把这些小文件压缩,变成一个压缩文件后,再拷贝时就很方便了。由于计算机处理的信息是以二进制数的形式表示的,因此压缩软件就是把二进制信息中相同的字符串以特殊字符标记来达到压缩的目的。为了有助于理解文件压缩,请您在脑海里想象一幅蓝天白云的图片。对于成千上万单调重复的蓝色像点而言,与其一个一个定义“蓝、蓝、蓝……”长长的一串颜色,还不如告诉电脑:“从这个位置开始存储1117个蓝色像点”来得简洁,而且还能大大节约存储空间。这是一个非常简单的图像压缩的例子。其实,所有的计算机文件归根结底都是以“1”和“0”的形式存储的,和蓝色像点一样,只要通过合理的数学计算公式,文件的体积都能够被大大压缩以达到“数据无损稠密”的效果。总的来说,压缩可以分为有损和无损压缩两种。如果丢失个别的数据不会造成太大的影响,这时忽略它们是个好主意,这就是有损压缩。有损压缩广泛应用于动画、声音和图像文件中,典型的代表就是影碟文件格式mpeg、音乐文件格式mp3和图像文件格式jpg。但是更多情况下压缩数据必须准确无误,人们便设计出了无损压缩格式,比如常见的zip、rar等。压缩软件(compression software)自然就是利用压缩原理压缩数据的工具,压缩后所生成的文件称为压缩包(archive),体积只有原来的几分之一甚至更小。当然,压缩包已经是另一种文件格式了,如果你想使用其中的数据,首先得用压缩软件把数据还原,这个过程称作解压缩。常见的压缩软件有winzip、winrar等

视频压缩算法研究现状论文题目

视频有mpeg1,mpeg2,mpeg4,h.261,h.263等,mpeg1的标准是1.5mb/s,主要与cd-rom速度相容,也就是vcd所用的压缩格式,mpeg2目标是4-60mb/s主要用于数字电视方面,mpeg4压缩率很低,用途很广了,用在一些可视电话,远程监控等,h.261是国际视频会议标准了,主要用于视频会议和可视电话中了~~~~~~频视频压缩技术基本原理的一个简单介绍,以及对各种主流音频视频压缩技术的简单描述视频和音频压缩技术的基本原理一致,既经历傅立叶变换,采样,然后用各种算法进行数据压缩三大步骤先说音频,音频压缩技术又有两个分支,一个是语音压缩,一个是适合于所有音频的压缩技术,前者如LPC,后者如MP3。两者的区别在于语音压缩主要偏重于对于声音载波中的 20HZ-3.5KHZ即人能发出的声音所在的主要频率进行的压缩,这种压缩技术侧重于对于人声音的模拟,而不是对于所有人耳能听到的频段的模拟,这里要注意human voice 20HZ-3.5khz,而人耳能听到的频段为0-20KHZ。这样做的好处是大大的降低了数据量而换来了不是很差的效果,由于大多数的音频应用是对于human voice的应用,比如移动电话,蜂窝式无线网络对于数据传输率的限制使得语音压缩技术得到广泛应用。下面我简单介绍一下主流的语音压缩技术。 首先要说的是普通电话,普通电话用的是很简单的PCM,在话筒中装入低通滤波器用于过滤掉高频声音以防止出现混淆噪音(aliasing noise,关于这个如果有兴趣的话提一下我可以详细解释),然后按照8K sample/sec的速度采样,每个采样点用8 bit来描述,然后对每个采样点进行传输,普通的电话线路64Kb/s的带宽用来传输PCM音频。但是这样子人们发现效果不佳,因为用8bit 来描述一个采样点是不足够的,人们发现当说话声音低的时候听不清楚。所以发明了后来的ulaw encoding技术,既用16位来采样,而用8bit来描述这16bit 的采样点。 如何实现? 这是用了所谓的指数编码法, 这16 bit 不是平均分布的,而是在音量小的声音用多的bit来 描述,高音用少一点bit来描述,然后将之用均匀分布的用8bit来表示,这样的结果是低音和高音(音量)的损失量是一样的,可以比较清晰的传输音量较低的声音。这就是PCM技术了,这也是为什么你如果通过电话来听点歌的话会发现那歌声有多恶心,电话是用表示语音的技术来表示音乐,所以我在这里大胆预测,一切电话点歌类行业最终都将走向灭亡! PCM技术是今天我们普通电话网络所采用的压缩技术,然而由于其占满了64Kb带宽,当人们想在原有的电话线路上实现视频电话时发现首先要做的事情就是大大的降低音频数据量。这就让后来的DPCM 和 ADPCM技术有用武之地了。DPCM中的D为differenital,由于传送整个sample太耗费带宽,而如果传送sample与sample之间的差异则可以大量的减少数据量,所以人们只发送第一个sample,后来都只发送其中的差值,在接收端将收到的差值根据之前的sample运算后取得当前的sample。而所谓的ADPCM即 Adaptive DPCM,在ADPCM中利用一个自适应运算器对于输入的音频进行计算以调整自己的位阶运算,e.g. 4bit 可以表示 -7----8的数据,当运算器发现difference数值很大的时候就使用-56,-48----64来表示数据以取得尽可能好的效果。 PCM,ADPCM是当今语音压缩的主流,但人们发现其数据量还是太大,比如用于移动电话的时候,这就让LPC应运而生了。 LPC 是GSM所用的音频压缩技术。 在语音输入话筒后, 手机背后是如何工作的? 手机会将你的声音分门别类,是元音还是辅音? 音量多大?音调如何? 然后将这些参数输入一个运算部件来得到一个系数, 我们网络所要传输的也就是这个系数。 接收端收到这个系数后会将之按照原样恢复, 当然,由于采得那些数据参数时肯定是有损失的,所以LPC技术的声音损失率比电话更大,而且极不抗噪音,你在讲手机的时候会发现如果对方处在一个噪杂的环境那你根本就听不清他说什么,这不是因为你耳朵不好,而是对方的手机把噪音和对方的声音一起输入话筒,编码部件将之混在一起编码,硬将之算出一些音调参数啊什么的然后传输,你可以想像其传输的都是污七八糟什么东西了。但是经过LPC压缩后比特速率可以降低到1.2Kb-4Kb/s,这又是一个以效果换带宽的tradeoff.

论文题目是:数字电视接收机的视频压缩技术 帮写内容:(1)选题依据及研究意义; (2) 选题研究现状; (3)研究内容(包括基本思路、框架、主要研究方式、方法 等) 一共是三点,请大家教一下我这三点该怎么写?! 注明:论文我已经写好了:下面是论文提纲(含论文选题、论文主体框架) 论文选题:数字电视接收机的视频压缩技术 第一章:绪论 一、数字电视的发展及视频压缩的必要性; 二、视频图象数字压缩的客观依据; 三、数字电视与接收机(机顶盒); 四、电视信号模数转换标准; 第二章:数字电视机顶盒技术 一、什么是数字电视机顶盒; 二、数字电视机顶盒的基本原理; 三、数字电视机顶盒的结构; 四、数字电视机顶盒的主要技术; 第三章:视频压缩编码技术 一 空间或时间性编码; 二. 加权; 三. 遍历(Scannng); 四. 熵编码; 五. 空间性编码器; 六. 时间性编码; 七. 运动补偿; 八. 双向编码; 九. I、P 和B 画面; 十. MPEG 压缩器; 十一. 预处理; 十二. 类和级; 十三. 小波; 第四章:视频图象压缩标准 一、H.261标准; 二、JPEG标准; 三、MPEG-1压缩编码标准; 四、MPEG-2压缩编码标准; 五、MPEG-4压缩编码标准; 结束语 ; 参考文献 ;问题补充:题目是学校帮我选择的! 大家可以帮忙把这三点写一下吗? 我真不知道该怎么写! 或者大家帮我写前两点也好了~ 谢谢帮我忙的所有朋友! 拜托各位了!我开题16号就要交了看看这个能不能帮您! 一、如何选择问题 我一起萦绕于怀的,是在写博士论文开题报告的一年多时间里,导师薛澜教授反复追问的一个问题:“你的 puzzle 是什么?”多少次我不假思索地回答“我的问题就是,中国的半导体产业为什么发展不起来。”薛老师问题以其特有的储蓄,笑而不答。我在心中既恼火又懊丧:这么简单的道理,这么明显的答案,到底哪儿不对了?! 奥妙就在于提出问题的“层次”。不同于政策研究报告,学术文章聚集理论层面、解决理论问题。理论是由一系列前设和术语构造的逻辑体系。特定领域的理论有其特定的概念、范畴和研究范式。只有在相同的概念、视角和范式下,理论才能够对话;只有通过对话,理论才能够发展。极少有硕博论文是创造新理论的,能这样当然最好,但难度很大。我们多数是在既有理论的基础上加以发展,因此,在提出问题时,要以“内行”看得懂的术语和明确的逻辑来表述。审视我最初提出的问题“中国半导体产业为什么发展不起来”,这仅仅是对现象的探询,而非有待求证的理论命题。我的理论命题是:“中国产业政策过程是精英主导的共识过程吗?”在这个命题中,“政策过程”、“精英政治”、“共识诉求”三个术语勾勒出研究的理论大体范围和视角。 其次,选择问题是一个“剥笋”的过程。理论问题总是深深地隐藏在纷繁复杂的现实背后,而发现理论问题,则需要运用理论思维的能力。理论思维的训练是一个长期积累的过程。不过初学者也不必望而却步,大体上可以分“三步走”:第一步,先划定一个“兴趣范围”,如半导体产业、信息产业、农村医疗、高等教育体制等,广泛浏览相关的媒体报道、政府文献和学术文章,找到其中的“症结”或“热点”。第二步,总结以往的研究者大体从哪些理论视角来分析“症结”或“热点”、运用了哪些理论工具,如公共财政的视角、社会冲突范式等。第三步,考察问题的可研究性,也就是我们自己的研究空间和研究的可行性。例如,西方的理论是否无法解释中国的问题?或者同一个问题能否用不同的理论来解释?或者理论本身的前提假设、逻辑推演是否存在缺陷?通过回答这些问题,我们找到自己研究的立足点。不过还要注意我们研究在规定的一到两年时间内,是否可能完成?资料获取是否可行?等等。 最后,如何陈述问题?陈述问题实质上就是凝练核心观点的过程。观点应当来自对现实问题的思考和总结,而不是为了套理论而“削足适履”。中国的政治、经济和社会发展充满动态的、丰富的景象,如何才能用恰当的术语、准确的逻辑表述出来呢?雄心勃勃的初学者往往提出宏伟的概念或框架,但我的建议是尽可能缩小研究范围、明确研究对象,从而理清对象的内存逻辑,保证能在有限的时间内完成规范的学 术论文。如“中国半导体产业政策研究”就是一个非常含糊的陈述,我们可以从几个方面来收缩话题:( 1 )时间:从 1980 年到 2000 年;( 2 )对象:政府的叛乱者和决策行为,而不是市场、企业、治理结构等;( 3 )视角:政治和政府理论中的精英研究;( 4 )案例: 908 工程、 909 工程、 13 号文件和《电子振兴》,这是发生在 1980 - 2000 年间半导体政策领域的两个重大工程和两个重要文件。通过这样的明确界定,我们将目光集中在“政策过程”、“精英”、“共识”几个显而易见的概念上,问题也就水落石出了。同时,问题清楚了,我们在筛选信息和资料时也就有了明确的标准,在这个“信息冗余”的时代,能够大大提高研究效率。 二、 如何做文献综述 首先需要将“文献综述( Literature Review) ”与“背景描述 (Backupground Description) ”区分开来。我们在选择研究问题的时候,需要了解该问题产生的背景和来龙去脉,如“中国半导体产业的发展历程”、“国外政府发展半导体产业的政策和问题”等等,这些内容属于“背景描述”,关注的是现实层面的问题,严格讲不是“文献综述”,关注的是现实层面问题,严格讲不是“文献综述”。“文献综述”是对学术观点和理论方法的整理。其次,文献综述是评论性的( Review 就是“评论”的意思),因此要带着作者本人批判的眼光 (critical thinking) 来归纳和评论文献,而不仅仅是相关领域学术研究的“堆砌”。评论的主线,要按照问题展开,也就是说,别的学者是如何看待和解决你提出的问题的,他们的方法和理论是否有什么缺陷?要是别的学者已经很完美地解决了你提出的问题,那就没有重复研究的必要了。 清楚了文献综述的意涵,现来说说怎么做文献综述。虽说,尽可能广泛地收集资料是负责任的研究态度,但如果缺乏标准,就极易将人引入文献的泥沼。 技巧一:瞄准主流。主流文献,如该领域的核心期刊、经典著作、专职部门的研究报告、重要化合物的观点和论述等,是做文献综述的“必修课”。而多数大众媒体上的相关报道或言论,虽然多少有点价值,但时间精力所限,可以从简。怎样摸清该领域的主流呢?建议从以下几条途径入手:一是图书馆的中外学术期刊,找到一两篇“经典”的文章后“顺藤摸瓜”,留意它们的参考文献。质量较高的学术文章,通常是不会忽略该领域的主流、经典文献的。二是利用学校图书馆的“中国期刊网”、“外文期刊数据库检索”和外文过刊阅览室,能够查到一些较为早期的经典文献。三是国家图书馆,有些上世纪七八十年代甚至更早出版的社科图书,学校图书馆往往没有收藏,但是国图却是一本不少(国内出版的所有图书都要送缴国家图书馆),不仅如此,国图还收藏了很多研究中国政治和政府的外文书籍,从互联网上可以轻松查询到。 技巧二:随时整理,如对文献进行分类,记录文献信息和藏书地点。做博士论文的时间很长,有的文献看过了当时不一定有用,事后想起来却找不着了,所以有时记录是很有必要的。罗仆人就积累有一份研究中国政策过程的书单,还特别记录了图书分类号码和藏书地点。同时,对于特别重要的文献,不妨做一个读书笔记,摘录其中的重要观点和论述。这样一步一个脚印,到真正开始写论文时就积累了大量“干货”,可以随时享用。 技巧三:要按照问题来组织文献综述。看过一些文献以后,我们有很强烈的愿望要把自己看到的东西都陈述出来,像“竹筒倒豆子”一样,洋洋洒洒,蔚为壮观。仿佛一定要向读者证明自己劳苦功高。我写过十多万字的文献综述,后来发觉真正有意义的不过数千字。文献综述就像是在文献的丛林中开辟道路,这条道路本来就是要指向我们所要解决的问题,当然是直线距离最短、最省事,但是一路上风景颇多,迷恋风景的人便往往绕行于迤逦的丛林中,反面“乱花渐欲迷人眼”,“曲径通幽”不知所终了。因此,在做文献综述时,头脑时刻要清醒:我要解决什么问题,人家是怎么解决问题的,说的有没有道理,就行了。 三、如何撰写开题报告 问题清楚了,文献综述也做过了,开题报告便呼之欲出。事实也是如此,一个清晰的问题,往往已经隐含着论文的基本结论;对现有文献的缺点的评论,也基本暗含着改进的方向。开题报告就是要把这些暗含的结论、论证结论的逻辑推理,清楚地展现出来。 写开题报告的目的,是要请老师和专家帮我们判断一下:这个问题有没有研究价值、这个研究方法有没有可能奏效、这个论证逻辑有没有明显缺陷。因此,开题报告的主要内容,就要按照“研究目的和意义”、“文献综述和理论空间”、“基本论点和研究方法”、“资料收集方法和工作步骤”这样几个方面展开。其中,“基本论点和研究方法”是重点,许多人往往花费大量笔墨铺陈文献综述,但一谈到自己的研究方法时但寥寥数语、一掠而过。这样的话,评审老师怎么能判断出你的研究前景呢?又怎么能对你的研究方法给予切实的指导和建议呢? 对于不同的选题,研究方法有很大的差异。一个严谨规范的学术研究,必须以严谨规范的方法为支撑。在博士生课程的日常教学中,有些老师致力于传授研究方法;有的则突出讨论方法论的问题。这都有利于我们每一个人提高自己对研究方法的认识、理解、选择与应用,并具体实施于自己的论文工作中。

多媒体图像压缩技术姓名:Vencent Lee摘要:多媒体数据压缩技术是现代网络发展的关键性技术之一。由于图像和声音信号中存在各种各样的冗余,为数据压缩提供了可能。数据压缩技术有无损压和有损压缩两大类,这些压缩技术又各有不同的标准。一、多媒体数据压缩技术仙农(C.E.Shannon)在创立信息论时,提出把数据看作是信息和冗余度的组合。早期的数据压缩之所以成为信息论的一部分是因为它涉及冗余度问题。而数据之所以能够被压缩是因为其中存在各种各样的冗余;其中有时间冗余性、空间冗余性、信息熵冗余、先验知识冗余、其它冗余等。时间冗余是语音和序列图像中常见的冗余,运动图像中前后两帧间就存在很强的相关性,利用帧间运动补兴就可以将图像数据的速率大大压缩。语音也是这样。尤其是浊音段,在相当长的时间内(几到几十毫秒)语音信号都表现出很强的周期性,可以利用线性预测的方法得到较高的压缩比。空间冗余是用来表示图像数据中存在的某种空间上的规则性,如大面积的均匀背景中就有很大的空间冗余性。信息熵冗余是指在信源的符号表示过程中由于未遵循信息论意义下最优编码而造成的冗余性,这种冗余性可以通过熵编码来进行压缩,经常使用的如Huff-man编码。先验知识冗余是指数据的理解与先验知识有相当大的关系,如当收信方知道一个单词的前几个字母为administrato时,立刻就可以猜到最后一个字母为r,那么在这种情况下,最后一个字母就不带任何信息量了,这就是一种先验知识冗余。其它冗余是指那些主观无法感受到的信息等带来的冗余。通常数据压缩技术可分为无损压缩(又叫冗余压缩)和有损压缩(又叫熵压缩)两大类。无损压缩就是把数据中的冗余去掉或减少,但这些冗余量是可以重新插入到数据中的,因而不会产生失真。该方法一般用于文本数据的压缩,它可以保证完全地恢复原始数据;其缺点是压缩比小(其压缩比一般为2:1至5:1)。有损压缩是对熵进行压缩,因而存在一定程度的失真;它主要用于对声音、图像、动态视频等数据进行压缩,压缩比较高(其压缩比一般高达20:1以上。最新被称为“E—igen—ID”的压缩技术可将基因数据压缩1.5亿倍)。对于多媒体图像采用的有损压缩的标准有静态图像压缩标准(JPEG标准,即‘JointPhotographicExpertGroup’标准)和动态图像压缩标准(MPEG标准,即‘MovingPictureExpertGroup’标准)。JPEG利用了人眼的心理和生理特征及其局限性来对彩色的、单色的和多灰度连续色调的、静态图像的、数字图像的压缩,因此它非常适合不太复杂的以及一般来源于真实景物的图像。它定义了两种基本的压缩算法:一种是基于有失真的压缩算法,另一种是基于空间线性预测技术(DPCM)无失真的压缩算法。为了满足各种需要,它制定了四种工作模式:无失真压缩、基于DCT的顺序工作方式、累进工作方式和分层工作方式。MPEG用于活动影像的压缩。MPEG标准具体包三部分内容:(1)MPEG视频、(2)MPEG音频、(3)MP系统(视频和音频的同步)。MPEG视频是标准的核心分,它采用了帧内和帧间相结合的压缩方法,以离散余变换(DCT)和运动补偿两项技术为基础,在图像质量基不变的情况下,MPEG可把图像压缩至1/100或更MPEG音频压缩算法则是根据人耳屏蔽滤波功能。利用音响心理学的基本原理,即“某些频率的音响在重放其频率的音频时听不到”这样一个特性,将那些人耳完全不到或基本上听到的多余音频信号压缩掉,最后使音频号的压缩比达到8:1或更高,音质逼真,与CD唱片可媲美。按照MPEG标准,MPEG数据流包含系统层和压层数据。系统层含有定时信号,图像和声音的同步、多分配等信息。压缩层包含经压缩后的实际的图像和声数据,该数据流将视频、音频信号复合及同步后,其数据输率为1.5MB/s。其中压缩图像数据传输率为1.2M压缩声音传输率为0.2MB/s。MPEG标准的发展经历了MPEG—I,MPEG一2、MPEG一4、MPEG-7、MPEG一21等不同层次。在MPEG的不同标准中,每—个标准都是建立在前面的标准之上的,并与前面的标准向后的兼容。目前在图像压缩中,应用得较多的是MPEG一4标准,MPEG-是在MPEG-2基础上作了很大的扩充,主要目标是多媒体应用。在MPEG一2标准中,我们的观念是单幅图像,而且包含了一幅图像的全部元素。在MPEG一4标准下,我们的观念变为多图像元素,其中的每—个多图像元素都是独立编码处理的。该标准包含了为接收器所用的指令,告诉接收器如何构成最终的图像。上图既表示了MPEG一4解码器的概念,又比较清楚地描绘了每个部件的用途。这里不是使用单一的视频或音频解码器,而是使用若干个解码器,其中的每一个解码器只接收某个特定的图像(或声音)元素,并完成解码操作。每个解码缓冲器只接收属于它自己的灵敏据流,并转送给解码器。复合存储器完成图像元素的存储,并将它们送到显示器的恰当位置。音频的情况也是这样,但显然不同点是要求同时提供所有的元素。数据上的时间标记保证这些元素在时间上能正确同步。MPEG一4标准对自然元素(实物图像)和合成元素进行区分和规定,计算机生成的动画是合成元素的一个例子。比如,一幅完整的图像可以包含一幅实际的背景图,并在前面有一幅动画或者有另外一幅自然图像。这样的每一幅图像都可以作最佳压缩,并互相独立地传送到接收器,接收器知道如何把这些元素组合在一起。在MPEG一2标准中,图像被看作一个整体来压缩;而在MPEG一4标准下,对图像中的每一个元素进行优化压缩。静止的背景不必压缩到以后的I帧之中去,否则会使带宽的使用变得很紧张。而如果这个背景图像静止10秒钟,就只要传送一次(假设我们不必担心有人在该时间内切人此频道),需要不断传送的仅是前台的比较小的图像元素。对有些节目类型,这样做会节省大量的带宽。MPEG一4标准对音频的处理也是相同的。例如,有一位独唱演员,伴随有电子合成器,在MPEG一2标准下,我们必须先把独唱和合成器作混合,然后再对合成的音频信号进行压缩与传送。在MPEG一4标准下,我们可以对独唱作单独压缩,然后再传送乐器数字接口的声轨信号,就可以使接收器重建伴音。当然,接收器必须能支持MIDI放音。与传送合成的信号相比,分别传送独唱信号和MIDI数据要节省大量的带宽。其它的节目类型同样可以作类似的规定。MPEG一7标准又叫多媒体内容描述接口标准。图像可以用色彩、纹理、形状、运动等参数来描述,MPEG一7标准是依靠众多的参数对图像与声音实现分类,并对它们的数据库实现查询。二、多媒体数据压缩技术的实现方法目前多媒体压缩技术的实现方法已有近百种,其中基于信源理论编码的压缩方法、离散余弦变换(DCT)和小波分解技术压缩算法的研究更具有代表性。小波技术突破了传统压缩方法的局限性,引入了局部和全局相关去冗余的新思想,具有较大的潜力,因此近几年来吸引了众多的研究者。在小波压缩技术中,一幅图像可以被分解为若干个叫做“小片”的区域;在每个小片中,图像经滤波后被分解成若干个低频与高频分量。低频分量可以用不同的分辨率进行量化,即图像的低频部分需要许多的二进制位,以改善图像重构时的信噪比。低频元素采用精细量化,高频分量可以量化得比较粗糙,因为你不太容易看到变化区域的噪声与误差。此外,碎片技术已经作为一种压缩方法被提出,这种技术依靠实际图形的重复特性。用碎片技术压缩图像时需要占用大量的计算机资源,但可以获得很好的结果。借助于从DNA序列研究中发展出来的模式识别技术,能减少通过WAN链路的流量,最多时的压缩比率能达到90%,从而为网络传送图像和声音提供更大的压缩比,减轻风络负荷,更好地实现网络信息传播。三、压缩原理由于图像数据之间存在着一定的冗余,所以使得数据的压缩成为可能。信息论的创始人Shannon提出把数据看作是信息和冗余度(redundancy)的组合。所谓冗余度,是由于一副图像的各像素之间存在着很大的相关性,可利用一些编码的方法删去它们,从而达到减少冗余压缩数据的目的。为了去掉数据中的冗余,常常要考虑信号源的统计特性,或建立信号源的统计模型。图像的冗余包括以下几种:(1) 空间冗余:像素点之间的相关性。(2) 时间冗余:活动图像的两个连续帧之间的冗余。(3) 信息熵冗余:单位信息量大于其熵。(4) 结构冗余:图像的区域上存在非常强的纹理结构。(5) 知识冗余:有固定的结构,如人的头像。(6) 视觉冗余:某些图像的失真是人眼不易觉察的。对数字图像进行压缩通常利用两个基本原理:(1) 数字图像的相关性。在图像的同一行相邻像素之间、活动图像的相邻帧的对应像素之间往往存在很强的相关性,去除或减少这些相关性,也就去除或减少图像信息中的冗余度,即实现了对数字图像的压缩。(2) 人的视觉心理特征。人的视觉对于边缘急剧变化不敏感(视觉掩盖效应),对颜色分辨力弱,利用这些特征可以在相应部分适当降低编码精度,而使人从视觉上并不感觉到图像质量的下降,从而达到对数字图像压缩的目的。编码压缩方法有许多种,从不同的角度出发有不同的分类方法,比如从信息论角度出发可分 为两大类:(1)冗余度压缩方法,也称无损压缩,信息保持编码或熵编码。具体讲就是解码图像和压缩 编码前的图像严格相同,没有失真,从数学上讲是一种可逆运算。(2)信息量压缩方法,也称有损压缩,失真度编码或熵压缩编码。也就是讲解码图像和原始图像是有差别的,允许有一定的失真。应用在多媒体中的图像压缩编码方法,从压缩编码算法原理上可以分类为:(1)无损压缩编码种类 •哈夫曼编码 •算术编码 •行程编码 •Lempel zev编码(2)有损压缩编码种类 •预测编码:DPCM,运动补偿 •频率域方法:正文变换编码(如DCT),子带编码 •空间域方法:统计分块编码 •模型方法:分形编码,模型基编码 •基于重要性:滤波,子采样,比特分配,矢量量化(3)混合编码 •JBIG,H261,JPEG,MPEG等技术标准衡量一个压缩编码方法优劣的重要指标(1)压缩比要高,有几倍、几十倍,也有几百乃至几千倍;(2)压缩与解压缩要快,算法要简单,硬件实现容易;(3)解压缩的图像质量要好。四、JPEG图像压缩算法1..JPEG压缩过程JPEG压缩分四个步骤实现:1.颜色模式转换及采样;2.DCT变换;3.量化;4.编码。2.1.颜色模式转换及采样RGB色彩系统是我们最常用的表示颜色的方式。JPEG采用的是YCbCr色彩系统。想要用JPEG基本压缩法处理全彩色图像,得先把RGB颜色模式图像数据,转换为YCbCr颜色模式的数据。Y代表亮度,Cb和Cr则代表色度、饱和度。通过下列计算公式可完成数据转换。Y=0.2990R+0.5870G+0.1140BCb=-0.1687R-0.3313G+0.5000B+128Cr=0.5000R-0.4187G-0.0813B+128人类的眼晴对低频的数据比对高频的数据具有更高的敏感度,事实上,人类的眼睛对亮度的改变也比对色彩的改变要敏感得多,也就是说Y成份的数据是比较重要的。既然Cb成份和Cr成份的数据比较相对不重要,就可以只取部分数据来处理。以增加压缩的比例。JPEG通常有两种采样方式:YUV411和YUV422,它们所代表的意义是Y、Cb和Cr三个成份的资料取样比例。2.2.DCT变换DCT变换的全称是离散余弦变换(Discrete Cosine Transform),是指将一组光强数据转换成频率数据,以便得知强度变化的情形。若对高频的数据做些修饰,再转回原来形式的数据时,显然与原始数据有些差异,但是人类的眼睛却是不容易辨认出来。压缩时,将原始图像数据分成8*8数据单元矩阵,例如亮度值的第一个矩阵内容如下:JPEG将整个亮度矩阵与色度Cb矩阵,饱和度Cr矩阵,视为一个基本单元称作MCU。每个MCU所包含的矩阵数量不得超过10个。例如,行和列采样的比例皆为4:2:2,则每个MCU将包含四个亮度矩阵,一个色度矩阵及一个饱和度矩阵。当图像数据分成一个8*8矩阵后,还必须将每个数值减去128,然后一一代入DCT变换公式中,即可达到DCT变换的目的。图像数据值必须减去128,是因为DCT转换公式所接受的数字范围是在-128到+127之间。DCT变换公式:x,y代表图像数据矩阵内某个数值的坐标位置f(x,y)代表图像数据矩阵内的数个数值u,v代表DCT变换后矩阵内某个数值的坐标位置F(u,v)代表DCT变换后矩阵内的某个数值u=0 且 v=0 c(u)c(v)=1/1.414u>0 或 v>0 c(u)c(v)=1经过DCT变换后的矩阵数据自然数为频率系数,这些系数以F(0,0)的值最大,称为DC,其余的63个频率系数则多半是一些接近于0的正负浮点数,一概称之为AC。3.3、量化图像数据转换为频率系数后,还得接受一项量化程序,才能进入编码阶段。量化阶段需要两个8*8矩阵数据,一个是专门处理亮度的频率系数,另一个则是针对色度的频率系数,将频率系数除以量化矩阵的值,取得与商数最近的整数,即完成量化。当频率系数经过量化后,将频率系数由浮点数转变为整数,这才便于执行最后的编码。不过,经过量化阶段后,所有数据只保留整数近似值,也就再度损失了一些数据内容,JPEG提供的量化表如下:2.4、编码Huffman编码无专利权问题,成为JPEG最常用的编码方式,Huffman编码通常是以完整的MCU来进行的。编码时,每个矩阵数据的DC值与63个AC值,将分别使用不同的Huffman编码表,而亮度与色度也需要不同的Huffman编码表,所以一共需要四个编码表,才能顺利地完成JPEG编码工作。DC编码DC是彩采用差值脉冲编码调制的差值编码法,也就是在同一个图像分量中取得每个DC值与前一个DC值的差值来编码。DC采用差值脉冲编码的主要原因是由于在连续色调的图像中,其差值多半比原值小,对差值进行编码所需的位数,会比对原值进行编码所需的位数少许多。例如差值为5,它的二进制表示值为101,如果差值为-5,则先改为正整数5,再将其二进制转换成1的补码即可。所谓1的补码,就是将每个Bit若值为0,便改成1;Bit为1,则变成0。差值5应保留的位数为3,下表即列出差值所应保留的Bit数与差值内容的对照。在差值前端另外加入一些差值的霍夫曼码值,例如亮度差值为5(101)的位数为3,则霍夫曼码值应该是100,两者连接在一起即为100101。下列两份表格分别是亮度和色度DC差值的编码表。根据这两份表格内容,即可为DC差值加上霍夫曼码值,完成DC的编码工作。AC编码AC编码方式与DC略有不同,在AC编码之前,首先得将63个AC值按Zig-zag排序,即按照下图箭头所指示的顺序串联起来。63个AC值排列好的,将AC系数转换成中间符号,中间符号表示为RRRR/SSSS,RRRR是指第非零的AC之前,其值为0的AC个数,SSSS是指AC值所需的位数,AC系数的范围与SSSS的对应关系与DC差值Bits数与差值内容对照表相似。如果连续为0的AC个数大于15,则用15/0来表示连续的16个0,15/0称为ZRL(Zero Rum Length),而(0/0)称为EOB(Enel of Block)用来表示其后所剩余的AC系数皆等于0,以中间符号值作为索引值,从相应的AC编码表中找出适当的霍夫曼码值,再与AC值相连即可。例如某一组亮度的中间符为5/3,AC值为4,首先以5/3为索引值,从亮度AC的Huffman编码表中找到1111111110011110霍夫曼码值,于是加上原来100(4)即是用来取[5,4]的Huffman编码1111111110011110100,[5,4]表示AC值为4的前面有5个零。由于亮度AC,色度AC霍夫曼编码表比较长,在此省略去,有兴趣者可参阅相关书籍。实现上述四个步骤,即完成一幅图像的JPEG压缩。

毕业论文压缩算法

大学毕业时每个人都会被要求写一篇毕业论文,而论文的重复率往往会难倒很多人。怎么降低论文重复率就显着尤为重要了。

相信很多人都见到过抱着一本教材不断敲击电脑键盘编写论文的同学,或者你本身就是这其中的一员。这种方法可以说是非常有效的方法,可以说是非常的有效,能明显降低论文的重复率。

当时我班就有一个同学采用了这种方法,查重时重复率明显很低。但是这种方式也是有局限的,很多论文题目与教材内容不是很符合的情况就不适合用这种方式。

还有一种方法就是同义词替换,将一句话翻译成意思相近的语句。大多数人都是用这种方式的,虽然很费事,但能明显降低查重时的重复率。

总之写论文是比较费时又费力的事情,但还是需要尽心尽力地完成。

huffman编码上手最快,最容易理解,但是范围较窄,可供参考的资料比较少.课题4的话题很宽泛,网上各种资料也很多,综合起来参考一下就几万字了.看你是想怎么写了, 认真自己写的话, 课题2容易些. 如果是准备找资料来参考的话, 课题4是比较容易的.网络安全不熟悉

要是需要原创论文的话还是上原创论文网吧!

教你一招,如何搞定毕业论文查重

今天我们来讨论一下如何搞定论文查重,也就是如何能让我们的毕业论文有一个比较低的查重比例,以便顺利通过论文检测!

在论文改查重这方面,对于没有经验的小白来说,降低论文查重比例是很难的。现在我们就来讨论一下降低毕业论文查重比例的方法。

一般一片毕业论文要求的字数是三万字,当然也有要求更多的或者更少的。在这三万字里,我们会引用很多我们写论文之前查阅的中外文献的资料,这样写下来,如果我们用笔迹论文查重工具一检测,就会发现有很高的查重比例。这个时候我们就可以把我们引用的观点,自己加工改变一下,尽量不要引用原话。用自己的观点和语言加以论述,这样就可以降低论文查重的比例了。还有就是我们尽量改变我们所引用的句子的语序,调整句子语序的位置,这样也可以降低论文的查重比例。

另外就算是我们自己写的,在做查重检测的时候,有可能也会有重复,这个时候,就需要我们在写论文的时候多加注意了。

当我们用笔迹论文查重【www.biji13.com】做完查重的检测之后,就把重复比较多的地方用红线勾画出来,然后再对这些地方着重修改。修改完之后我们再去笔迹论文查重检测一下,如果还比较高,就继续修改,一直修改到一个比较理想的查重比例。

还有一点,就是我们要端正态度,学校要求什么样的论文格式,我们用什么样的格式。如果这一点都做不到,就不会给导师留下一个好的印象!

图像去雾算法的研究与实现论文

这是何凯明在博士期间发表的一篇经典的图像去雾算法的文章。这篇文章中他通过观察提出了一种暗通道算法(Dark Channel Prior),简单来说就在一张正常图像中,除了天空区域,在图像的每个小块(patch)中一定有一些像素点至少有一个通道的值是非常小的,基于这个先验条件,何凯明团队使用了一种简单有效的办法来进行图像去雾。 下面的公式为经典的去雾模型,其中 指获取得到的图片亮度, 是去雾后恢复的图像, 指透射率, 是指大气的光成分(即雾成分)。这个公式还是很容易直观的理解,因为透射率可以在一定程度上代表损失率。 为大气散射系数, 为景深。由于在统计意义上,一个patch中总有几个像素的至少一个通道是很暗的,此时的 趋近于0,于是在一个patch中有如下公式成立: 这样我们就可以算出t的近似值了。同时,当patch为天空时,大气光 和真实图像光 十分相近,于是t的近似值趋向于0。 获得了反射率t以后,下一步便是对图像进行soft matting获得轮廓特征,这样可以将透射率t精细化。 这样我们就获得了精细化后的透射率t值。对于有雾区域,我们可以根据下面的公式进行去雾,其中我们对t设定了一个最低的阈值。 最终的公式如下:在这篇文章中,作者提出了用神经网络方法对反射率t进行训练并预测,网络结构如下: 首先用CNN接maxout抽取图像特征,再接几个平行的multi-scale mapping,然后进行池化,经过BReLU激活函数得到最终的反射率t BReLU如图b所示,因为rgb具有上界和下界,如果不进行截断可能会越界。

本文介绍一篇基于去雾算法的低亮度图片增强算法(FAST EFFICIENT ALGORITHM FOR ENHANCEMENT OF LOW LIGHTING VIDEO)。 该论文的作者观察到反转的低亮度图片(inverted image)具有与有雾图片类似的性质,比如: 以上两条性质是有雾图片特有的性质。 因此,我们可以运用成熟的去雾算法来进行低亮度图片的增强。 具体地做法如下: 其中, 是大气的亮度, 是相机获取到的图像亮度, 是原始图像或场景的亮度。 基于[1] , 我们可以得到:其中 是大气的散射系数, 是像素 的景深。其中 在算法中设置为0.8, 是中心位于 的一个小区域,在算法中设置为9。 为了获取大气的亮度,作者选取了图像中RGB通道中最小值里最大的100个像素,然后选取这些像素中RGB值相加最大的像素值最为 的估计值。这里需要注意,我们需要增强的区域是位于前景的物体,例如房子、车子等物体,同时需要避免过度增强背景区域,像天空等。 所以,这里我们需要根据图片内容的不同,自适应地调节 ,从而重点增强前景的内容。因此,这里引入了一个中间变量:然后,需要恢复的图片 可由下式计算得到:[]论文还介绍了如何加速视频的方法,由于不是该博客的研究重点,故而忽略,有兴趣的朋友可以查看原文。

毕业论文图像分割算法研究与实现

深度嵌入聚类算法研究 基于机器视觉的行人重识别算法的分析与实现 基于动力学模型的属性网络重叠社团发现 基于Spring-Boot框架的一体化运维监控应用的研究与实现 Android系统中基于手写密码与笔迹信息的综合认证技术研究 公交线路准点预测方法研究 基于深度学习的医学图像分割算法研究 基于CNN的高速公路流量预测 服务器安全防护与管理综合平台实现 JavaScript全栈视频播放系统设计与实现快速行人检测算法的研发 基于数据挖掘的药物分子筛选方法研究 基于消息队列的自定义审批流程管理系统设计与实现 基于CRF的初等数学命名实体识别 基于多尺度 CNN的图片语义分割研究 基于图像分割技术的连通区域提取算法的研究 基于背景因素推理的目标关系识别算法研究与实现 基于智能移动设备的非接触式人机交互系统设计与实现 分布式数据库物理查询计划调度优化算法研究 基于遮挡的人脸特征提取算法研究与实现 表情识别应用系统的设计与实现 基于CloudSim的云计算与大数据系统的可靠性仿真研究 多源数据库数据采集系统设计与实现 基于Android和WiFi的无线自组织网络P2P通信系统设计与实现 矩阵分解中的流形结构学习研究 基于无监督的OSN恶意账号检测 深度学习在基于视频的人体动作识别上的应用 用户评分的隐式成分信息的研究 线性规划求解算法的实现与应用 基于freeRTOS的嵌入式操作系统分析与实验设计 基于深度强化学习的信息检索的研究与实现 CPM语言编译链接系统的实现 基于SSD的Pascal Voc数据集目标检测设计与实现 复杂网络关键节点识别算法比较研究 基于对抗网络和知识表示的可视问答 基于FPGA实现存储器及虚拟存储器管理 匿名可信身份共享区块链的设计与实现 基于图像的场景分类算法的设计与实现 恶意APK静态检测技术研究与实现 车辆再识别技术研究

图像分割是图像处理与计算机视觉的基本问题之一,是图像处理图像分析的关键步骤。我整理了图像分割技术论文,欢迎阅读!

图像分割技术研究

摘要:图像分割是图像处理与计算机视觉的基本问题之一,是图像处理图像分析的关键步骤。本文介绍了基于阈值的分割方法和图像分割的图像分割性能的评价、应用现状;最后总结出图像分割的发展趋势。

关键词:图像分割、阈值、边缘检测、区域分割

中图分类号: TN957.52 文献标识码: A

1引言

随着图像分割技术研究的深入,其应用日趋广泛。凡属需要对图像目标进行提取、测量的工作都离不开图像分割。图像分割是图像处理、模式识别和人工智能等多个领域中一个十分重要且又十分困难的问题,是计算机视觉技术中首要的、重要的关键步骤。图像分割结果的好坏直接影响对计算机视觉中的图像理解。现有的方法多是为特定应用设计的,有很大的针对性和局限性,到目前为止还不存在一个通用的方法,也不存在一个判断分割是否成功的客观标准。因此,对图像分割的研究目前还缺乏一个统一的理论体系,使得图像分割的研究仍然是一个极富有挑战性的课题。

2图像分割方法

图像分割(Image Segmentation),简单地说就是将一幅数字图像分割成不同的区域,在同一区域内具有在一定的准则下可认为是相同的性质,如灰度、颜色、纹理等。而任何相邻区域之间其性质具有明显的区别。

2.1基于灰度特征的阈值分割方法

阈值分割技术是经典的、流行的图象分割方法之一,它是用一个或几个阈值将图像的灰度级分为几个部分,认为属于同一个部分的像素是同一个物体。

这类方法主要包括以下几种:

(1)单阈值法,用一个全局阈值区分背景和目标。当一幅图像的直方图具有明显的双峰时,选择两峰之间的谷底作为阈值。

(2)双阈值法,用两个阈值区分背景和目标。通过设置两个阈值,以防单阈值设置阈值过高或过低,把目标像素误归为背景像素,或把背景像素误归为目标像素。

(3)多阈值法,当存在照明不均,突发噪声等因素或背景灰度变化较大时,整幅图像不存在合适的单一阈值,单一阈值不能兼顾图像不同区域的具体情况,这时可将图像分块处理,对每一块设一个阈值。

2.2 边缘检测分割法

基于边缘检测技术可以按照处理的顺序分为并行边缘检测和串行边缘检测两大类。常见的边缘检测方法有:差分法、模板匹配法及统计方法等。由于边缘灰度变化规律一般体现为阶梯状或者脉冲状。边缘与差分值的关系可以归纳为两种情况,其一是边缘发生在差分最大值或者最小值处;其二是边缘发生在过零处。

2.3基于区域的分割方法

基于区域的分割方法利用的是图像的空间性质。该方法认为分割出来的某一区域具有相似的性质。常用的方法有区域生长法和区域分裂合并法。该类方法对含有复杂场景或自然景物等先验知识不足的图像进行分割,效果较好。

区域生长方法是把一幅图像分成许多小区域开始的,这些初始的小区域可能是小的邻域甚至是单个像素,在每个区域中,通过计算能反映一个物体内像素一致性的特征,作为区域合并的判断标准。区域合并的第一步是赋给每个区域一组参数,即特征。接下来对相邻区域的所有边界进行考查,如果给定边界两侧的特征值差异明显,那么这个边界很强,反之则弱。强边界允许继续存在,而弱边界被消除,相邻区域被合并。没有可以消除的弱边界时,区域合并过程结束,图像分割也就完成。

2.4结合特定工具的图像分割技术

20世纪80年代末以来,随着一些特殊理论的出现及其成熟,如数学形态学、分形理论、模糊数学、小波分析、模式识别、遗传算法等,大量学者致力于将新的概念、新的方法用于图像分割,有效地改善了分割效果。产生了不少新的分割算法。下面对这些算法做一些简单的概括。

2.4.1基于数学形态学的分割算法

分水岭算法是一种经典的借鉴了数学形态理论的分割方法。该方法中,将一幅图像比为一个具有不同高度值的地形,高灰度值处被认为是山脊,底灰度值处被认为是山谷,将一滴水从任一点流下,它会朝地势底的地方流动,最终聚于某一局部最底点,最后所有的水滴会分聚在不同的吸引盆地,由此,相应的图像就被分割成若干部分。分水岭算法具有运算简单、性能优良,能够较好提取运动对象轮廓、准确得到运动物体边缘的优点。但分割时需要梯度信息,对噪声较敏感。

2.4.2基于模糊数学的分割算法

目前,模糊技术在图像分割中应用的一个显著特点就是它能和现有的许多图像分割方法相结合,形成一系列的集成模糊分割技术,例如模糊聚类、模糊阈值、模糊边缘检测技术等。

这类方法主要有广义模糊算子与模糊阈值法两种分割算法。

(1)广义模糊算子在广义模糊集合的范围内对图像处理,使真正的边缘处于较低灰度级,但还有一些不是边缘的像素点的灰度也在较低灰度级中,虽然算法的计算简明,且边缘细腻,但得到的边缘图会出现断线问题。

(2)模糊阈值法引入灰度图像的模糊数学描述,通过计算图像的模糊熵来选取图像的分割阈值,后用阈值法处理图像得到边界。

2.4.3基于遗传算法的分割方法

此算法是受生物进化论思想提出的一种优化问题的解决方法,它使用参数编码集而不是参数本身,通过模拟进化,以适者生存的策略搜索函数的解空间,它是在点群中而不是在单点进行寻优。遗传算法在求解过程中使用随机转换规则而不是确定性规则来工作,它唯一需要的信息是适应值,通过对群体进行简单的复制、杂交、变异作用完成搜索过程。由于此法能进行能量函数全局最小优化搜索,且可以降低搜索空间维数,降低算法对模板初始位置的敏感,计算时间也大为减少。其缺点是容易收敛于局部最优。

2.4.4基于神经网络分割算法

人工神经网络具有自组织、自学习、自适应的性能和非常强的非线性映射能力,适合解决背景知识不清楚、推理规则不明确和比较复杂的分类问题,因而也适合解决比较复杂的图像分割问题。原则上讲,大部分分割方法都可用 ANN(attificial neural network)实现。ANN 用于分割的研究起步较晚,只有多层前馈NN,多层误差反传(BP)NN,自组织NN,Hopfield NN以及满足约束的NN(CSNN-Const raint Satisfaction Neurat Network)等得到了应用。使用一个多层前向神经网络用于图象分割,输入层神经元的数目取决于输入特征数,而输出层神经元的数目等同于分类的数目。

2.5图像分割中的其他方法

前面介绍了4大类图像分割较常用的方法,有关图像分割方法和文献很多,新方法不断产生,这些方法有的只对特定的情形有效,有的综合了几种方法,放在一起统称为第5类。

(1)标号法(labeling)是一种基于统计学的方法,这种方法将图像欲分割成的几个区域各以一个不同的标号来表示,用一定的方式对图像中的每一个像素赋以标号,标号相同的像素就合并成该标号所代表的区域。

(2)基于Snak模型的分割方法,基于Snake模型的分割是通过对能量函数的动态优化来逼近图像目标的真实轮廓的

(3)纹理分割,由于新的数学工具的引入,纹理分割技术取得了一些进展,张蓬等人将小波分析应用于纹理基元提取。

(4)基于知识的图像分割方法,直接建立在先验知识的基础上,使分割更符合实际图像的特点。该方法的难度在于知识的正确合理的表示与利用。

3图像分割性能的评价

图像分割评价主要有两个方面的内容:一是研究各分割算法在不同情况下的表现,掌握如何选择和控制其参数设置,以适应不同需要。二是分析多个分割算法在分割同一图像时的性能,比较优劣,以便在实际应用中选取合适的算法。分割评价方法分为分析法和实验法两大类。分析法是直接分析分割算法本身的原理及性能,而实验法是通过对测试图像的分割结果来评价算法的。两种方法各有优劣,由于缺乏可靠理论依据,并非所有分割算法都能够通过分析法分析其性能。每种评价方法都是出于某种考虑而提出来的,不同的评价方法只能反映分割算法性能的某一性能。另一方面,每一种分割算法的性能是由多种因素决定的,因此,有可能需要多种准则来综合评价。

4图像分割技术的发展趋势

随着神经网络、遗传算法、统计学理论、小波理论以及分形理论等在图像分割中的广泛应用,图像分割技术呈现出以下的发展趋势:(1)多种特征的融合。(2)多种分割方法的结合。(3)新理论与新方法。

参考文献

[1] [美]RC冈萨雷斯.数字图像处理(第二版)[M].阮秋琦,等译.北京:电子工业出版社,2003

[2] 章毓晋.图像分割[M].北京:科学出版社,2001.

[3] 李弼程,彭天强,彭波等.智能图像处理技术[M].北京:电子工业出版社,2004.

[4] 杨晖,曲秀杰.图像分割方法综述[J].电脑开发与应用。2005,18(3):21-23.

点击下页还有更多>>>图像分割技术论文

相关百科

热门百科

首页
发表服务