首页

> 学术论文知识库

首页 学术论文知识库 问题

数据挖掘论文查重率要多少

发布时间:

数据挖掘论文查重率要多少

1、知网论文查重系统:知网查重系统应当是不少人都有所了解的一个查重网站,它具备的优势也十分突出,如数据库庞大、文章、资料更新及时,可以为使用者提供十分可靠的查重结果;知网查重系统还具备了批量上传、下载测试结果等功能,操作起来也十分的方便快捷,便于保障使用者的查重效率,节省查重时间。2、PaperPass检测系统: PaperPass采用 了自主研发的动态指纹越级扫描检测技术,具备查重速度快、精度高的优点,高度的准确率可以为使用者提供精确的查重报告,有利于使用者及时的对论文进行修改、调整。3、万方论文查重系统:万方查重系统采用的检测技术十分先进科学,能够为使用者提供多版本、多维度的论文查重报告;万方查重系统还可同时为科研管理、教育教学、人事管理等多个领域的学术机构提供学术成果相似性检测服务。4、维普论文查重系统:该论文查重系统采用了国际领先的海量论文动态语义跨域识别加指纹比对技术,能够快捷准确的检测论文是否存在抄袭问题;中文期刊论文库、硕博学位论文库、高校特色论文库、互联网数据资源等多个数据库的存在,也使得维普论文查重系统能够高效的比对文本数据。一、论文查重标准是什么?我国大部分高校要求本科论文重复率不高于30%。当然,学历越高,对论文的要求就越严格。对于大学硕士生和博士生教育来说,他们对论文的查重要求一般不高于20%和10%。然而,不同的大学对查重率有不同的要求。例如,一些严格的学校要求本科生的论文不超过20%。除了学生论文外,期刊论文检查权重率的要求也与期刊的等级有关。核心期刊论文查重率要求更高,不能超过15%,高级期刊论文查重率要求小于20%,普通期刊论文查重率小于30%才能发表。二、论文查重到底怎么查的?论文查重是借助论文查重系统进行的,论文作者只需要把论文上传到查重系统,系统会根据论文目录进行分段查重。查重系统会根据连续出现13个字符的重复来计算论文的整体查重率。由于不同系统的数据库包含不同的文献和算法,查重结果会有所不同。在选择论文查重系统是,尽量选择跟大学或者大学要求一致的查重系统,或者企业选择一个安全、可靠、准确的第三方查重系统设计进行管理自查。

很多大学毕业生写完论文以后心里没谱,都想对自己的论文进行提前查重,值得注意的是,我们在论文查重之前,一定要对自己学校对毕业论文重复率要求有一定的了解。每个学校对论文的重复率要求都有一定的差异。那么毕业论文重复率要求是多少?

大部分学校规定论文重复率超过30%会认为不合格,反之则会被认为合格。还有少部分学校要求可能会更严格,重复率要求在20%以下。

如果我们的论文提前检测的时候,查重率达到了学校要求的标准,我们就可以把毕业论文提交给学校了。如果重复率超过了学校要求的标准,我们就需要对自己的论文进行修改。修改以后论文重复率低于学校要求的标准我们就可以把论文提交给学校了。

毕业论文重复率要求标准只是学校监督我们论文的一种手段,其实论文查重系统发展到今天,还是有很多的弊端,可以通过一些技巧和方法来规避论文查重系统的查重。投机取巧的后果会造成我们论文的质量偏低。

写作论文需要我们自觉写作原创。这样既可以顺利通过学校的检测,又是给自己大学生活的一个交代。

在撰写论文之前,我们必须清楚地了解论文查重率等要求。作为一篇重大论文,每个毕业生都有很大的压力,但只有达到合格的查重率才能顺利毕业。但是,不同类型的论文都有自己的论文查重率要求,论文查重一般不能超过百分之多少?paperfree小编给大家讲解。 论文查重的一般控制范围与论文类型有关,但最宽松的论文查重率上限为30%,最低查重率为5%。当然,无论什么类型的论文查重率越低越好。接下来,我们来介绍一下论文查重一般不能超过百分之多少。 本科论文的查重率一般为20%-30%。如果高于30%,有机会在7天内降重。只有达到合格的查重率,才能申请答辩。如果查重率为50%,将被学校查重组判处抄袭,取消答辩资格。 硕士论文的查重率一般为10%-15%,15%≤ 重复率 ≤ 30%的,在导师办公室填写硕士论文查重申请表,申请修改不超过两天,考试通过后参加答辩。 博士论文的查重率在5%-10%之间。如果查重率超过20%,需要推迟半年到一年的降重申请,达到合格的查重率后才能申请答辩。

以papertime小编的角度来看:各学校对本科毕业论文重复率的要求各不相同,那么查重多少算正常?1.一般学校要求不超过30%。如果是知名重点本科毕业论文,要求会更严格,重复率不能超过20%。同时学历越高,要求越严格。2.本科论文的查重率在20%~30%之间,而硕士论文的查重率在10%以下。博士论文的要求不到5%。假如你的毕业论文要发表,那么在某些期刊上,要求就会更严格。3.对于普通本科院校来说,如果你的论文重复率低于15%,你可以申请毕业优秀论文的选拔。

生信数据挖掘文章要查重吗

我看到:通知:全国部分论文取消、条件放宽。查阅各省最新职称政策可搜:郑密路18号全国职称论文办(原名)、高级职称论文郑州郑密路20号全国办、高级经济师论文郑州郑密路20号全国办、高级经济师论文选题郑州郑密路20号全国办、高级经济师论文范文郑州郑密路20号全国办、高级经济师论文辅导郑州郑密路20号全国办、高级经济师报考条件郑州郑密路20号全国办、高级经济师评审条件郑州郑密路20号全国办、高级经济师考试科目郑州郑密路20号全国办、高级职称(高级经济师、农经师、会计师、审计师、统计师、政工师、工程师、人力资源管理师、教师)论文(论文选题、论文范文、论文辅导、报考条件、评审条件、考试科目)郑州郑密路20号全国办、中国职称大学郑州郑密路20号全国办等。即 搜:高级经济师论文郑州郑密路20号全国办、高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)论文郑州郑密路20号全国办。 搜:高级经济师评审条件郑州郑密路20号全国办、高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)评审条件郑州郑密路20号全国办。 搜:高级经济师报考条件郑州郑密路20号全国办、高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)报考条件郑州郑密路20号全国办。 搜:高级经济师考试科目郑州郑密路20号全国办、高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)考试科目郑州郑密路20号全国办。 搜:高级经济师论文选题郑州郑密路20号全国办、高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)论文选题郑州郑密路20号全国办。 搜:高级经济师论文范文郑州郑密路20号全国办、高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)论文范文郑州郑密路20号全国办。 搜:高级经济师论文辅导郑州郑密路20号全国办、高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)论文辅导郑州郑密路20号全国办。 ......在百度第11-19页,360第15-27页,搜狗第17-27页。 详搜:中国职称大学郑州郑密路20号全国办、郑州论文大学郑密路20号全国办、郑州职称论文大学郑密路20号全国办、郑州高级职称论文大学郑密路20号全国办、河南职称论文大学郑密路20号全国办、河南高级经济师学院郑州郑密路20号全国办、河南高级会计师(农经师、审计师、统计师、政工师、工程师、教师、人力资源管理师等)学院郑州郑密路20号全国办。

发表的期刊小论文都需要论文查重的,一般评审机构都是用的知网期刊检测系统amlc或者smlc。知网小论文查重可以到杂志社或者图书馆查重,也可以到一些知网自助查重网站:PaperEasy、学术不端网、蚂蚁查重网等。全程自助检测!

论文要查重原因如下:

一、判断论文内容是否有抄袭

论文查重检测是每位毕业生都无法逃避的,学生在毕业前是会到论文查重软件进行毕业论文的重复率检测,而学校是会以查重软件检测出的结果,来判断学生是否可以正常毕业,判断学生的毕业论文是否有抄袭,是否存在学术不端的行为。

二、考核业务水平

现在除了高校毕业生的毕业论文要进行查重检测,科研机构技术人员在杂志或是媒体上发表的文章也是要进行查重。这是为了保证论文是作者自己原创撰写出的,不是东拼西凑出来的。这也是考核一个人的业务水平的方法,所以对于高校毕业生来说,是一定要重视论文查重检测的,是要了解论文查重检测的目的和范围、标准的。

其实就是检测论文内容是否和其他著作有重复内容。总之现在有专门的论文查重软件,只要把论文内容上传到查重软件中,就可以知道论文是否是原创的,和其他文章内容是有多少重复的。一定的重复内容是可以的,但有个要求标准的。

每个学校对论文重复率要求标准是不同的,一般情况下高校学生论文重复率是规定不可以超过百分之三十的,个别的专业也许是会宽松一些,也许要求标准是会高一些。

综述:需要查重,查出重复后会告知。

一般来说,同学们在进行投稿之后,杂志社会为对投稿的文章进行查重的检测。如果是达标了一般不会告诉其知网查重结果,而是直接通知文章被录用;反之,如果不达标,则会告知一个查重结果,但是并没有查重报告。

论文查重简介:

查重,全称为论文查重,是把自己写好的论文通过论文检测系统资源库的比对,得出与各大论文库的相似比。简而言之,就是检测抄袭率,看你论文的原创度,是不是抄袭的论文。

以上内容参考 百度百科-查重

数据挖掘论文

数据挖掘在软件工程技术中的应用毕业论文

【 摘要 】计算机技术在发展,软件也发展的越来越复杂,而系统开发工作也显得更加重要。信息技术的广泛应用会产生大量数据,通过对数据进行挖掘,分析其存在的规律,对实现数据资源的有效利用意义重大。本文就数据挖掘技术在软件工程中的应用作简要阐述。

【 关键词 】数据挖掘技术;软件工程中;应用软件技术

随着信息技术发展而快速发展,但是其可控性并不是特别强。软件在应用过程中会产生大量数据,数据作为一种宝贵的资源,有效的利用可以带来价值增值。作为软件开发行业,数据挖掘技术应用则实现了数据资源的有效利用,通过对其中规律进行研究,为软件工程提供相应指导,并且对于系统故障能够有效处理,成本评估的有效性也能够提升。

1数据挖掘技术应用存在的问题

信息数据自身存在的复杂性

软件工程所包含的数据可以分为两个类别,结构化与非结构化。在非结构化数据中软件代码发挥着重要作用。而对结构化数据产生影响的则是软件版本信息。结构与非结构化数据二者之间联系非常密切。实现数据有效利用就需要通过一定技术找出其中的规律。数据挖掘技术则刚好满足需求。利用该技术对结构与非结构化数据进行整合,提升其使用的有效性。

在评价标准方面缺乏一致性

数据挖掘技术在生活中的应用比较广泛,通过该技术应用能够更好的对实际情况进行评价,从而对结果进行优化。但是由于没有统一标准,导致了软件信息复杂。而在表述方式方面自身又存有差异性。信息获取者无法有效的对信息进行应用及对比。而信息缺乏统一标准的原因就在于评价方式不一致。

2数据挖掘技术在软件工程中的应用

数据挖掘执行记录

执行记录挖掘主要是对主程序的路径进行分析,从而发现程序代码存有的相关关系。其实质是通过对相关执行路径进行分析,并进行逆向建模,最终达到目的。作用在于验证,维护,了解程序。记录挖掘的过程通常是对被分析的系统进行初步插装,之后是记录过程,该过程在执行上一步程序后,对应用编程接口,系统,模块的状态变量记录,最后是对所得到的信息进行约简,过滤,聚类。最终得到的模型能够表达系统的特征。

漏洞检测

系统或是软件自身都会存在漏洞,漏洞自身具一定的隐蔽性,由于人的思维存在某些盲区,无法发现漏洞的存在,就需要借助于某些软件。检测漏洞的目的就在于找出软件中存在的漏洞及错误,并对其进行修复,从而保证软件质量与安全。将数据挖掘技术应用于软件检测,首先要确定测试项目,结合到用户需要,对测试内容进行规划,从而确定测试方法,并制定出具体方案。测试工作环节主要是对数据进行清理与转换,其基础在于漏洞数据收集,通过对收集与采集的信息进行清理,将与软件数据有关联同时存在缺陷的数据筛选出来,而将剩余无数据清理,对丢失项目采取相应措施补充,将其属性转换为数值表示。之后是选择适当的'模型进行训练与验证,该环节要结合到项目实际的需要选择挖掘方式,通过对不同数据结果进行分析与比较找到最适合的方式。之后则是重复应用上述方法,对软件存在的漏洞进行定位与检测。并将与之对应的数据收集于软件库,在对漏洞进行描述的基础上分类,最后将通过挖掘得到的知识应用到测试的项目中.

开源软件

对于开源软件的管理由于其自身的开放,动态与全局性,需要与传统管理软件进行区别对待,一般情况下,成熟的开源软件对于软件应用记录较为完整,参与的内容包括了错误报告,开发者活动。参与开发的工作人员会处在动态变化之中,存在动态变化的原因就在于软件的开放性。同时对于软件中动态性特征的挖掘,可达到对开源软件进行优质管理的目标。

版本控制信息

为了保证参与项目人员所共同编辑内容的统一性,就需要对系统应用进行控制。软件开发工程应用中,开发工作管理与保护都会通过版本控制系统来实施。并且其应用方式主要是对变更数据挖掘,找出不同模块及系统存在关系,并对程序中可能会存在的漏洞进行检测。此类技术的应用,使得系统后期维护成本被有效的降低,而对后期变更产生的漏洞也有一定的规避作用。

3数据挖掘在软件工程中的应用

关联法

该方法作用在于寻找数据中存在的相关联系与有趣关联。而体现的关联规则有两个明显的特征。①支持度;②信度。前者表示在某个事物集中,两个子集出现的概率是相同的。而后者则表明了某事物在事物集中出现的概率,而另一事物也会出现。

分类方法

该方法主要是应用于分类标号与离散值的操作。该方法的操作步骤是,首先要建立相应的模型,对数据进行描述,并利用模型对其进行分类。在分类方法选择方面,常用的有判定树法,贝叶斯法,支持项量机法等。判定树法应用的基础是贪心算法。

聚类方法

该方法常用的有划分方法,基于密度,模型,网格的方法与层次方法。聚类分析输入的是一组有序对,有序对中的数据分别表示了样本,相似度。其基本的应用理论是依据不同的对象数据予以应用。

4数据挖掘在软件工程中的应用

对克隆代码的数据挖掘

在软件工程中最为原始的是对克隆代码的检查测试。就其方式而言有文本对比为基础,标识符对比为基础。前者是利用系统中程序代码包含的语句进行判断。该方法在后期改进过程中主要是对字符串匹配效率进行提升。实际应用过程中是通过相关函数匹配对效率进行优化。

软件数据检索挖掘

该方法同样是软件工程中原始的挖掘需求之一。该方法在应用时主要有以下三个步骤。

①数据录入。其实质是对需要检索的信息录入,并结合到使用者需要在数据中查找使用者需要的数据。

②信息查找过程。确认了用户需要查找的信息后,系统将依据信息内容在数据库中进行查找,并分类罗列。

③信息数据导出与查看。用户可以依据自身需要将数据导出或者是在线查看。数据在导出时会形成相应的记录,客户再次进行查找时就会更加的方便与快捷。而将数据导出则需要利用到相关的软件。

应用于设计的三个阶段

软件工程有许多关于软件的资料,资料通常是存放于代码库中。数据运用可以提升工作效率。软件工程每一次循环都会产生大量的数据。基于软件工程生命周期可以将其分为分析设计,迭代的开发,维护应用三个阶段。

面向项目管理数据集的挖掘

软件开发工作到目前已经是将多学科集中于一体。如经济学,组织行为学,管理学等。对于软件开发者而言,关注的重点除过技术方面革新外,同时也需要科学规范的管理。除过对于版本控制信息挖掘外,还有人员组织关系挖掘。对于大规模的软件开发工作而言,对人力资源的有效分配与协调也是软件工作领域需要面对的问题。例如在大型系统开发过程中,往往会有许多人参与其中,人员之间需要进行沟通交流。交流方式包括了面对面沟通,文档传递,电子信息等。通过对人员之间的关系进行挖掘,有利于管理工作开展。员工群体存在的网络是社会网络。通过人员合理组织与分配,将会影响到项目进度,成本,成功的可能性。而对该方面实施研究通常采用的是模拟建模。

5结束语

软件工程技术在生活中许多领域都有广泛的应用,数据挖掘作为其中的一项技术,其重要性及作用随着技术发展而表现的越加明显。为了保证挖掘技术的可靠性与高效,与其它工程技术有一定融合性。数据挖掘在实际应用工作中体现出了巨大的经济效益,因此应该大力推进其应用的范围,并拓展其应用的深度与层次。

参考文献

[1]李红兰.试论数据挖掘技术在软件工程中的应用综述[J].电脑知识与技术,2016(34).

[2]雷蕾.关于数据挖掘技术在软件工程中的应用综述究[J].电子测试,2014(02).

[3]孙云鹏.数据挖掘技术在软件工程中的应用综述[J].中国新通信,2015(15).

数据挖掘论文dfc

数据挖掘是从大量数据中提取人们感兴趣知识的高级处理过程, 这些知识是隐含的、 事先未知的, 并且是可信的、 新颖的、 潜在有用的、 能被人们理解的模式。随着信息化的普及和数据库的广泛应用,很多大型企业事业单位积累了数百亿字节的数据, 分析利用如此海量的数据,是数据挖掘技术的用武之地。数据挖掘在争取与保留客户、 交叉销售、 趋势分析与市场预测、 欺诈检测与风险防范等方面的成功应用令人鼓舞。

python数据挖掘技术及应用论文选题如下:1、基于关键词的文本知识的挖掘系统的设计与实现。2、基于MapReduce的气候数据的分析。3、基于概率图模型的蛋白质功能预测。4、基于第三方库的人脸识别系统的设计与实现。5、基于hbase搜索引擎的设计与实现。6、基于Spark-Streaming的黑名单实时过滤系统的设计与实现。7、客户潜在价值评估系统的设计与实现。8、基于神经网络的文本分类的设计与实现。

论文摘要主要分这几部分1、提出问题2、分析问题3、解决问题4、结果对于不同的期刊摘要字数有限制,参阅你要投稿的期刊仔细写,摘要要简洁明了,论点突出,祝你的论文能早日录用

python数据挖掘论文

主要是两点或者三点第一个是爬虫的技术框架,这个比较好,理解了第二个是医疗数据内容以及可视化选择,就比如说医疗数据,你是用饼图还是柱状图去反映一些病情然后写一些代码实践上的技术考量,以及运行结果这就是核心了,然后照着论文框架套一下就可以了

如何用Python进行大数据挖掘和分析?快速入门路径图大数据无处不在。在时下这个年代,不管你喜欢与否,在运营一个成功的商业的过程中都有可能会遇到它。什么是 大数据 ?大数据就像它看起来那样——有大量的数据。单独而言,你能从单一的数据获取的洞见穷其有限。但是结合复杂数学模型以及强大计算能力的TB级数据,却能创造出人类无法制造的洞见。大数据分析提供给商业的价值是无形的,并且每天都在超越人类的能力。大数据分析的第一步就是要收集数据本身,也就是众所周知的“数据挖掘”。大部分的企业处理着GB级的数据,这些数据有用户数据、产品数据和地理位置数据。今天,我将会带着大家一起探索如何用 Python 进行大数据挖掘和分析?为什么选择Python?Python最大的优点就是简单易用。这个语言有着直观的语法并且还是个强大的多用途语言。这一点在大数据分析环境中很重要,并且许多企业内部已经在使用Python了,比如Google,YouTube,迪士尼等。还有,Python是开源的,并且有很多用于数据科学的类库。现在,如果你真的要用Python进行大数据分析的话,毫无疑问你需要了解Python的语法,理解正则表达式,知道什么是元组、字符串、字典、字典推导式、列表和列表推导式——这只是开始。数据分析流程一般可以按“数据获取-数据存储与提取-数据预处理-数据建模与分析-数据可视化”这样的步骤来实施一个数据分析项目。按照这个流程,每个部分需要掌握的细分知识点如下:数据获取:公开数据、Python爬虫外部数据的获取方式主要有以下两种。第一种是获取外部的公开数据集,一些科研机构、企业、政府会开放一些数据,你需要到特定的网站去下载这些数据。这些数据集通常比较完善、质量相对较高。另一种获取外部数据的方式就是爬虫。比如你可以通过爬虫获取招聘网站某一职位的招聘信息,爬取租房网站上某城市的租房信息,爬取豆瓣评分评分最高的电影列表,获取知乎点赞排行、网易云音乐评论排行列表。基于互联网爬取的数据,你可以对某个行业、某种人群进行分析。在爬虫之前你需要先了解一些 Python 的基础知识:元素(列表、字典、元组等)、变量、循环、函数………以及,如何用 Python 库(urllib、BeautifulSoup、requests、scrapy)实现网页爬虫。掌握基础的爬虫之后,你还需要一些高级技巧,比如正则表达式、使用cookie信息、模拟用户登录、抓包分析、搭建代理池等等,来应对不同网站的反爬虫限制。数据存取:SQL语言在应对万以内的数据的时候,Excel对于一般的分析没有问题,一旦数据量大,就会力不从心,数据库就能够很好地解决这个问题。而且大多数的企业,都会以SQL的形式来存储数据。SQL作为最经典的数据库工具,为海量数据的存储与管理提供可能,并且使数据的提取的效率大大提升。你需要掌握以下技能:提取特定情况下的数据数据库的增、删、查、改数据的分组聚合、如何建立多个表之间的联系数据预处理:Python(pandas)很多时候我们拿到的数据是不干净的,数据的重复、缺失、异常值等等,这时候就需要进行数据的清洗,把这些影响分析的数据处理好,才能获得更加精确地分析结果。对于数据预处理,学会 pandas (Python包)的用法,应对一般的数据清洗就完全没问题了。需要掌握的知识点如下:选择:数据访问缺失值处理:对缺失数据行进行删除或填充重复值处理:重复值的判断与删除异常值处理:清除不必要的空格和极端、异常数据相关操作:描述性统计、Apply、直方图等合并:符合各种逻辑关系的合并操作分组:数据划分、分别执行函数、数据重组Reshaping:快速生成数据透视表概率论及统计学知识需要掌握的知识点如下:基本统计量:均值、中位数、众数、百分位数、极值等其他描述性统计量:偏度、方差、标准差、显著性等其他统计知识:总体和样本、参数和统计量、ErrorBar概率分布与假设检验:各种分布、假设检验流程其他概率论知识:条件概率、贝叶斯等有了统计学的基本知识,你就可以用这些统计量做基本的分析了。你可以使用 Seaborn、matplotlib 等(python包)做一些可视化的分析,通过各种可视化统计图,并得出具有指导意义的结果。Python 数据分析掌握回归分析的方法,通过线性回归和逻辑回归,其实你就可以对大多数的数据进行回归分析,并得出相对精确地结论。这部分需要掌握的知识点如下:回归分析:线性回归、逻辑回归基本的分类算法:决策树、随机森林……基本的聚类算法:k-means……特征工程基础:如何用特征选择优化模型调参方法:如何调节参数优化模型Python 数据分析包:scipy、numpy、scikit-learn等在数据分析的这个阶段,重点了解回归分析的方法,大多数的问题可以得以解决,利用描述性的统计分析和回归分析,你完全可以得到一个不错的分析结论。当然,随着你实践量的增多,可能会遇到一些复杂的问题,你就可能需要去了解一些更高级的算法:分类、聚类。然后你会知道面对不同类型的问题的时候更适合用哪种算法模型,对于模型的优化,你需要去了解如何通过特征提取、参数调节来提升预测的精度。你可以通过 Python 中的 scikit-learn 库来实现数据分析、数据挖掘建模和分析的全过程。总结其实做数据挖掘不是梦,5步就能让你成为一个Python爬虫高手!

python数据挖掘技术及应用论文选题如下:1、基于关键词的文本知识的挖掘系统的设计与实现。2、基于MapReduce的气候数据的分析。3、基于概率图模型的蛋白质功能预测。4、基于第三方库的人脸识别系统的设计与实现。5、基于hbase搜索引擎的设计与实现。6、基于Spark-Streaming的黑名单实时过滤系统的设计与实现。7、客户潜在价值评估系统的设计与实现。8、基于神经网络的文本分类的设计与实现。

相关百科

热门百科

首页
发表服务