我老是也是统计学的,惨哦
统计描述一般指的是均数、标准差等
要写出为什么要进行报表分析[相当于论文研究目的、意义],然后把这个企业的报表数据写出来[这个应该是利润表,资产负债表中的相关数据要列出来吧。要不你在附录时,列出全表吧。],再进行分析,分析完以后要与同行业比较,得出结论。
基本信息描述
如何利用数据分析工具,对自己的文章进行诊断
基本信息描述
毕业论文数据分析的做法如下:
首先,针对实证性论文而言,在开始撰写论文之前,必须要提前确定好数据研究方法。而数据研究方法的确定与选择需要根据大家毕业论文的研究课题来确定。
另外,大家也可以跟自己的的论文指导老师多多交流,尽可能多的了解更多关于研究方法的知识,以供自己选择。除此之外,大家还需要大量查找文献资料,见多识广有大量输入之后才能有所输出,本环节需要大家跟导师沟通商议后决定。
接下来一个比较重要的步骤是搜集和整理实验数据。在这一部分,很多同学朋友都会遇到各种各样的问题,比如,不知道去哪里找数据,找到的数据可靠性无法保障,需要的数据总是无法搜集全面等等各种问题。
那么在这里需要跟大家强调一下,推荐大家使用国家统计局、中国统计年鉴、国泰安、万方等等这些比较权威的网站去搜集数据资料。
在此需要注意的是,国泰安和万方等这些网站是需要收费的,上去看了一下,价格不是很亲民。
给大家分享一下,如果有些数据在国家官方网站确实找不到或者毕业论文所需的最新数据还没及时发布,推荐大家可以上某宝,因为某宝上电子版数据往往都很全面,而且价格大都可以接受。
在此提醒大家搜集到数据之后,一定要按照自己的习惯整理保存好,避免后期使用数据时出现差错。
怎样对论文进行分析
怎样对论文进行分析,有时候我们在写论文的时候,会被老师要求先去分析论文的,可是对于从来都没有分析过论文的学生来说,是一件难事的,我和大家一起来看看怎样对论文进行分析的相关资料。
01、 确定研究目标
确定研究目标,看似是一个“伪命题”,我论文的研究方向都定好了,研究目标不就显而易见了嘛。
研究方向只是一个宽泛的概念,具体落实到分析层面,具体要研究什么?得到什么结果?要用什么方法?很多时候我们并没有想清楚。
这里建议大家在开始分析前,先对着自己收集来的数据和问题,列出准备研究的内容。
还记得高中每次考试前语文老师一定会提醒:写作文的时候拿到题目先不要动笔!看清题目,想好了列出提纲再动笔!
数据分析也是如此,分析前制定一个分析框架,可以帮助我们快速捋清思路,不至于漫无目的地乱分析,同时也能节省很多时间。
当然,对于初学者来说,制定一个完整的分析框架比较困难,建议大家多参考一些领域内的专业文献,看看其他人是如何设计分析的。
SPSSAU也提供几类常见的分析框架,研究者可以结合自己的问卷类型进行选择。
SPSSAU-量表型问卷
SPSSAU-非量表型问卷
两个注意点:
① 框架的核心不要偏离研究主题,所做的任何分析都是为研究主题服务,因此一定注意避免出现与主线不相干的内容。
②在这一步中,可以先不去管具体要用哪种分析方法,如何分析。更重要的是,先搞清想分析什么。
比如,问卷调查里,一开始的几道题基本都是对研究对象个人信息的收集。
第一,可对研究对象的性别、年龄、学历等个人信息进行简单统计。
第二,可用个人信息与核心研究项联系到一起,分析不同背景的人群对核心研究项的态度或行为是否有差异。
02、 判断数据类型
有了基本框架后,就要进入到具体的分析方法选择阶段。
判断数据类型是第一步,在SPSSAU之前的文章中,对此都有详细的说明,这里不再重复。
03、 选择分析方法
在完成上面的步骤后,基本上已经完成对数据部分的了解,下面就需要结合数据类型,选择对应的分析方法。
对单个题的统计分析比较简单,主要困扰大家的是对于两个题或多个题的关系研究如何选出正确的分析方法。
变量的关系最常见有:相关关系、影响关系、差异关系,及其他关系。
SPSSAU的建议是:先用一句话描述研究内容,话里面拆开成X和Y:然后结合X与Y的数据类型进行选择。
根据X和Y的'个数,以及方法功能,分成几个表格汇总如下:
注:单变量意为分析只涉及一个分析项X(变量)。
注:分析涉及1个自变量X和一个因变量Y。
每种方法的使用场景不是固定不变的,这里的只提供最常用的说明,帮助初学者快速了解,更深入的方法介绍请参考SPSSAU帮助手册说明,以及SPSSAU视频教程。
确定方法之后,可使用spssau系统进行分析,分析界面也是区分了X、Y。将标题放置到对应位置即可分析得出结果。
总结
最后我们再回顾一遍整个方法选择的流程:
选择分析框架→判断变量的数据类型→表格查找分析方法→开始分析
同时要提醒一点,在分析前要有意识的剔除无效数据(如一个人重复填写,明显的异常值等),以保证结果的准确性。
1、什么是论文分析
我们在分析论文前,首先要了解分析的含义,分析是分解文学作品,独立解决每个观点。当我们分析一篇论文时,主要目标是要确保用户在没有太多争议的情况下来获得主要观点。在分析论文时展现批判性的思维能力,在分析中必须要对某一些事情作出判断,然后得出结论,只有这样在完成论文后才能说服用户已经读过该篇论文。
2、分析论文的要点
总结论文的主要内容,刚开始写论文分析时,我们要对论文中的要点进行一个总结,让大家能够理解论文的全部内容。摘要是作为论文大纲的概述,但不是主要的分析点,只是用来指导用户简要理解论文的内容。作者在论文中提出的主要论点以及论据,这才是分析的开始,我们需要通过分析作品来给出证据来证明论文内容,还应该找出缺陷。因为只有越有说服力的论文内容,这样才更加突出。论文查重系统怎么进行选择?
3、论文分析格式
最后我们需要了解,用户要提出适合他们的语气,必须确保了解用户群体。毕业论文主要的用户是导师,所以必须很正式。在上课时,我们可以分析一篇论文,需要向了解用户群体将有助于了解如何分析论文。在写论文之前,那么首先的一个步骤就是要阅读分析论文,应该多次阅读,然后积累我们的知识,如果对论文的理解不够的话,那么就无法对论文进行分析。所以做好论文前的准备工作也是非常重要的。
Web数据挖掘技术探析论文
在日复一日的学习、工作生活中,大家或多或少都会接触过论文吧,论文对于所有教育工作者,对于人类整体认识的提高有着重要的意义。那么你知道一篇好的论文该怎么写吗?以下是我收集整理的Web数据挖掘技术探析论文,供大家参考借鉴,希望可以帮助到有需要的朋友。
引言
当前,随着网络技术的发展和数据库技术的迅猛发展,有效推动了商务活动由传统活动向电子商务变革。电子商务就是利用计算机和网络技术以及远程通信技术,实现整个商务活动的电子化、数字化和网络化。基于Internet的电子商务快速发展,使现代企业积累了大量的数据,这些数据不仅能给企业带来更多有用信息,同时还使其他现代企业管理者能够及时准确的搜集到大量的数据。访问客户提供更多更优质的服务,成为电子商务成败的关键因素,因而受到现代电子商务经营者的高度关注,这也对计算机web数据技术提出了新的要求,Web数据挖掘技术应运而生。它是一种能够从网上获取大量数据,并能有效地提取有用信息供企业决策者分析参考,以便科学合理制定和调整营销策略,为客户提供动态、个性化、高效率服务的全新技术。目前,它已成为电子商务活动中不可或缺的重要载体。
计算机web数据挖掘概述
1.计算机web数据挖掘的由来
计算机Web数据挖掘是一个在Web资源上将对自己有用的数据信息进行筛选的过程。Web数据挖掘是把传统的数据挖掘思想和方法移植到Web应用中,即从现有的Web文档和活动中挑选自己感兴趣且有用的模式或者隐藏的数据信息。计算机Web数据挖掘可以在多领域中展示其作用,目前已被广泛应用于数据库技术、信息获取技术、统计学、人工智能中的机器学习和神经网络等多个方面,其中对商务活动的变革起到重大的推动作用方面最为明显。
2.计算机Web数据挖掘含义及特征
(1)Web数据挖掘的含义
Web数据挖掘是指数据挖掘技术在Web环境下的应用,是一项数据挖掘技术与WWW技术相结合产生的新技术,综合运用到了计算机语言、Internet、人工智能、统计学、信息学等多个领域的技术。具体说,就是通过充分利用网络(Internet),挖掘用户访问日志文件、商品信息、搜索信息、购销信息以及网络用户登记信息等内容,从中找出隐性的、潜在有用的和有价值的信息,最后再用于企业管理和商业决策。
(2)Web数据挖掘的特点
计算机Web数据挖掘技术具有以下特点:一是用户不用提供主观的评价信息;二是用户“访问模式动态获取”不会过时;三是可以处理大规模的数据量,并且使用方便;四是与传统数据库和数据仓库相比,Web是一个巨大、分布广泛、全球性的信息服务中心。
(3)计算机web数据挖掘技术的类别
web数据挖掘技术共有三类:第一类是Web使用记录挖掘。就是通过网络对Web日志记录进行挖掘,查找用户访问Web页面的模式及潜在客户等信息,以此提高其站点所有服务的竞争力。第二类是Web内容挖掘。既是指从Web文档中抽取知识的过程。第三类是Web结构挖掘。就是通过对Web上大量文档集合的内容进行小结、聚类、关联分析的方式,从Web文档的组织结构和链接关系中预测相关信息和知识。
计算机web数据挖掘技术与电子商务的关系
借助计算机技术和网络技术的日臻成熟,电子商务正以其快速、便捷的特点受到越来越多的企业和个人的关注。随着电子商务企业业务规模的不断扩大,电子商务企业的商品和客户数量也随之迅速增加,电子商务企业以此获得了大量的数据,这些数据正成为了电子商务企业客户管理和销售管理的重要信息。为了更好地开发和利用这些数据资源,以便给企业和客户带来更多的便利和实惠,各种数据挖掘技术也逐渐被应用到电子商务网站中。目前,基于数据挖掘(特别是web数据挖掘)技术构建的电子商务推荐系统正成为电子商务推荐系统发展的一种趋势。
计算机web数据挖掘在电子商务中的具体应用
(1)电子商务中的web数据挖掘的过程
在电子商务中,web数据挖掘的过程主要有以下三个阶段:既是数据准备阶段、数据挖掘操作阶段、结果表达和解释阶段。如果在结果表达阶段中,分析结果不能让电子商务企业的决策者满意,就需要重复上述过程,直到满意为止。
(2)Web数据挖掘技术在电子商务中的应用
目前,电子商务在企业中得到广泛应用,极大地促进了电子商务网站的兴起,经过分析一定时期内站点上的用户的访问信息,便可发现该商务站点上潜在的客户群体、相关页面、聚类客户等数据信息,企业信息系统因此会获得大量的数据,如此多的数据使Web数据挖掘有了丰富的数据基础,使它在各种商业领域有着更加重要的.实用价值。因而,电子商务必将是未来Web数据挖掘的主攻方向。Web数据挖掘技术在电子商务中的应用主要包含以下几方面:
一是寻找潜在客户。电子商务活动中,企业的销售商可以利用分类技术在Internet上找到潜在客户,通过挖掘Web日志记录等信息资源,对访问者进行分类,寻找访问客户共同的特征和规律,然后从已经存在的分类中找到潜在的客户。
二是留住访问客户。电子商务企业通过商务网站可以充分挖掘客户浏览访问时留下的信息,了解客户的浏览行为,然后根据客户不同的爱好和要求,及时做出让访问客户满意的页面推荐和专属性产品,以此来不断提高网站访问的满意度,最大限度延长客户驻留的时间,实现留住老客户发掘新客户的目的。
三是提供营销策略参考。通过Web数据挖掘,电子商务企业销售商能够通过挖掘商品访问情况和销售情况,同时结合市场的变化情况,通过聚类分析的方法,推导出客户访问的规律,不同的消费需求以及消费产品的生命周期等情况,为决策提供及时而准确的信息参考,以便决策者能够适时做出商品销售策略调整,优化商品营销。
四是完善商务网站设计。电子商务网站站点设计者能够利用关联规则,来了解客户的行为记录和反馈情况,并以此作为改进网站的依据,不断对网站的组织结构进行优化来方便客户访问,不断提高网站的点击率。
结语
本文对Web数据挖掘技术进行了综述,讲述了其在电子商务中广泛应用。可以看出,随着计算机技术和数据库技术快速发展,计算机Web数据技术的应用将更加广泛,Web数据挖掘也将成为非常重要的研究领域,研究前景巨大、意义深远。目前,我国的Web数据应用还处于探索和起步阶段,还有许多问题值得深入研究。
摘要: 该文通过介绍电子商务及数据挖掘基本知识,分别从几个方面分析了电子商务中WEB数据挖掘技术的应用。
关键词: 电子商务;数据挖掘;应用
1概述
电子商务是指企业或个人以网络为载体,应用电子手段,利用现代信息技术进行商务数据交换和开展商务业务的活动。随着互联网的迅速发展,电子商务比传统商务具有更明显的优势,由于电子商务具有方便、灵活、快捷的特点,使它已逐渐成为人们生活中不可缺少的活动。目前电子商务平台网站多,行业竞争强,为了获得更多的客户资源,电子商务网站必须加强客户关系管理、改善经营理念、提升售后服务。数据挖掘是从数据集中识别出隐含的、潜在有用的、有效的,新颖的、能够被理解的信息和知识的过程。由数据集合做出归纳推理,从中挖掘并进行商业预判,能够帮助电子商务企业决策层依据预判,对市场策略调整,将企业风险降低,从而做出正确的决策,企业利润将最大化。随着电子商务的应用日益广泛,电子商务活动中会产生大量有用的数据,如何能够数据挖掘出数据的参考价值?研究客户的兴趣和爱好,对客户分门别类,将客户心仪的商品分别推荐给相关客户。因此,如何在电子商务平台上进行数据挖掘成为研究的热点问题。
2数据挖掘技术概述
数据挖掘(DataMining),也称数据库中的知识发现(KnowledgeDiscoveryinDatabase,KDD)。数据挖掘一般是指从海量数据中应用算法查找出隐藏的、未知的信息的过程。数据挖掘是一个在大数据资源中利用分析工具发现模型与数据之间关系的一个过程,数据挖掘对决策者寻找数据间潜在的某种关联,发现隐藏的因素起着关键作用。这些模式是有潜在价值的、并能够被理解的。数据挖掘将人工智能、机器学习、数据库、统计、可视化、信息检索、并行计算等多个领域的理论与技术融合在一起的一门多学科交叉学问,这些学科也对数据挖掘提供了很大的技术支撑。
3Web数据挖掘特点
Web数据挖掘就是数据挖掘在Web中的应用。Web数据挖掘的目的是从万维网的网页的内容、超链接的结构及使用日志记录中找到有价值的数据或信息。依据挖掘过程中使用的数据类别,Web数据挖掘任务可分为:Web内容挖掘、Web结构挖掘、Web使用记录挖掘。
1)Web内容挖掘指从网页中提取文字、图片或其他组成网页内容的信息,挖掘对象通常包含文本、图形、音视频、多媒体以及其他各种类型数据。
2)Web结构挖掘是对Web页面之间的结构进行挖掘,挖掘描述内容是如何组织的,从Web的超链接结构中寻找Web结构和页面结构中的有价值模式。例如从这些链接中,我们可以找出哪些是重要的网页,依据网页的主题,进行自动的聚类和分类,为了不同的目的从网页中根据模式获取有用的信息,从而提高检索的质量及效率。
3)Web使用记录挖掘是根据对服务器上用户访问时的访问记录进行挖掘的方法。Web使用挖掘将日志数据映射为关系表并采用相应的数据挖掘技术来访问日志数据,对用户点击事件的搜集和分析发现用户导航行为。它用来提取关于客户如何浏览和使用访问网页的链接信息。如访问了哪些页面?在每个页面中所停留的时间?下一步点击了什么?在什么样的路线下退出浏览的?这些都是Web使用记录挖掘所关心要解决的问题。
4电子商务中Web挖掘中技术的应用分析
1)电子商务中序列模式分析的应用
序列模式数据挖掘就是要挖掘基于时间或其他序列的模式。如在一套按时间顺序排列的会话或事务中一个项目有存在跟在另一个项目后面。通过这个方法,WEB销售商可以预测未来的访问模式,以帮助针对特定用户组进行广告排放设置。发现序列模式容易使客户的行为被电子商务的组织者预测,当用户浏览站点时,尽可能地迎合每个用户的浏览习惯并根据用户感兴趣的内容不断调整网页,尽可能地使每个用户满意。使用序列模式分析挖掘日志,可以发现客户的访问序列模式。在万维网使用记录挖掘应用中,序列模式挖掘可以用于捕捉用户路径之中常用的导航路径。当用户访问电子商务网站时,网站管理员能够搜索出这个访问者的对该网站的访问序列模式,将访问者感兴趣但尚未浏览的页面推荐给他。序列模式分析还能分析出商品购买的前后顺序,从而向客户提出推荐。例如在搜索引擎是发出查询请求、浏览网页信息等,会弹出与这些信息相关的广告。例如购买了打印机的用户,一般不久就会购买如打印纸、硒鼓等打印耗材。优秀的推荐系统将为客户建立一个专属商店,由每个客户的特征来调整网站的内容。也能由挖掘出的一些序列模式分析网站及产品促销的效果。
2)电子商务中关联规则的应用
关联规则是揭示数据之间隐含的相互关系,关联分析的任务是发现事物间的关联规则或相关程序。关联规则挖掘的目标是在数据项目中找出每一个数据信息的内在关系。关联规则挖掘就是要搜索出用户在服务器上访问的内容、页面、文件之间的联系,从而改进电子商务网站设计。可以更好在组织站点,减少用户过滤网站信息的负担,哪些商品顾客会可能在一次购物时同时购买?关联规则技术能够通过购物篮中的不同商品之间的联系,分析顾客的购物习惯。例如购买牛奶的顾客90%会同时还购买面包,这就是一条关联规则,如果商店或电子商务网站将这两种商品放在一起销售,将会提高它们的销量。关联规则挖掘目标是利用工具分析出顾客购买商品间的联系,也即典型购物篮数据分析应用。关联规则是发现同类事件中不同项目的相关性,例如手机加充电宝,鼠标加鼠标垫等购买习惯就属于关联分析。关联规则挖掘技术可以用相应算法找出关联规则,例如在上述例子中,商家可以依据商品间的关联改进商品的摆放,如果顾客购买了手机则将充电宝放入推荐的商品中,如果一些商品被同时购买的概率较大,说明这些商品存在关联性,商家可以将这些有关联的商品链接放在一起推荐给客户,有利于商品的销售,商家也根据关联有效搭配进货,提升商品管理水平。如买了灯具的顾客,多半还会购买开关插座,因此,一般会将灯具与开关插座等物品放在一个区域供顾客选购。依据分析找出顾客所需要的商品的关联规则,由挖掘分析结果向顾客推荐所需商品,也即向顾客提出可能会感兴趣的商品推荐,将会大大提高商品的销售量。
3)电子商务中路径分析技术的应用
路径分析技术通过对Web服务器的日志文件中客户访问站点的访问次数的分析,用来发现Web站点中最经常访问的路径来调整站点结构,从而帮助使用用户以最快的速度找到其所需要的产品或是信息。例如在用户访问某网站时,如果有很多用户不感兴趣的页面存在,就会影响用户的网页浏览速度,从而降低用户的浏览兴趣,同时也会使整个站点的维护成本提高。而利用路径分析技术能够全面地掌握网站各个页面之间的关联以及超链接之间的联系,通过分析得出访问频率最高的页面,从而改进网站结构及页面的设计。
4)电子商务中分类分析的应用
分类技术在根据各种预定义规则进行用户建模的Web分析应用中扮演着很重要的角色。例如,给出一组用户事务,可以计算每个用户在某个期间内购买记录总和。基于这些数据,可以建立一个分类模型,将用户分成有购买倾向和没有购买倾向两类,考虑的特征如用户统计属性以及他们的导航活动。分类技术既可以用于预测哪些购买客户对于哪类促销手段感兴趣,也可以预测和划分顾客类别。在电子商务中通过分类分析,可以得知各类客户的兴趣爱好和商品购买意向,因而发现一些潜在的购买客户,从而为每一类客户提供个性化的网络服务及开展针对性的商务活动。通过分类定位模型辅助决策人员定位他们的最佳客户和潜在客户,提高客户满意度及忠诚度,最大化客户收益率,以降低成本,增加收入。
5)电子商务中聚类分析的应用
聚类技术可以将具有相同特征的数据项聚成一类。聚类分析是对数据库中相关数据进行对比并找出各数据之间的关系,将不同性质特征的数据进行分类。聚类分析的目标是在相似的基础上收集数据来分类。根据具有相同或相似的顾客购买行为和顾客特征,利用聚类分析技术将市场有效地细分,细分后应可每类市场都制定有针对性的市场营销策略。聚类分别有页面聚类和用户聚类两种。用户聚类是为了建立拥有相同浏览模式的用户分组,可以在电子中商务中进行市场划分或给具有相似兴趣的用户提供个性化的Web内容,更多在用户分组上基于用户统计属性(如年龄、性别、收入等)的分析可以发现有价值的商业智能。在电子商务中将市场进行细化的区分就是运用聚类分析技术。聚类分析可根据顾客的购买行为来划分不同顾客特征的不同顾客群,通过聚类具有类似浏览行为的客户,让市场人员对顾客进行类别细分,能够给顾客提供更人性化的贴心服务。比如通过聚类技术分析,发现一些顾客喜欢访问有关汽车配件网页内容,就可以动态改变站点内容,让网络自动地给这些顾客聚类发送有关汽车配件的新产品信息或邮件。分类和聚类往往是相互作用的。在电子商务中通过聚类行为或习性相似的顾客,给顾客提供更满意的服务。技术人员在分析中先用聚类分析将要分析的数据进行聚类细分,然后用分类分析对数据集合进行分类标记,再将该标记重新进行分类,一直如此循环两种分析方法得到相对满意的结果。
5结语
随着互联网的飞速发展,大数据分析应用越来越广。商业贸易中电子商务所占比例越来越大,使用web挖掘技术对商业海量数据进行挖掘处理,分析客户购买喜好、跟踪市场变化,调整销售策略,对决策者做出有效决策及提高企业的市场竞争力有重要意义。
参考文献:
[1]庞英智.Web数据挖掘技术在电子商务中的应用[J].情报科学,2011,29(2):235-240.
[2]马宗亚,张会彦.Web数据挖掘技术在电子商务中的应用研究[J].现代经济信息,2014(6):23-24.
[3]徐剑彬.Web数据挖掘技术在电子商务中的应用[J].时代金融,2013(4):
[4]周世东.Web数据挖掘在电子商务中的应用研究[D].北京交通大学,2008.
[5]段红英.Web数据挖掘技术在电子商务中的应用[J].陇东学院学报,2009(3):32-34.
数据挖掘在软件工程技术中的应用毕业论文
【 摘要 】计算机技术在发展,软件也发展的越来越复杂,而系统开发工作也显得更加重要。信息技术的广泛应用会产生大量数据,通过对数据进行挖掘,分析其存在的规律,对实现数据资源的有效利用意义重大。本文就数据挖掘技术在软件工程中的应用作简要阐述。
【 关键词 】数据挖掘技术;软件工程中;应用软件技术
随着信息技术发展而快速发展,但是其可控性并不是特别强。软件在应用过程中会产生大量数据,数据作为一种宝贵的资源,有效的利用可以带来价值增值。作为软件开发行业,数据挖掘技术应用则实现了数据资源的有效利用,通过对其中规律进行研究,为软件工程提供相应指导,并且对于系统故障能够有效处理,成本评估的有效性也能够提升。
1数据挖掘技术应用存在的问题
信息数据自身存在的复杂性
软件工程所包含的数据可以分为两个类别,结构化与非结构化。在非结构化数据中软件代码发挥着重要作用。而对结构化数据产生影响的则是软件版本信息。结构与非结构化数据二者之间联系非常密切。实现数据有效利用就需要通过一定技术找出其中的规律。数据挖掘技术则刚好满足需求。利用该技术对结构与非结构化数据进行整合,提升其使用的有效性。
在评价标准方面缺乏一致性
数据挖掘技术在生活中的应用比较广泛,通过该技术应用能够更好的对实际情况进行评价,从而对结果进行优化。但是由于没有统一标准,导致了软件信息复杂。而在表述方式方面自身又存有差异性。信息获取者无法有效的对信息进行应用及对比。而信息缺乏统一标准的原因就在于评价方式不一致。
2数据挖掘技术在软件工程中的应用
数据挖掘执行记录
执行记录挖掘主要是对主程序的路径进行分析,从而发现程序代码存有的相关关系。其实质是通过对相关执行路径进行分析,并进行逆向建模,最终达到目的。作用在于验证,维护,了解程序。记录挖掘的过程通常是对被分析的系统进行初步插装,之后是记录过程,该过程在执行上一步程序后,对应用编程接口,系统,模块的状态变量记录,最后是对所得到的信息进行约简,过滤,聚类。最终得到的模型能够表达系统的特征。
漏洞检测
系统或是软件自身都会存在漏洞,漏洞自身具一定的隐蔽性,由于人的思维存在某些盲区,无法发现漏洞的存在,就需要借助于某些软件。检测漏洞的目的就在于找出软件中存在的漏洞及错误,并对其进行修复,从而保证软件质量与安全。将数据挖掘技术应用于软件检测,首先要确定测试项目,结合到用户需要,对测试内容进行规划,从而确定测试方法,并制定出具体方案。测试工作环节主要是对数据进行清理与转换,其基础在于漏洞数据收集,通过对收集与采集的信息进行清理,将与软件数据有关联同时存在缺陷的数据筛选出来,而将剩余无数据清理,对丢失项目采取相应措施补充,将其属性转换为数值表示。之后是选择适当的'模型进行训练与验证,该环节要结合到项目实际的需要选择挖掘方式,通过对不同数据结果进行分析与比较找到最适合的方式。之后则是重复应用上述方法,对软件存在的漏洞进行定位与检测。并将与之对应的数据收集于软件库,在对漏洞进行描述的基础上分类,最后将通过挖掘得到的知识应用到测试的项目中.
开源软件
对于开源软件的管理由于其自身的开放,动态与全局性,需要与传统管理软件进行区别对待,一般情况下,成熟的开源软件对于软件应用记录较为完整,参与的内容包括了错误报告,开发者活动。参与开发的工作人员会处在动态变化之中,存在动态变化的原因就在于软件的开放性。同时对于软件中动态性特征的挖掘,可达到对开源软件进行优质管理的目标。
版本控制信息
为了保证参与项目人员所共同编辑内容的统一性,就需要对系统应用进行控制。软件开发工程应用中,开发工作管理与保护都会通过版本控制系统来实施。并且其应用方式主要是对变更数据挖掘,找出不同模块及系统存在关系,并对程序中可能会存在的漏洞进行检测。此类技术的应用,使得系统后期维护成本被有效的降低,而对后期变更产生的漏洞也有一定的规避作用。
3数据挖掘在软件工程中的应用
关联法
该方法作用在于寻找数据中存在的相关联系与有趣关联。而体现的关联规则有两个明显的特征。①支持度;②信度。前者表示在某个事物集中,两个子集出现的概率是相同的。而后者则表明了某事物在事物集中出现的概率,而另一事物也会出现。
分类方法
该方法主要是应用于分类标号与离散值的操作。该方法的操作步骤是,首先要建立相应的模型,对数据进行描述,并利用模型对其进行分类。在分类方法选择方面,常用的有判定树法,贝叶斯法,支持项量机法等。判定树法应用的基础是贪心算法。
聚类方法
该方法常用的有划分方法,基于密度,模型,网格的方法与层次方法。聚类分析输入的是一组有序对,有序对中的数据分别表示了样本,相似度。其基本的应用理论是依据不同的对象数据予以应用。
4数据挖掘在软件工程中的应用
对克隆代码的数据挖掘
在软件工程中最为原始的是对克隆代码的检查测试。就其方式而言有文本对比为基础,标识符对比为基础。前者是利用系统中程序代码包含的语句进行判断。该方法在后期改进过程中主要是对字符串匹配效率进行提升。实际应用过程中是通过相关函数匹配对效率进行优化。
软件数据检索挖掘
该方法同样是软件工程中原始的挖掘需求之一。该方法在应用时主要有以下三个步骤。
①数据录入。其实质是对需要检索的信息录入,并结合到使用者需要在数据中查找使用者需要的数据。
②信息查找过程。确认了用户需要查找的信息后,系统将依据信息内容在数据库中进行查找,并分类罗列。
③信息数据导出与查看。用户可以依据自身需要将数据导出或者是在线查看。数据在导出时会形成相应的记录,客户再次进行查找时就会更加的方便与快捷。而将数据导出则需要利用到相关的软件。
应用于设计的三个阶段
软件工程有许多关于软件的资料,资料通常是存放于代码库中。数据运用可以提升工作效率。软件工程每一次循环都会产生大量的数据。基于软件工程生命周期可以将其分为分析设计,迭代的开发,维护应用三个阶段。
面向项目管理数据集的挖掘
软件开发工作到目前已经是将多学科集中于一体。如经济学,组织行为学,管理学等。对于软件开发者而言,关注的重点除过技术方面革新外,同时也需要科学规范的管理。除过对于版本控制信息挖掘外,还有人员组织关系挖掘。对于大规模的软件开发工作而言,对人力资源的有效分配与协调也是软件工作领域需要面对的问题。例如在大型系统开发过程中,往往会有许多人参与其中,人员之间需要进行沟通交流。交流方式包括了面对面沟通,文档传递,电子信息等。通过对人员之间的关系进行挖掘,有利于管理工作开展。员工群体存在的网络是社会网络。通过人员合理组织与分配,将会影响到项目进度,成本,成功的可能性。而对该方面实施研究通常采用的是模拟建模。
5结束语
软件工程技术在生活中许多领域都有广泛的应用,数据挖掘作为其中的一项技术,其重要性及作用随着技术发展而表现的越加明显。为了保证挖掘技术的可靠性与高效,与其它工程技术有一定融合性。数据挖掘在实际应用工作中体现出了巨大的经济效益,因此应该大力推进其应用的范围,并拓展其应用的深度与层次。
参考文献
[1]李红兰.试论数据挖掘技术在软件工程中的应用综述[J].电脑知识与技术,2016(34).
[2]雷蕾.关于数据挖掘技术在软件工程中的应用综述究[J].电子测试,2014(02).
[3]孙云鹏.数据挖掘技术在软件工程中的应用综述[J].中国新通信,2015(15).
寿险行业数据挖掘应用分析寿险是保险行业的一个重要分支,具有巨大的市场发展空间,因此,随着寿险市场的开放、外资公司的介入,竞争逐步升级,群雄逐鹿已成定局。如何保持自身的核心竞争力,使自己始终立于不败之地,是每个企业必须面对的问题。信息技术的应用无疑是提高企业竞争力的有效手段之一。寿险信息系统经过了多年的发展,已逐步成熟完善,并积累了相当数量的数据资源,为数据挖掘提供了坚实的基础,而通过数据挖掘发现知识,并用于科学决策越来越普遍受到寿险公司的重视。数据挖掘数据挖掘(Data Mining,DM)是指从大量不完全的、有噪声的、模糊的、随机的数据中,提取隐含在其中的、有用的信息和知识的过程。其表现形式为概念(Concepts)、规则(Rules)、模式(Patterns)等形式。目前业内已有很多成熟的数据挖掘方法论,为实际应用提供了理想的指导模型。CRISP-DM(Cross-Industry Standard Process for Data Mining)就是公认的、较有影响的方法论之一。CRISP-DM强调,DM不单是数据的组织或者呈现,也不仅是数据分析和统计建模,而是一个从理解业务需求、寻求解决方案到接受实践检验的完整过程。CRISP-DM将整个挖掘过程分为以下六个阶段:商业理解(Business Understanding),数据理解(Data Understanding),数据准备(Data Preparation),建模(Modeling),评估(Evaluation)和发布(Deployment)。商业理解就是对企业运作、业务流程和行业背景的了解;数据理解是对现有企业应用系统的了解;数据准备就是从企业大量数据中取出一个与要探索问题相关的样板数据子集。建模是根据对业务问题的理解,在数据准备的基础上,选择一种更为实用的挖掘模型,形成挖掘的结论。评估就是在实际中检验挖掘的结论,如果达到了预期的效果,就可将结论发布。在实际项目中,CRISP-DM模型中的数据理解、数据准备、建模、评估并不是单向运作的,而是一个多次反复、多次调整、不断修订完善的过程。行业数据挖掘经过多年的系统运营,寿险公司已积累了相当可观的保单信息、客户信息、交易信息、财务信息等,也出现了超大规模的数据库系统。同时,数据集中为原有业务水平的提升以及新业务的拓展提供了条件,也为数据挖掘提供了丰厚的土壤。根据CRISP-DM模型,数据挖掘首先应该做的是对业务的理解、寻找数据挖掘的目标和问题。这些问题包括:代理人的甄选、欺诈识别以及市场细分等,其中市场细分对企业制定经营战略具有极高的指导意义,它是关系到企业能否生存与发展、企业市场营销战略制定与实现的首要问题。针对寿险经营的特点,我们可以从不同的角度对客户群体进行分类归纳,从而形成各种客户分布统计,作为管理人员决策的依据。从寿险产品入手,分析客户对不同险种的偏好程度,指导代理人进行重点推广,是比较容易实现的挖掘思路。由于国内经济发展状况不同,各省差异较大,因此必须限定在一个经济水平相当的区域进行分析数据的采样。同时,市场波动也是必须要考虑的问题,一个模型从建立到废弃有一个生命周期,周期根据模型的适应性和命中率确定,因此模型需要不断修订。挖掘系统架构挖掘系统包括规则生成子系统和应用评估子系统两个部分。规则生成子系统主要完成根据数据仓库提供的保单历史数据,统计并产生相关规律,并输出相关结果。具体包括数据抽取转换、挖掘数据库建立、建模(其中包括了参数设置)、模型评估、结果发布。发布的对象是高层决策者,同时将模型提交给应用评估子系统.根据效果每月动态生成新的模型。应用评估子系统可以理解为生产系统中的挖掘代理程序,根据生成子系统产生的规则按照一定的策略对保单数据进行非类预测。通过系统的任务计划对生产数据产生评估指标。具体包括核心业务系统数据自动转入数据平台、规则实时评估、评估结果动态显示、实际效果评估。规则评估子系统根据规则进行检测。经过一段时间的检测,可利用规则生成子系统重新学习,获得新的规则,不断地更新规则库,直到规则库稳定。目前比较常用的分析指标有: 险种、交费年期、被保人职业、被保人年收入、被保人年龄段、被保人性别、被保人婚姻状况等。实践中,可结合实际数据状况,对各要素进行适当的取舍,并做不同程度的概括,以形成较为满意的判定树,产生可解释的结论成果。
SPSS软件主要用于对数据做统计学方面的一些分析和检验,是用于对数据进行一些基本处理、分析,以及做一些统计检验的软件,使用SPSS分析数据通常有以下几步:导入数据——>数据基本处理——>数据分析——>总结并得出结论。打开SPSS后会出现两个界面,如下图;图一是数据处理分析区,包括数据视图(数据处理区)和变量视图(数据包含各字段编辑区);图二是分析结果区,分析的各类结果都会在此显示。导入数据:在数据处理区左上方选择“文件”——>“导入数据”,导入相应格式的数据,此处我以csv文件格式为例。点击之后,出现如下对话框,选择好要处理的数据,点击“打开”,对要导入数据数据按需要进行预处理,再点击确定。
1. Introduction 简介2. Data Screening & Cleaning 数据筛选和整理3. Profile of Respondents 受访者介绍4. Reliability of the Measurement 测量的可靠性分析5. Descriptive of Main Variables 主要变量描述6. Correlation Analysis 相关性分析7. Multiple Regression Analysis 多元回归分析8. Summary of Findings 调查结果总结This chapter focuses on presenting the results of this research. It begins with Data Screening & Cleaning. Next, Profile of Respondents will be presented followed by Reliability of the Measurement, Descriptive of Main Variables and Correlation Analysis.
通过分析数据误差来进行。论文误差分析spss要通过分析数据误差来进行,分析的分类一个类别自变量到单因素方差分析。可以用在线版spss分析平台spssau进行分析,操作非常简单,有个10分钟就能学会。不会的理论知识有帮助手册可以随时查阅,包括如果选择方法、数据分析思路、每个方法的案例常见问题等。以及结果同时输出智能文字建议,可配合专业知识对数据结果进行解读。
对于论文中用SPSS分析数据的部分,一般需要写以下八个小节:1. Introduction 简介2. Data Screening & Cleaning 数据筛选和整理3. Profile of Respondents 受访者介绍4. Reliability of the Measurement 测量的可靠性分析5. Descriptive of Main Variables 主要变量描述6. Correlation Analysis 相关性分析7. Multiple Regression Analysis 多元回归分析8. Summary of Findings 调查结果总结This chapter focuses on presenting the results of this research. It begins with Data Screening & Cleaning. Next, Profile of Respondents will be presented followed by Reliability of the Measurement, Descriptive of Main Variables and Correlation Analysis.本章重点介绍了本研究的结果。它从数据筛选和清理开始。接下来,将介绍受访者的概况,然后是测量的可靠性、主要变量的描述和相关分析。2. Data Screening & Cleaning 数据筛选和整理调查数据必须首先对数据输入错误进行筛选和清理,然后才能进行分析。我们首先使用函数频率和描述性来筛选数据输入错误来检测回答中的异常。然后我们还评估了是否有很多空白的回答,最后我们还检查了被调查者是否回答相同的回答。首先,将收集来的数据整合成进Excel;然后打开SPSS,按照"File"→"Open"→"Data"的顺序导入文件第二步我们需要定义数据,包括 name, label, label, value首先定义variable name:然后定义value:(这一步是需要根据自己的调查问卷,比如问卷中定义1为男性,2 为女性,那么我们编码的时候也需要这样写)以定义性别为例之后我们就可以进行数据筛选和整理了:下面为输出结果:在这一部分我们需要介绍关于受访者的信息,以确认不同受访者对调查结果是否有影响。我们选择描述性统计中的频率将需要分析的受访者背景数据移到右侧这是频率表输出结果对于这个结果我们不能直接复制到论文中,我们可以另整理一个表格,如下图:4. Reliability of the Measurement 测量的可靠性分析对于可靠性分析的操作:选择分析→刻度→可靠性分析将需要分析的变量移到右侧可靠性分析的输出结果整理为表格写进论文中5. Descriptive of Main Variables 主要变量描述。
你的论文准备往什么方向写,选题老师审核通过了没,有没有列个大纲让老师看一下写作方向? 老师有没有和你说论文往哪个方向写比较好?写论文之前,一定要写个大纲,这样老师,好确定了框架,避免以后论文修改过程中出现大改的情况!!学校的格式要求、写作规范要注意,否则很可能发回来重新改,你要还有什么不明白或不懂可以问我,希望你能够顺利毕业,迈向新的人生。 (一)选题毕业论文(设计)题目应符合本专业的培养目标和教学要求,具有综合性和创新性。本科生要根据自己的实际情况和专业特长,选择适当的论文题目,但所写论文要与本专业所学课程有关。(二)查阅资料、列出论文提纲题目选定后,要在指导教师指导下开展调研和进行实验,搜集、查阅有关资料,进行加工、提炼,然后列出详细的写作提纲。(三)完成初稿根据所列提纲,按指导教师的意见认真完成初稿。(四)定稿初稿须经指导教师审阅,并按其意见和要求进行修改,然后定稿。一般毕业论文题目的选择最好不要太泛,越具体越好,而且老师希望学生能结合自己学过的知识对问题进行分析和解决。不知道你是否确定了选题,确定选题了接下来你需要根据选题去查阅前辈们的相关论文,看看人家是怎么规划论文整体框架的;其次就是需要自己动手收集资料了,进而整理和分析资料得出自己的论文框架;最后就是按照框架去组织论文了。你如果需要什么参考资料和范文我可以提供给你。还有什么不了解的可以直接问我,希望可以帮到你,祝写作过程顺利毕业论文选题的方法: 一、尽快确定毕业论文的选题方向 在毕业论文工作布置后,每个人都应遵循选题的基本原则,在较短的时间内把选题的方向确定下来。从毕业论文题目的性质来看,基本上可以分为两大类:一类是社会主义现代化建设实践中提出的理论和实际问题;另一类是专业学科本身发展中存在的基本范畴和基本理论问题。大学生应根据自己的志趣和爱好,尽快从上述两大类中确定一个方向。二、在初步调查研究的基础上选定毕业论文的具体题目在选题的方向确定以后,还要经过一定的调查和研究,来进一步确定选题的范围,以至最后选定具体题目。下面介绍两种常见的选题方法。 浏览捕捉法 :这种方法就是通过对占有的文献资料快速地、大量地阅读,在比较中来确定论文题目地方法。浏览,一般是在资料占有达到一定数量时集中一段时间进行,这样便于对资料作集中的比较和鉴别。浏览的目的是在咀嚼消化已有资料的过程中,提出问题,寻找自己的研究课题。这就需要对收集到的材料作一全面的阅读研究,主要的、次要的、不同角度的、不同观点的都应了解,不能看了一些资料,有了一点看法,就到此为止,急于动笔。也不能“先入为主”,以自己头脑中原有的观点或看了第一篇资料后得到的看法去决定取舍。而应冷静地、客观地对所有资料作认真的分析思考。在浩如烟海,内容丰富的资料中吸取营养,反复思考琢磨许多时候之后,必然会有所发现,这是搞科学研究的人时常会碰到的情形。 浏览捕捉法一般可按以下步骤进行: 第一步,广泛地浏览资料。在浏览中要注意勤作笔录,随时记下资料的纲目,记下资料中对自己影响最深刻的观点、论据、论证方法等,记下脑海中涌现的点滴体会。当然,手抄笔录并不等于有言必录,有文必录,而是要做细心的选择,有目的、有重点地摘录,当详则详,当略则略,一些相同的或类似的观点和材料则不必重复摘录,只需记下资料来源及页码就行,以避免浪费时间和精力。 第二步,是将阅读所得到的方方面面的内容,进行分类、排列、组合,从中寻找问题、发现问题,材料可按纲目分类,如分成: 系统介绍有关问题研究发展概况的资料; 对某一个问题研究情况的资料; 对同一问题几种不同观点的资料; 对某一问题研究最新的资料和成果等等。 第三步,将自己在研究中的体会与资料分别加以比较,找出哪些体会在资料中没有或部分没有;哪些体会虽然资料已有,但自己对此有不同看法;哪些体会和资料是基本一致的;哪些体会是在资料基础上的深化和发挥等等。经过几番深思熟虑的思考过程,就容易萌生自己的想法。把这种想法及时捕捉住,再作进一步的思考,选题的目标也就会渐渐明确起来。
你可以到七七计算机毕业论文的毕业设计题目列表中找一份。有完整的论文和源码等,很详细
摘 要网络中的资源非常丰富,但是如何有效的搜索信息却是一件困难的事情。建立搜索引擎就是解决这个问题的最好方法。本论文首先详细介绍了基于英特网的搜索引擎的系统结构,然后从网络机器人、索引引擎、Web服务器三个方面进行详细的说明。为了更加深刻的理解这种技术,本人还亲自实现了一个自己的Java搜索引擎——新闻搜索引擎。新闻搜索引擎是从指定的Web页面中按照超连接进行解析、搜索,并把搜索到的每条新闻进行索引后加入数据库。然后通过Web服务器接受客户端请求后从索引数据库中搜索出所匹配的新闻。本人在介绍搜索引擎的章节中除了详细的阐述技术核心外还结合了新闻搜索引擎的实现代码来说明,图文并茂、易于理解。 关键字:搜索引擎,网络机器人,Lucene,中文分词,JavaCC AbstractThe resources in the internet are abundant, but it is a difficult job to search some useful information. So a search engine is the best method to solve this problem. This article fist introduces the system structure of search engine based on the internet in detail, and then gives a minute explanation form Spider search, engine and web server. In order to understand the technology more deeply, I have programmed a news search engine by myself in news search engine is explained and searched according to hyperlink from a appointed web page, then indexes every searched information and adds it to the index database. Then after receiving the customers' requests from the web server, it soon searches the right news form the index engine,In the chapter of introducing search engine, it is not only elaborating the core technology, but also combine with the modern code, pictures included, easy to understand. Key Words:Search Engine, Spider, Lucene, Phrase Query, JavaCC 目 录第1章 引言··· 选题背景:··· 现实意义··· 1第2章 搜索引擎的结构··· 系统概述··· 搜索引擎的构成··· 网络机器人··· 索引与搜索··· Web服务器··· 搜索引擎的主要指标及分析··· 小节··· 4第3章 网络机器人··· 什么是网络机器人··· 网络机器人的结构分析··· 如何解析HTML· 该类几种重要的方法。··· Spider程序结构··· 如何构造Spider程序··· 如何提高程序性能··· 网络机器人的代码分析··· 小节··· 10第4章 基于Lucene的索引与搜索··· 什么是全文检索与全文检索系统?··· 什么是Lucene全文检索··· Lucene的系统结构分析··· 系统结构组织··· 数据流分析··· Lucene索引构建逻辑模块分析··· 绪论··· 对象体系与UML图··· Lucene的包结构··· Lucene的主要逻辑图··· 对Lucene包的小结··· Lucene查询逻辑··· 查询者输入查询条件··· 查询条件被传达到查询分析器中··· 查询遍历树··· 返回结果··· Lucene 检索原理··· Lucene和Nucth的中文分析模块··· Nutch分析··· Nutch中文搜索 中文分词··· 利用JavaCC构造中文分析模块··· 分词小结··· Lucene与Spider的结合··· Index类的实现··· HTML解析类··· Lucene 小结··· 31第5章 基于Lucene的搜索引擎实现··· 基于Tomcat的Web服务器··· 什么是基于Tomcat的Web服务器··· 用户接口设计··· 客户端设计··· 服务端设计··· 在Tomcat上部署项目··· 小节··· 35第6章 搜索引擎策略··· 简介··· 面向主题的搜索策略··· 导向词··· 网页评级··· 权威网页和中心网页··· 小节··· 38结束语··· 39参考文献··· 40致 谢··· 41外文资料原文··· 42外文原文翻译··· 48 第1章 引言 选题背景:面对浩瀚的网络资源,搜索引擎为所有网上冲浪的用户提供了一个入口,毫不夸张的说,所有的用户都可以从搜索出发到达自己想去的网上任何一个地方。因此它也成为除了电子邮件以外最多人使用的网上服务。搜索引擎技术伴随着WWW的发展是引人注目的。搜索引擎大约经历了三代的更新发展:第一代搜索引擎出现于1994年。这类搜索引擎一般都索引少于1,000,000个网页,极少重新搜集网页并去刷新索引。而且其检索速度非常慢,一般都要等待10秒甚至更长的时间。在实现技术上也基本沿用较为成熟的IR(Information Retrieval)、网络、数据库等技术,相当于利用一些已有技术实现的一个WWW上的应用。在1994年3月到4月,网络爬虫World Web Worm (WWWW)平均每天承受大约1500次查询。大约在1996年出现的第二代搜索引擎系统大多采用分布式方案(多个微型计算机协同工作)来提高数据规模、响应速度和用户数量,它们一般都保持一个大约50,000,000网页的索引数据库,每天能够响应10,000,000次用户检索请求。1997年11月,当时最先进的几个搜索引擎号称能建立从2,000,000到100,000,000的网页索引。Altavista搜索引擎声称他们每天大概要承受20,000,000次查询。结束语本课题对基于因特网的Java搜索引擎结构和性能指标进行了分析,了解Spider程序的结构和功能。在进行海量数据搜索时,如果使用单纯的数据库技术,那将是非常痛苦的,速度将是极大的瓶颈。所以本文提出了使用全文搜索引擎Lucene进行索引、搜索。解决中文分词和有效的中文搜索信息。同时解决了如何把Lucene全文搜索引擎和Spider程序互相集合来实现新闻搜索的功能。对于如何构架基于Tomcat的Web服务器,使得用户通过浏览器进行新闻的搜索有了一定的理解,对Tomcat如何部署进行了说明。在些基础上,终于可以调试出一个简单的在本地搜索新闻Java搜索引擎。参考文献[1] Jeff Heaton(美), Programming Spiders, Bots, and Aggregator in Java.[2] Borland Software Corporation(美),JBuilder培训教程(译者:周鹏 [等] 译)北京:机械工业出版社[3]徐宝文,张卫丰. 搜索引擎与信息获取技术.北京:清华大学出版社,[4]车东.基于Java的全文搜索引擎Lucene[5]罗旭.主题搜索引擎的设计与实现[6]Bruce Eckel(美).Thinking in Java.北京:机械工业出版社[7] Otis Gospodnetic Erik Hatcher (美).Action in Lucene.电子工业出版社,[8]耿祥义,张跃平. JAVA2实用教程(第二版).北京:清华大学出版社,[9]刘彬.JSP数据库高级教程.北京:清华大学出版社,[10]刘卫国,严晖.数据库技术与应用——SQL Server.北京:清华大学出版社,[11]闫宏飞.Tiny Search Engine: Design and implementation(PPT). [12]李晓明,闫宏飞,王继民.搜索引擎——原理、技术与系统.北京:科学出版社,2004 更多参考请点击
可以借助百度Hi示意我们有机会可以解决你的问题差不多的要求也可以示意我们求一篇计算机应用技术的毕业**,我是学java的,我的邮...ES:\\81048C8AD2E4B0968B0D6E3F550DD915