首页

> 学术发表知识库

首页 学术发表知识库 问题

毕业论文决策树算法的应用

发布时间:

毕业论文决策树算法的应用

关于决策树算法,我打算分两篇来讲,一篇讲思想原理,另一篇直接撸码来分析算法。本篇为原理篇。 通过阅读这篇文章,你可以学到: 1、决策树的本质 2、决策树的构造过程 3、决策树的优化方向

决策树根据使用目的分为:分类树和回归树,其本质上是一样的。本文只讲分类树。

决策树,根据名字来解释就是,使用树型结构来模拟决策。 用图形表示就是下面这样。

其中椭圆形代表:特征或属性。长方形代表:类别结果。 面对一堆数据(含有特征和类别),决策树就是根据这些特征(椭圆形)来给数据归类(长方形) 例如,信用贷款问题,我根据《神奇动物在哪里》的剧情给银行造了个决策树模型,如下图:

然而,决定是否贷款可以根据很多特征,然麻鸡银行选择了:(1)是否房产价值>100w;(2)是否有其他值钱的抵押物;(3)月收入>10k;(4)是否结婚;这四个特征,来决定是否给予贷款。 先不管是否合理,但可以肯定的是,决策树做了特征选择工作,即选择出类别区分度高的特征。

由此可见, 决策树其实是一种特征选择方法。 (特征选择有多种,决策树属于嵌入型特征选择,以后或许会讲到,先给个图)即选择区分度高的特征子集。

那么, 从特征选择角度来看决策树,决策树就是嵌入型特征选择技术

同时,决策树也是机器学习中经典分类器算法,通过决策路径,最终能确定实例属于哪一类别。 那么, 从分类器角度来看决策树,决策树就是树型结构的分类模型

从人工智能知识表示法角度来看,决策树类似于if-then的产生式表示法。 那么, 从知识表示角度来看决策树,决策树就是if-then规则的集合

由上面的例子可知,麻鸡银行通过决策树模型来决定给哪些人贷款,这样决定贷款的流程就是固定的,而不由人的主观情感来决定。 那么, 从使用者角度来看决策树,决策树就是规范流程的方法

最后我们再来看看决策树的本质是什么已经不重要了。 决策树好像是一种思想,而通过应用在分类任务中从而成就了“决策树算法”。

下面内容还是继续讲解用于分类的“决策树算法”。

前面讲了决策树是一种 特征选择技术 。

既然决策树就是一种特征选择的方法,那么经典决策树算法其实就是使用了不同的特征选择方案。 如: (1)ID3:使用信息增益作为特征选择 (2)C4.5:使用信息增益率作为特征选择 (3)CART:使用GINI系数作为特征选择 具体选择的方法网上一大把,在这里我提供几个链接,不细讲。

但,不仅仅如此。 决策树作为嵌入型特征选择技术结合了特征选择和分类算法,根据特征选择如何生成分类模型也是决策树的一部分。 其生成过程基本如下:

根据这三个步骤,可以确定决策树由:(1)特征选择;(2)生成方法;(3)剪枝,组成。 决策树中学习算法与特征选择的关系如下图所示:

原始特征集合T:就是包含收集到的原始数据所有的特征,例如:麻瓜银行收集到与是否具有偿还能力的所有特征,如:是否结婚、是否拥有100w的房产、是否拥有汽车、是否有小孩、月收入是否>10k等等。 中间的虚线框就是特征选择过程,例如:ID3使用信息增益、C4.5使用信息增益率、CART使用GINI系数。 其中评价指标(如:信息增益)就是对特征的要求,特征需要满足这种条件(一般是某个阈值),才能被选择,而这一选择过程嵌入在学习算法中,最终被选择的特征子集也归到学习算法中去。 这就是抽象的决策树生成过程,不论哪种算法都是将这一抽象过程的具体化。 其具体算法我将留在下一篇文章来讲解。

而决策树的剪枝,其实用得不是很多,因为很多情况下随机森林能解决决策树带来的过拟合问题,因此在这里也不讲了。

决策树的优化主要也是围绕决策树生成过程的三个步骤来进行优化的。 树型结构,可想而知,算法效率决定于树的深度,优化这方面主要从特征选择方向上优化。 提高分类性能是最重要的优化目标,其主要也是特征选择。 面对过拟合问题,一般使用剪枝来优化,如:李国和基于决策树生成及剪枝的数据集优化及其应用。 同时,决策树有很多不足,如:多值偏向、计算效率低下、对数据空缺较为敏感等,这方面的优化也有很多,大部分也是特征选择方向,如:陈沛玲使用粗糙集进行特征降维。 由此,决策树的优化方向大多都是特征选择方向,像ID3、C4.5、CART都是基于特征选择进行优化。

参考文献 统计学习方法-李航 特征选择方法综述-李郅琴 决策树分类算法优化研究_陈沛玲 基于决策树生成及剪枝的数据集优化及其应用-李国和

决策树算法有很多种,比喻有ID3(利用信息增益来选择决策变量),C4.5(利用信息增益率来选择决策变量),CART,chain以及quest等,不同的决策树适用情况也不一样,有机会可以多多交流。。

决策树算法研究论文

数据挖掘的算法及技术的应用的研究论文

摘要: 数据挖掘是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中发现隐含的、规律性的、人们事先未知的, 但又是潜在有用的并且最终可被理解的信息和知识的非平凡过程。任何有数据管理和知识发现需求的地方都可以借助数据挖掘技术来解决问题。本文对数据挖掘的算法以及数据挖掘技术的应用展开研究, 论文对数据挖掘技术的应用做了有益的研究。

关键词: 数据挖掘; 技术; 应用;

引言: 数据挖掘技术是人们长期对数据库技术进行研究和开发的结果。起初各种商业数据是存储在计算机的数据库中的, 然后发展到可对数据库进行查询和访问, 进而发展到对数据库的即时遍历。数据挖掘使数据库技术进入了一个更高级的阶段, 它不仅能对过去的数据进行查询和遍历, 并且能够找出过去数据之间的潜在联系, 从而促进信息的传递。

一、数据挖掘概述

数据挖掘是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中发现隐含的、规律性的、人们事先未知的, 但又是潜在有用的并且最终可被理解的信息和知识的非平凡过程。

二、数据挖掘的基本过程

(1) 数据选择:选择与目标相关的数据进行数据挖掘。根据不同的数据挖掘目标, 对数据进行处理, 不仅可以排除不必要的数据干扰, 还可以极大地提高数据挖掘的效率。 (2) 数据预处理:主要进行数据清理、数据集成和变换、数据归约、离散化和概念分层生成。 (3) 模式发现:从数据中发现用户感兴趣的模式的过程.是知识发现的主要的处理过程。 (4) 模式评估:通过某种度量得出真正代表知识的模式。一般来说企业进行数据挖掘主要遵循以下流程——准备数据, 即收集数据并进行积累, 此时企业就需要知道其所需要的是什么样的数据, 并通过分类、编辑、清洗、预处理得到客观明确的目标数据。数据挖掘这是最为关键的步骤, 主要是针对预处理后的数据进行进一步的挖掘, 取得更加客观准确的数据, 方能引入决策之中, 不同的企业可能采取的数据挖掘技术不同, 但在当前来看暂时脱离不了上述的挖掘方法。当然随着技术的进步, 大数据必定会进一步成为企业的立身之本, 在当前已经在很多领域得以应用。如市场营销, 这是数据挖掘应用最早的领域, 旨在挖掘用户消费习惯, 分析用户消费特征进而进行精准营销。就以令人深恶痛绝的弹窗广告来说, 当消费者有网购习惯并在网络上搜索喜爱的产品, 当再一次进行搜索时, 就会弹出很多针对消费者消费习惯的商品。

三、数据挖掘方法

1、聚集发现。

聚集是把整个数据库分成不同的群组。它的目的是要群与群之间差别很明显.而同一个群之间的数据尽量相似.聚集在电子商务上的典型应用是帮助市场分析人员从客户基本库中发现不同的客户群, 并且用购买模式来刻画不同客户群的特征。此外聚类分析可以作为其它算法 (如特征和分类等) 的预处理步骤, 这些算法再在生成的簇上进行处理。与分类不同, 在开始聚集之前你不知道要把数据分成几组, 也不知道怎么分 (依照哪几个变量) .因此在聚集之后要有一个对业务很熟悉的人来解释这样分群的意义。很多情况下一次聚集你得到的分群对你的业务来说可能并不好, 这时你需要删除或增加变量以影响分群的方式, 经过几次反复之后才能最终得到一个理想的结果.聚类方法主要有两类, 包括统计方法和神经网络方法.自组织神经网络方法和K-均值是比较常用的`聚集算法。

2、决策树。

这在解决归类与预测上能力极强, 通过一系列的问题组成法则并表达出来, 然后经过不断询问问题导出所需的结果。典型的决策树顶端是一个树根, 底部拥有许多树叶, 记录分解成不同的子集, 每个子集可能包含一个简单法则。

四、数据挖掘的应用领域

4.1市场营销

市场销售数据采掘在销售业上的应用可分为两类:数据库销售和篮子数据分析。前者的任务是通过交互式查询、数据分割和模型预测等方法来选择潜在的顾客以便向它们推销产品, 而不是像以前那样盲目地选择顾客推销;后者的任务是分析市场销售数据以识别顾客的购买行为模式, 从而帮助确定商店货架的布局排放以促销某些商品。

4.2金融投资

典型的金融分析领域有投资评估和股票交易市场预测, 分析方法一般采用模型预测法。这方面的系统有Fidelity Stock Selector, LBS Capital Management。前者的任务是使用神经网络模型选择投资, 后者则使用了专家系统、神经网络和基因算法技术辅助管理多达6亿美元的有价证券。

结论:数据挖掘是一种新兴的智能信息处理技术。随着相关信息技术的迅猛发展, 数据挖掘的应用领域不断地拓宽和深入, 特别是在电信、军事、生物工程和商业智能等方面的应用将成为新的研究热点。同时, 数据挖掘应用也面临着许多技术上的挑战, 如何对复杂类型的数据进行挖掘, 数据挖掘与数据库、数据仓库和Web技术等技术的集成问题, 以及数据挖掘的可视化和数据质量等问题都有待于进一步研究和探索。

参考文献

[1]孟强, 李海晨.Web数据挖掘技术及应用研究[J].电脑与信息技术, 2017, 25 (1) :59-62.

[2]高海峰.智能交通系统中数据挖掘技术的应用研究[J].数字技术与应用, 2016 (5) :108-108.

关于决策树算法,我打算分两篇来讲,一篇讲思想原理,另一篇直接撸码来分析算法。本篇为原理篇。 通过阅读这篇文章,你可以学到: 1、决策树的本质 2、决策树的构造过程 3、决策树的优化方向

决策树根据使用目的分为:分类树和回归树,其本质上是一样的。本文只讲分类树。

决策树,根据名字来解释就是,使用树型结构来模拟决策。 用图形表示就是下面这样。

其中椭圆形代表:特征或属性。长方形代表:类别结果。 面对一堆数据(含有特征和类别),决策树就是根据这些特征(椭圆形)来给数据归类(长方形) 例如,信用贷款问题,我根据《神奇动物在哪里》的剧情给银行造了个决策树模型,如下图:

然而,决定是否贷款可以根据很多特征,然麻鸡银行选择了:(1)是否房产价值>100w;(2)是否有其他值钱的抵押物;(3)月收入>10k;(4)是否结婚;这四个特征,来决定是否给予贷款。 先不管是否合理,但可以肯定的是,决策树做了特征选择工作,即选择出类别区分度高的特征。

由此可见, 决策树其实是一种特征选择方法。 (特征选择有多种,决策树属于嵌入型特征选择,以后或许会讲到,先给个图)即选择区分度高的特征子集。

那么, 从特征选择角度来看决策树,决策树就是嵌入型特征选择技术

同时,决策树也是机器学习中经典分类器算法,通过决策路径,最终能确定实例属于哪一类别。 那么, 从分类器角度来看决策树,决策树就是树型结构的分类模型

从人工智能知识表示法角度来看,决策树类似于if-then的产生式表示法。 那么, 从知识表示角度来看决策树,决策树就是if-then规则的集合

由上面的例子可知,麻鸡银行通过决策树模型来决定给哪些人贷款,这样决定贷款的流程就是固定的,而不由人的主观情感来决定。 那么, 从使用者角度来看决策树,决策树就是规范流程的方法

最后我们再来看看决策树的本质是什么已经不重要了。 决策树好像是一种思想,而通过应用在分类任务中从而成就了“决策树算法”。

下面内容还是继续讲解用于分类的“决策树算法”。

前面讲了决策树是一种 特征选择技术 。

既然决策树就是一种特征选择的方法,那么经典决策树算法其实就是使用了不同的特征选择方案。 如: (1)ID3:使用信息增益作为特征选择 (2)C4.5:使用信息增益率作为特征选择 (3)CART:使用GINI系数作为特征选择 具体选择的方法网上一大把,在这里我提供几个链接,不细讲。

但,不仅仅如此。 决策树作为嵌入型特征选择技术结合了特征选择和分类算法,根据特征选择如何生成分类模型也是决策树的一部分。 其生成过程基本如下:

根据这三个步骤,可以确定决策树由:(1)特征选择;(2)生成方法;(3)剪枝,组成。 决策树中学习算法与特征选择的关系如下图所示:

原始特征集合T:就是包含收集到的原始数据所有的特征,例如:麻瓜银行收集到与是否具有偿还能力的所有特征,如:是否结婚、是否拥有100w的房产、是否拥有汽车、是否有小孩、月收入是否>10k等等。 中间的虚线框就是特征选择过程,例如:ID3使用信息增益、C4.5使用信息增益率、CART使用GINI系数。 其中评价指标(如:信息增益)就是对特征的要求,特征需要满足这种条件(一般是某个阈值),才能被选择,而这一选择过程嵌入在学习算法中,最终被选择的特征子集也归到学习算法中去。 这就是抽象的决策树生成过程,不论哪种算法都是将这一抽象过程的具体化。 其具体算法我将留在下一篇文章来讲解。

而决策树的剪枝,其实用得不是很多,因为很多情况下随机森林能解决决策树带来的过拟合问题,因此在这里也不讲了。

决策树的优化主要也是围绕决策树生成过程的三个步骤来进行优化的。 树型结构,可想而知,算法效率决定于树的深度,优化这方面主要从特征选择方向上优化。 提高分类性能是最重要的优化目标,其主要也是特征选择。 面对过拟合问题,一般使用剪枝来优化,如:李国和基于决策树生成及剪枝的数据集优化及其应用。 同时,决策树有很多不足,如:多值偏向、计算效率低下、对数据空缺较为敏感等,这方面的优化也有很多,大部分也是特征选择方向,如:陈沛玲使用粗糙集进行特征降维。 由此,决策树的优化方向大多都是特征选择方向,像ID3、C4.5、CART都是基于特征选择进行优化。

参考文献 统计学习方法-李航 特征选择方法综述-李郅琴 决策树分类算法优化研究_陈沛玲 基于决策树生成及剪枝的数据集优化及其应用-李国和

决策树毕业论文参考文献

基于Python的SIFT和KCF的运动目标匹配与跟踪 毕业论文+项目源码基于Python决策树算法的学生学习行为数据分析 设计报告+代码及数据基于Sring+bootstrap+MySQL的住房公积金管理系统 课程报告+项目源码及数据库文件基于C++的即时通信软件设计 毕业论文+项目源码

GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力较强的算法。   GBDT中的树是回归树(不是分类树),GBDT用来做回归预测,调整后也可以用于分类。   GBDT的思想使其具有天然优势可以发现多种有区分性的特征以及特征组合。业界中,Facebook使用其来自动发现有效的特征、特征组合,来作为LR模型中的特征,以提高 CTR预估(Click-Through Rate Prediction)的准确性(详见参考文献5、6);GBDT在淘宝的搜索及预测业务上也发挥了重要作用(详见参考文献7)。 回归树总体流程类似于分类树,区别在于,回归树的每一个节点都会得一个预测值,以年龄为例,该预测值等于属于这个节点的所有人年龄的平均值。分枝时穷举每一个feature的每个阈值找最好的分割点,但衡量最好的标准不再是最大熵,而是最小化平方误差。也就是被预测出错的人数越多,错的越离谱,平方误差就越大,通过最小化平方误差能够找到最可靠的分枝依据。分枝直到每个叶子节点上人的年龄都唯一或者达到预设的终止条件(如叶子个数上限),若最终叶子节点上人的年龄不唯一,则以该节点上所有人的平均年龄做为该叶子节点的预测年龄。(引用自一篇博客,详见参考文献3)   回归树算法如下图(截图来自《统计学习方法》5.5.1 CART生成): 提升树是迭代多棵回归树来共同决策。当采用平方误差损失函数时,每一棵回归树学习的是之前所有树的结论和残差,拟合得到一个当前的残差回归树,残差的意义如公式:残差 = 真实值 - 预测值 。提升树即是整个迭代过程生成的回归树的累加。   举个例子,参考自一篇博客(参考文献 4),该博客举出的例子较直观地展现出多棵决策树线性求和过程以及残差的意义。   训练一个提升树模型来预测年龄:   训练集是4个人,A,B,C,D年龄分别是14,16,24,26。样本中有购物金额、上网时长、经常到百度知道提问等特征。提升树的过程如下: 该例子很直观的能看到,预测值等于所有树值得累加,如A的预测值 = 树1左节点 值 15 + 树2左节点 -1 = 14。   因此,给定当前模型 fm-1(x),只需要简单的拟合当前模型的残差。现将回归问题的提升树算法叙述如下: 提升树利用加法模型和前向分步算法实现学习的优化过程。当损失函数时平方损失和指数损失函数时,每一步的优化很简单,如平方损失函数学习残差回归树。   但对于一般的损失函数,往往每一步优化没那么容易,如上图中的绝对值损失函数和Huber损失函数。针对这一问题,Freidman提出了梯度提升算法:利用最速下降的近似方法,即利用损失函数的负梯度在当前模型的值,作为回归问题中提升树算法的残差的近似值,拟合一个回归树。(注:鄙人私以为,与其说负梯度作为残差的近似值,不如说残差是负梯度的一种特例)算法如下(截图来自《The Elements of Statistical Learning》): 算法步骤解释: 推荐GBDT树的深度:6;(横向比较:DecisionTree/RandomForest需要把树的深度调到15或更高)   以下摘自知乎上的一个问答(详见参考文献8),问题和回复都很好的阐述了这个参数设置的数学原理。   【问】xgboost/gbdt在调参时为什么树的深度很少就能达到很高的精度?   用xgboost/gbdt在在调参的时候把树的最大深度调成6就有很高的精度了。但是用DecisionTree/RandomForest的时候需要把树的深度调到15或更高。用RandomForest所需要的树的深度和DecisionTree一样我能理解,因为它是用bagging的方法把DecisionTree组合在一起,相当于做了多次DecisionTree一样。但是xgboost/gbdt仅仅用梯度上升法就能用6个节点的深度达到很高的预测精度,使我惊讶到怀疑它是黑科技了。请问下xgboost/gbdt是怎么做到的?它的节点和一般的DecisionTree不同吗?   【答】   这是一个非常好的问题,题主对各算法的学习非常细致透彻,问的问题也关系到这两个算法的本质。这个问题其实并不是一个很简单的问题,我尝试用我浅薄的机器学习知识对这个问题进行回答。   一句话的解释,来自周志华老师的机器学习教科书( 机器学习-周志华):Boosting主要关注降低偏差,因此Boosting能基于泛化性能相当弱的学习器构建出很强的集成;Bagging主要关注降低方差,因此它在不剪枝的决策树、神经网络等学习器上效用更为明显。   随机森林(random forest)和GBDT都是属于集成学习(ensemble learning)的范畴。集成学习下有两个重要的策略Bagging和Boosting。   Bagging算法是这样做的:每个分类器都随机从原样本中做有放回的采样,然后分别在这些采样后的样本上训练分类器,然后再把这些分类器组合起来。简单的多数投票一般就可以。其代表算法是随机森林。Boosting的意思是这样,他通过迭代地训练一系列的分类器,每个分类器采用的样本分布都和上一轮的学习结果有关。其代表算法是AdaBoost, GBDT。   其实就机器学习算法来说,其泛化误差可以分解为两部分,偏差(bias)和方差(variance)。这个可由下图的式子导出(这里用到了概率论公式D(X)=E(X 2)-[E(X)] 2)。偏差指的是算法的期望预测与真实预测之间的偏差程度,反应了模型本身的拟合能力;方差度量了同等大小的训练集的变动导致学习性能的变化,刻画了数据扰动所导致的影响。这个有点儿绕,不过你一定知道过拟合。   如下图所示,当模型越复杂时,拟合的程度就越高,模型的训练偏差就越小。但此时如果换一组数据可能模型的变化就会很大,即模型的方差很大。所以模型过于复杂的时候会导致过拟合。   当模型越简单时,即使我们再换一组数据,最后得出的学习器和之前的学习器的差别就不那么大,模型的方差很小。还是因为模型简单,所以偏差会很大。   也就是说,当我们训练一个模型时,偏差和方差都得照顾到,漏掉一个都不行。   对于Bagging算法来说,由于我们会并行地训练很多不同的分类器的目的就是降低这个方差(variance) ,因为采用了相互独立的基分类器多了以后,h的值自然就会靠近.所以对于每个基分类器来说,目标就是如何降低这个偏差(bias),所以我们会采用深度很深甚至不剪枝的决策树。   对于Boosting来说,每一步我们都会在上一轮的基础上更加拟合原数据,所以可以保证偏差(bias),所以对于每个基分类器来说,问题就在于如何选择variance更小的分类器,即更简单的分类器,所以我们选择了深度很浅的决策树。 最近引起关注的一个Gradient Boosting算法:xgboost,在计算速度和准确率上,较GBDT有明显的提升。xgboost 的全称是eXtreme Gradient Boosting,它是Gradient Boosting Machine的一个c++实现,作者为正在华盛顿大学研究机器学习的大牛陈天奇 。xgboost最大的特点在于,它能够自动利用CPU的多线程进行并行,同时在算法上加以改进提高了精度。它的处女秀是Kaggle的 希格斯子信号识别竞赛,因为出众的效率与较高的预测准确度在比赛论坛中引起了参赛选手的广泛关注。值得我们在GBDT的基础上对其进一步探索学习。 参考文献 1、《The Elements of Statistical Learning》 2、《统计学习方法》 3、 4、 5、 6、《Practical Lessons from Predicting Clicks on Ads at Facebook》 7、 8、

你可以到七七计算机毕业论文的毕业设计题目列表中找一份。有完整的论文和源码等,很详细

[6] 陈晓燕,沈思玮. 成长性企业财务特征研究[J]. 科学技术与工程, 2008,(24) . [7] 王琦,封彦. 考虑信用风险的中小上市公司成长性评价研究[J]. 财经理论与实践, 2008,(05) . [1] 李秀芹,林建华,高成亮. 企业成长性的财务评价[J]. 商场现代化, 2009,(01) . [2] 张俊瑞,李彬. 基于财务信息视角的高新技术上市公司成长性评价研究[J]. 科技进步与对策, 2009,(01) . [3] 符林,刘轶芳,迟国泰. 上市公司的成长性判定方法与实证研究[J]. 财经问题研究, 2008,(06) . [4] 范慧慧,黄江红. 我国高科技上市公司成长性影响因素的实证研究[J]. 中国科技论坛, 2008,(06) . [5]剖析中小上市公司高低成长性[J]. 资本市场, 2008,(07) . [6] 陈晓燕,沈思玮. 成长性企业财务特征研究[J]. 科学技术与工程, 2008,(24) . [7] 王琦,封彦. 考虑信用风险的中小上市公司成长性评价研究[J]. 财经理论与实践, 2008,(05) . [8] 金燕华,雷智伟. 决策树方法在上市公司成长性预测中的应用研究[J]. 山西财经大学学报, 2008,(S2) . [9] 赖国毅. 工业企业上市公司成长性的归因分析[J]. 四川教育学院学报, 2007,(01) . [10] 焦波. 中小企业的成长性评估[J]. 商场现代化, 2009,(05) . [1] 吴树畅. 企业财务政策选择的原则和影响因素[J]. 财会月刊, 2006,(18) . [2] 汤孟飞. 企业财务政策体系选择因素分析[J]. 现代商业, 2010,(12) . [3] 杨婷婷,薄建奎. 浅析基于可持续增长的上市公司财务政策选择——以某上市公司为例[J]. 中国集体经济, 2010,(18) .希望采纳

决策树论文参考文献

基于Python的SIFT和KCF的运动目标匹配与跟踪 毕业论文+项目源码基于Python决策树算法的学生学习行为数据分析 设计报告+代码及数据基于Sring+bootstrap+MySQL的住房公积金管理系统 课程报告+项目源码及数据库文件基于C++的即时通信软件设计 毕业论文+项目源码

你的论文准备往什么方向写,选题老师审核通过了没,有没有列个大纲让老师看一下写作方向? 老师有没有和你说论文往哪个方向写比较好?写论文之前,一定要写个大纲,这样老师,好确定了框架,避免以后论文修改过程中出现大改的情况!!学校的格式要求、写作规范要注意,否则很可能发回来重新改,你要还有什么不明白或不懂可以问我,希望你能够顺利毕业,迈向新的人生。 (一)选题毕业论文(设计)题目应符合本专业的培养目标和教学要求,具有综合性和创新性。本科生要根据自己的实际情况和专业特长,选择适当的论文题目,但所写论文要与本专业所学课程有关。(二)查阅资料、列出论文提纲题目选定后,要在指导教师指导下开展调研和进行实验,搜集、查阅有关资料,进行加工、提炼,然后列出详细的写作提纲。(三)完成初稿根据所列提纲,按指导教师的意见认真完成初稿。(四)定稿初稿须经指导教师审阅,并按其意见和要求进行修改,然后定稿。一般毕业论文题目的选择最好不要太泛,越具体越好,而且老师希望学生能结合自己学过的知识对问题进行分析和解决。不知道你是否确定了选题,确定选题了接下来你需要根据选题去查阅前辈们的相关论文,看看人家是怎么规划论文整体框架的;其次就是需要自己动手收集资料了,进而整理和分析资料得出自己的论文框架;最后就是按照框架去组织论文了。你如果需要什么参考资料和范文我可以提供给你。还有什么不了解的可以直接问我,希望可以帮到你,祝写作过程顺利毕业论文选题的方法: 一、尽快确定毕业论文的选题方向 在毕业论文工作布置后,每个人都应遵循选题的基本原则,在较短的时间内把选题的方向确定下来。从毕业论文题目的性质来看,基本上可以分为两大类:一类是社会主义现代化建设实践中提出的理论和实际问题;另一类是专业学科本身发展中存在的基本范畴和基本理论问题。大学生应根据自己的志趣和爱好,尽快从上述两大类中确定一个方向。二、在初步调查研究的基础上选定毕业论文的具体题目在选题的方向确定以后,还要经过一定的调查和研究,来进一步确定选题的范围,以至最后选定具体题目。下面介绍两种常见的选题方法。 浏览捕捉法 :这种方法就是通过对占有的文献资料快速地、大量地阅读,在比较中来确定论文题目地方法。浏览,一般是在资料占有达到一定数量时集中一段时间进行,这样便于对资料作集中的比较和鉴别。浏览的目的是在咀嚼消化已有资料的过程中,提出问题,寻找自己的研究课题。这就需要对收集到的材料作一全面的阅读研究,主要的、次要的、不同角度的、不同观点的都应了解,不能看了一些资料,有了一点看法,就到此为止,急于动笔。也不能“先入为主”,以自己头脑中原有的观点或看了第一篇资料后得到的看法去决定取舍。而应冷静地、客观地对所有资料作认真的分析思考。在浩如烟海,内容丰富的资料中吸取营养,反复思考琢磨许多时候之后,必然会有所发现,这是搞科学研究的人时常会碰到的情形。 浏览捕捉法一般可按以下步骤进行: 第一步,广泛地浏览资料。在浏览中要注意勤作笔录,随时记下资料的纲目,记下资料中对自己影响最深刻的观点、论据、论证方法等,记下脑海中涌现的点滴体会。当然,手抄笔录并不等于有言必录,有文必录,而是要做细心的选择,有目的、有重点地摘录,当详则详,当略则略,一些相同的或类似的观点和材料则不必重复摘录,只需记下资料来源及页码就行,以避免浪费时间和精力。 第二步,是将阅读所得到的方方面面的内容,进行分类、排列、组合,从中寻找问题、发现问题,材料可按纲目分类,如分成: 系统介绍有关问题研究发展概况的资料; 对某一个问题研究情况的资料; 对同一问题几种不同观点的资料; 对某一问题研究最新的资料和成果等等。 第三步,将自己在研究中的体会与资料分别加以比较,找出哪些体会在资料中没有或部分没有;哪些体会虽然资料已有,但自己对此有不同看法;哪些体会和资料是基本一致的;哪些体会是在资料基础上的深化和发挥等等。经过几番深思熟虑的思考过程,就容易萌生自己的想法。把这种想法及时捕捉住,再作进一步的思考,选题的目标也就会渐渐明确起来。

计算机毕业设计 基于Python的SIFT和KCF的运动目标匹配与跟踪 毕业论文+项目源码 基于Python决策树算法的学生学习行为数据分析 设计报告+代码及数据 基于Sring+bootstrap+MySQL的住房公积金管理系统 课程报告+项目源码及数据库文件 基于C++的即时通信软件设计 毕业论文+项目源码 基于JavaWeb+MySQL的图书管理系统 课程报告+项目源码及数据库文件 基于Android Studio+Android SDK的手机通讯录管理软件设计 课程报告+项目源码 基于JSP+MySQL的校园网上订餐系统 毕业论文+项目源码及数据库文件 基于AndroidStudio的花艺分享平台APP设计 报告+源码及APK文件 基于Python的酒店评论情感分析 课程报告+答辩PPT+项目源码 基于QT的教务选课管理系统设计与实现 毕业论文+项目源码 基于Android+Springboot+Mybatis+Mysql的个人生活APP设计 说明书+项目源码 基于Vue.js+Go的Web3D宇宙空间数据可视化系统 设计报告+前后端源码及数据 基于java+android+SQLite的保健型果饮在线销售APP设计 毕业论文+源码数据库及APK文件 基于Vue.js+SpringBoot+MyBatis+MySQL的高校综合资源发布分享社交二手平台 毕业论文+项目源码及数据库文件+演示视频 基于Delphi+MySQL的大学生竞赛发布及组队系统 设计报告+源码数据库及可执行文件+使用说明书 基于Android的名片信息管理系统设计与实现 毕业论文+任务书+外文翻译及原文+演示视频+项目源码 基于Python的电影数据可视化分析系统 设计报告+答辩PPT+项目源码 基于JavaWeb的企业公司管理系统设计与实现 毕业论文+答辩PPT+演示视频+项目源码 高校成绩管理数据库系统的设计与实现 毕业论文+项目源码 基于JavaWeb的家庭食谱管理系统设计与实现 毕业论文+项目源码及数据库文件 基于Python+SQLSERVER的快递业务管理系统的设计与实现 毕业论文+项目源码及数据库文件 基于Python的语音词频提取云平台 设计报告+设计源码 在推荐系统中引入 Serendipity 的算法研究 毕业论文+参考文献+项目源码 基于Html+Python+Django+Sqlite的机票预订系统 毕业论文+项目源码及数据库文件 基于Python的卷积神经网络的猫狗图像识别系统 课程报告+项目源码 基于C++的云安全主动防御系统客户端服务端设计 毕业论文+项目源码 基于JavaSSM的学生成绩管理APP系统设计与实现 毕业论文+答辩PPT+前后台源码及APK文件 基于JavaSwing+MySQL的清朝古代名人数据管理系统设计 毕业论文+任务书+项目源码及数据库文件 基于Python_Django的社会实践活动管理系统设计与实现 毕业论文 基于Servlet WebSocket MySQL实现的网络在线考试系统 毕业论文+项目源码 基于JavaWEB+MySQL的学生成绩综合管理系统 毕业论文+项目源码及数据库文件 基于SpringBoot+Vue和MySQL+Redis的网络课程平台设计与实现 毕业论文+任务书+开题报告+中期报告+初稿+前后台项目源码 基于Java的毕业设计题目收集系统 课程报告+项目源码 基于Java+Python+html的生产者与消费者算法模拟 毕业论文+任务书+项目源码 基于JavaWeb+MySQL的学院党费缴费系统 毕业论文+项目源码及数据库文件 基于Java+MySQL的学生成绩管理系统 毕业论文+任务书+答辩PPT+项目源码及数据库文件 基于Java+MySQL的学生和客户信息管理系统 课程报告+项目源码及数据库文件 基于Java的长整数加减法算法设计 毕业论文+项目源码 基于vue+MySQL的毕业设计网上选题系统 毕业论文+项目源码 基于背景建模和FasterR-CNN的视频前景和目标检测 毕业论文+答辩PPT+项目源码 基于Python的智能视频分析之人数统计的多种实现 毕业论文+答辩PPT+项目源码 基于C#+SQL server的校园卡消费信息管理系统 毕业论文+项目源码及数据库文件

摘要:运用决策树的方法,通过对企业物流方式的阐述,说明了企业物流自营与外包问题的决策分析过程。首先论述了企业物流自营和外包各自的优势;给出了物流外包决策的三个基本准则;并对企业物流外包进行决策分析;研究了安治化工实施物流外包的实际案例,详细地分析了物流外包的动因及产生的经济效益。最后,进行了总结。关键词:物流自营;物流外包;决策分析目前国内外关于自营与外包的研究绝大多数采用定性分析的方法,这种方法比较直观,但缺乏系统性和精确性,特别是对于比较复杂的决策问题,其决策的科学性受到质疑,决策结果的使用性较差。本文采用决策树的方法对物流自营与外包进行详尽分析,这种方法能够更加准确揭示企业物流运营模式内在机理,给出的企业物流自营与外包问题的决策分析过程更加接近实际,并还以安治化工为例进行了实证研究。1.企业物流外包决策分析物流外包决策是一个复杂的过程,决定是否将企业的物流业务外包,哪些项目外包,采取多大程度的外包?都是企业进行物流外包决策所面临的问题。1.1企业物流外包决策影响因素分析在供应链构建中,具体企业应根据企业的实际情况来确定是否将物流业务外包。笔者认为从分析每一项物流功能的战略性、企业针对此项物流功能的运作水平、运作能力这三个因素来分析是比较合理的。具体因素的意义如下:(1)系统战略性。即判断物流功能是否构成了企业的核心竞争力,对整个企业来说是否具有战略意义。(2)物流运作水平。主要指企业物流运作能力和管理控制能力,即是否具有成熟的物流经验,能否提高服务水平、降低物流成本。(3)企业物流能力。主要指企业开展物流业务的硬件能力,即是否具有设施、资金和人才能力。1.2企业物流外包决策树依据以上三个决策准则,画出物流外包的决策树,如图1所示。其决策结果如表1所示。(1)当物流子功能具有战略重要性,对企业的重要程度大时,一般将采取物流自营;而当物流子功能不具有战略重要性,对企业的重要程度不大时,一般考虑外包,使用第三方物流。针对自身的弱点,寻找合适的合作伙伴,提升竞争力。(2)物流子功能不具有战略重要性,对企业构筑核心竞争力的作用不大,且企业缺乏开展此项物流业务的设施、资金、人力,也没有相关运作经验,运作水平比较低时,就应该选择此项物流功能完全外包,这将有助于企业培养自身的竞争优势,提高客户服务水平。(3)当物流子功能具有战略重要性,对企业构筑核心竞争力的作用很大,且企业具有开展此项物流业务的实施、资金、人力,而且具有成熟的物流运作经验,能够实现成本领先时,就应该自营物流。1.3 物流外包的实施策略分析随着外部环境和企业自身资源条件的发展变化,物流地位和物流能力等因素发生变化后,企业的物流策略也会发生相应的改变,但通常情况下将不会构成企业核心竞争力。对企业重要性低且企业本身缺乏物流合作的资金、设施和物流运作能力的物流功能,选择优先外包。随着控制物流外包风险的能力和管理控制第三方物流的水平提高后,逐步扩大外包的程度(如图2);随着供应链管理的完善,第三方物流服务水平的进一步提高,实践中越来越多的企业使用单一的第三方物流公司提供全方位的系统化物流服务和物流解决方案,一方面便于双方的信息沟通和加强双方的合作关系,另一方面第三方物流服务绩效的评价、监控,能够更加有效地改进合作关系,提高服务水平,供应链管理下的企业物流战略将有新的发展。2.安治化工物流决策分析2.1安治化工简介安治化工NCH CHEMICAL是1919年成立的全球性跨国企业,总部设于美国,于1981年进入中国,总部设在上海。到现在为止,销售服务已遍布全国各大城市。近几年迅速扩张,业务量以每年30%的速度增长,以至于原来的物流体系已经远远跟不上发展的需要,物流运作的瓶颈凸现出来。因此优化价值链、提升企业物流运作水平成为安治化工的战略性选择。2.2安治化工物流外包决策过程2.2.1原有物流系统运营模式存在的问题及其原因(1)物流活动自营比重大,分散了企业核心业务的精力。从生产厂转运至各办事处及办事处直接发往客户的货物都是由办事处自备车辆完成,因而车辆空返率极高。各办事处为了完成各自的收、发货等服务职能,皆配备有18~20名工作人员,在当地自建或租赁仓库。大量的自备运力和仓储增大了企业物流费用。 (2)运输费用没有得到有效控制。由于管理缺乏力度,各办事处有独立的运输成本核算方法,一味的追求及时送货,因此不能做到批量送货,形成没有必要的迂回,造成不必要的浪费。而且由于部分员工乘送货之机办私事也影响了工作效率,增加了运输费用。(3)存在负利润物流。各办事处的销售量各不相同,大的业务量上千万,小的业务量只有几十万。而各办事处物流费用却相差无几,以至于有的办事处物流费用大于其销售收入,形成负利润物流。(4)顾客服务的满意度低。由于办事处过于分散,顾客订单满足率非常低,造成客户流失率升高。因为当同样的库存满足同样的市场需求的时候,库存越集中其满足度就越高。(5)为了提高客户满意度,整个系统库存过高。随着销售额的扩大,各地仓库的要货量也在上升,为了防止大面积缺货,并维持各个仓库的安全库存,从而保证客户满意度,各办事处向总部订货的数量更被放大,这就导致了牛鞭效应———分公司仓库的库存额大幅度增加,因此也就要求租用更大的仓库。(6)物流管理系统不完备。虽然上海总部有订单处理及库存管理系统,但各办事处的电脑、网络与软件基本上处于初级应用阶段,经常帐实不符。有时由于销售员在没有订单的前提下直接私自提货或由于库管人员疏于管理,导致与总部帐实不符情况频繁出现。上述物流活动问题的存在,分散了企业的总体精力,增加了物流费用,降低了生产利润率,严重阻碍了公司的发展。因此,该公司要重新进行物流系统规划,考虑是否将物流业务外包出去,并且如何进行外包。2.2.2利用决策树进行物流外包决策分析根据前面给出的三个决策准则来判断安治化工究竟要采取哪种决策路径来解决上面出现的种种问题,分析具体情况如表2所示。从表2可以看出,物流子系统对企业发展具有战略重要性,且企业既不具有物流运作水平,又没有物流运作的硬件设施,那么企业就应该寻找强有力的合作伙伴,通过建立战略联盟的伙伴关系来共担风险,共享收益,即选择决策路径4。针对目前物流工作中存在的问题,2006年开始,公司决定将运输和部分仓储外包于宅急送。2.2.3安治化工问题解决方案安治化工进行了以下几方面的改革,逐步解决以上一系列问题。(1)物流系统重构,建立直达配送体系;(2)实行商物分离,办事处只负责市场推广,取消各自的小仓库;(3)全国设4个区域配送中心,分别设在北京、上海、深圳、武汉;(4)产品从上海工厂经干线运输直接运至4个配送中心,各配送中心只负责本区域的产品配送;(5)与宅急送结成战略联盟伙伴关系,由其负责对安治化工产品的全部配送服务;(6)偏远地区存在的库存盲点以及受季节性波动导致的仓库资源不足,由宅急送负责存储、配送,并且从生产厂下线后直接运到宅急送的仓库。2.2.4物流外包实效分析实践证明,宅急送在资源管理、生产保证、优化成本方面发挥了重要的作用。宅急送作为第三方物流合作伙伴,通过高水平服务,物流成本最低,生产不停产,满足了安治化工的发展需要,分析如下:(1)建立了高效的、以条形码为核心的物流系统。安治化工投入了近百万元购买了设备和软件系统,实现异地配送中心和总部物流系统形成点对点的对接。一方面是企业决策层可以随时了解总部物流中心和异地配送中心的实时库存,从而保证了库存的最小化,降低库存资金积压;另一方面最大程度缩短了信息交流时间,减少了信息交流成本。(2)物流效率提高。对所有客户基本可以实现自确认客户订单后2天内到货的承诺,部分客户甚至可以实现当天到货,这将大大有利于企业的销售,有利于缩短资金周转周期;同时,有效提高了对高频率、小批量的零散订单的履行能力。原来产品送货单是手工填写,容易出现错误,而且工作量大,现在采用电脑打单,统一了格式,容易跟踪、结算方便。(3)仓库成本下降。首先,由于配送中心减至4个,仓库租金可以大幅下降。再者,由于进出库作业都是在条形码管理基础上完成,所以工作量大幅下降,营运人员由原来全国超过400人,减至现在不足170人,随之产生的人事费用也有显著下降。仓库总成本一年可节约200万元。(4)运输成本总体下降。由于安治化工将配送统一外包给宅急送,一方面降低了企业的管理难度,有利于提高企业的核心竞争力,另一方面实现了规模经济,也降低了物流成本,仅运输成本每年可节约100万元左右。(5)加快建立现代企业制度和推行ISO9000族标准管理模式。打破旧的思维模式,输入强烈的市场经济观念,用现代企业管理制度代替旧的管理模式,规范每一个作业环节、程序和责任人。3.结束语企业物流的外包与自营并不是绝对对立的,两者可以优势互补,共同服务于企业的发展。另外,企业在选择物流方式的时候,应该从实际情况出发,结合自身企业的核心竞争力、现有物流状况和物流外包市场的成熟程度等内外部因素来确定物流外包的范围和程度。一定要视自身的具体情况而定,既不可盲目地仿效大企业投资于自身物流建设,也不可忽视自身物流管理经验的积累和物流人才的培养,以符合企业长远发展的要求。

基于决策树模型的研究论文

只用决策树一个模型写论文不可以。决策树是一个树结构。其非叶节点表示的是一个特征属性的测试,而每个分支代表了其父节点的特征属性在某个值域的输出。

相关百科

热门百科

首页
发表服务