Hadoop部署的基本结构,MapReduce 模型中的 Master 的主控作业节点称为JobTracker,此框架下面的所有作业(Job)都是由 JobTracker 进行管理的,它是唯一存在的。TaskTracker,负责每一个具体任务的执行。任务(Task)是具体执行的基本单元,每一个作业被拆分成很多的任务,被分配到合适任务节点上去执行,任务节点一边执行分配过来的任务,一边向 JobTracker 汇报执行任务的状态,以此来帮助JobTracker 了解作业执行的整体情况,向空闲节点分配新的任务等操作。日志分析系统由客户端和Hadoop服务器组成,客户端调用Hadoop接口将日志文件存入HDFS并调用任务,这里的任务是按顺序执行的,在前一个任务执行成功后才执行下一个任务,每个任务都完成多件事,每个任务都调用map和reduce过程,最后一个任务将数据输出到HDFS的文本文件,也可以将文件输出到数据库中,最后根据统计数据进行展示。