一、hadoop组件依赖关系

二、hadoop日志格式:

  两种日志,分别以out和log结尾:

  1 以log结尾的日志:通过log4j日志记录格式进行记录的日志,采用日常滚动文件后缀策略来命名日志文件,内容比较全。

  2 以out结尾的日志:记录标准输出和标注错误的日志,内容比较少。默认的情况,系统保留最新的5个日志文件。

  可以在/etc/hadoop/hadoop-env.sh中进行配置:

 #Where log files are stored. $HADOOP_HOME/logs by default.
#export HADOOP_LOG_DIR = ${HADOOP_HOME}/logs

  日志名称的解释:

二、hadoop启动和停止:

  第一种方式:

  启动:

start-dfs.sh
start-mapred.sh(hadoop 2.x为 start-yarn.sh)

  停止:

stop-dfs.sh

stop-mapred.sh(Hadoop 2.x为 stop-yarn.sh)

  全部启动: 

start-all.sh

    启动顺序:NameNode --> DataNode --> Secondary NameNode --> JobTracker --> TaskTracker

  全部停止:

stop-all.sh

    停止顺序:JobTracker --> TaskTracker --> NameNode --> DataNode --> Secondary NameNode

  第二种方式(守护进程逐一启动和关闭):

  启动:

 hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanoe
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker

    启动顺序和上面的启动顺序一样:NameNode --> DataNode --> Secondary NameNode --> JobTracker --> TaskTracker

  停止:

 1 hadoop-daemon.sh stop jobtracker
2 hadoop-daemon.sh stop tasktracker
3 hadoop-daemon.sh stop namenode
4 hadoop-daemon.sh stop datanoe
5 hadoop-daemon.sh stop secondarynamenode

    停止顺序和上面的启动顺序一样:JobTracker --> TaskTracker --> NameNode --> DataNode --> Secondary NameNode

  第三种方式:

  启动:

start-all.sh

  停止:

stop-all.sh

三、测试

1 HDFS测试

  对HDFS文件系统进行查看文件,对文件的基本操作。

hadoop fs -put hdfs://master01:9000 /xxx  //上传文件
hadoop fs -get hdfs://master01:9000 /xxx //下载文件
hadoop fs -cat hdfs://master01:9000 /xxx //查看文件

2 MapReduce程序测试

  测试一个wordcount程序,思路是首先往文件系统中去上传一些文本文件,然后通过wordcount函数执行。

hadoop fs -mkdir /laowang/ //在HDFS中创建一个文件夹
hadoop fs -mkdir /laowang/input //在该文件夹下再创建一个文件夹
hadoop fs -put /software/hadoop2.7.3/conf/*.xml /laowang/input/ //将我们指定的文件上传到刚刚创建的文件夹中
hadoop jar hadoop-examples-x.x.x.jar wordcount /laowang/input/ /laowang/output/ //使用wordcount函数运行。前者是输入路径,后者是输出路径

3 查看MapReduce的运行状态

  可以通过端口号50030查看MapReduce的执行状态,端口号50070查看HDFS的文件结构。

4 MapReduce Wordcount 示例图解

四、hadoop配置文件

  三大基础配置文件:

1 core-site.xml

  配置hadoop common project 的相关属性,hadoop框架的基础属性配置。

2 hdfs-site.xml

  配置HDFS project 的相关属性。

3 mapred-site.xml

  配置与MapReduce框架相关的属性。

  额外配置文件:

1 master:

  主节点,并不是配置hadoop 主节点的信息,而是配置HDFS辅助节点的信息。

2 slaves:

  从节点,配置hadoop 中HDFS和MapReduce框架的从节点信息。

五、配置文件与五大守护进程的相互联系(重要)

最新文章

  1. 文件权限及chmod使用方法
  2. java27
  3. 激活PHPStorm 2016.3
  4. @RequestMapping(value = "{adminPath}")
  5. 之前总结的今天给大分享一下iOS
  6. OpenCV人形检测Hog
  7. (转)经典SQL查询语句大全
  8. HDU 4893 线段树
  9. php redis安装
  10. spring-boot 测试
  11. JavaScript 进阶(四)解密闭包closure
  12. spring 定时任务 taskScheduler详解
  13. 快捷配置Hibernate实现对数据库的配置(构建通道)
  14. 数据库db2错误代码大全
  15. vuex学习笔记
  16. java web开发环境tomcat安装配置
  17. (整理)REHL6.5_安装本地yum
  18. NewZealand。。。
  19. 关于js键盘事件的例子
  20. Codeforces Round #381 (Div. 2)C Alyona and mex

热门文章

  1. (一)ElasticSearch-入门
  2. 基于python 3.5 所做的找出来一个字符串中最长不重复子串算法
  3. java学习笔记—HTTP协议(10)
  4. robot framework-接口测试实例一
  5. [CISCO] 简单配置 Telnet 服务
  6. 爬虫实战1:使用requests和正则爬取电影信息
  7. Azure 部署K8S(二)
  8. [转]NSProxy实现AOP方便为ios应用实现异常处理策略
  9. [原创]Laravel 的缓存源码解析
  10. CSS01--概述与选择器