环境:

操作系统:CentOS 6.5 64bit

Hadoop:Version 1.2.1

Servers:hadoopnamenode,hadoop2ndnamenode,hadoopdatanode1,hadoopdatanode2

注:为方便起见,在这4台server上,我都直接使用root账户进行操作

下载及环境变量设置:

在所有4台server上:

从Apache网站下载hadoop-1.2.1-bin.tar.gz,解压后放置在某个目录下,我放在了/usr/local下,为方便起见,我把目录hadoop-1.2.1改名为hadoop。

修改.bashrc,添加下面的环境变量:

export HADOOP_PREFIX=/usr/local/hadoop

export PATH=$PATH:$HADOOP_PREFIX/bin

配置hosts文件:

在/etc/hosts中添加:

153.65.170.11  hadoopnamenode

153.65.170.45  hadoop2ndnamenode

153.65.171.174  hadoopdatanode1

153.65.171.24  hadoopdatanode2

配置ssh

在hadoopnamenode上执行:

ssh-keygen//生成公钥、私钥

ssh-copy-id   –i   ~/.ssh/id_rsa.pub   root@hadoop2ndnamenode//将hadoopnamenode的公钥copy到其它三台server上

ssh-copy-id   –i   ~/.ssh/id_rsa.pub   root@hadoopdatanode1

ssh-copy-id   –i   ~/.ssh/id_rsa.pub   root@hadoopdatanode2

这么做的目的是可以不需要密码从hadoopnamenode上ssh到其它三台server上。经过ssh-copy-id后,这个公钥实际上会被添加到其它三台server的~/.ssh/authorized_keys文件中。

例如要从hadoopnamenode登录hadoop2ndnamenode,其流程大概是:hadoop2ndnamenode向hadoopnamenode发送一段随机字符串,hadoopnamenode用自己的私钥加密后,再发回来。hadoop2ndnamenode用事先储存的hadoopnamenode公钥进行解密,如果成功,就证明用户是可信的,直接允许登录shell,不再要求密码。

配置Hadoop

一般地,我们将使用下面的命令启动hdfs(即name node, secondary name node, data node)及MapReduce:

/usr/local/hadoop/bin/start-dfs.sh

/usr/local/hadoop/bin/start-mapred.sh

start-dfs.sh的流程大概是这样:

  1. 执行该命令的机器自动成为name node(以及job tracker),
  2. 启动/usr/local/hadoop/conf /slaves中列出的所有机器并作为data node(以及task tracker),
  3. 启动/usr/local/hadoop/conf /masters中列出的所有机器并作为secondary name node。

start-mapred.sh的流程类似:

  1. 执行该命令的机器自动成为job tracker,
  2. 启动/usr/local/hadoop/conf /slaves中列出的所有机器并作为task tracker

注:conf/masters文件往往给人带来困惑,直观上让人觉得它是为配置name node所用,但是因为(1)的原因,name node是不需要特别配置到conf/masters中,需要配置的只有secondary name node。

根据以上描述,我们可以开始修改hadoopnamenode上的masters文件,删除原内容,添加一行:

hadoop2ndnamenode

修改hadoopnamenode上的slaves文件,删除原内容,添加两行:

hadoopdatanode1

hadoopdatanode2

除此之外,需要在hadoopdatanode1与hadoopdatanode2上作出配置,使得data node知道name node,task tracker知道job tracker。所以分别修改hadoopdatanode1与hadoopdatanode2上的conf/core-site.xml:

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://hadoopnamenode:10001</value>

</property>

</configuration>

及conf/mapred-site.xml:

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>hadoopnamenode:10002</value>

</property>

</configuration>

格式化name node

在hadoopnamenode上执行:

hadoop  namenode  -format

启动Hadoop

首先,在hadoopnamenode上执行下面命令来启动所有name node, secondary name node, data node:

start-dfs.sh

可以使用jps命令在4台server上查看当前运行的java进程,正常情况你会看到:

hadoopnamenode上有进程:NameNode

hadoop2ndnamenode上有进程:SecondaryNameNode

hadoopdatanode1/hadoopdatanode2上有进程:DataNode

其次,在hadoopnamenode上执行下面命令来启动所有job tracker, task tracker:

start-mapred.sh

继续使用jps命令在4台server上查看当前运行的java进程,正常情况你会看到:

hadoopnamenode上有进程:NameNode, JobTracker

hadoop2ndnamenode上有进程:SecondaryNameNode

hadoopdatanode1/hadoopdatanode2上有进程:DataNode, TaskTracker

关闭Hadoop

在hadoopnamenode上:

stop-mapred.sh

stop-dfs.sh

其它:

Name node管理界面:http://hadoopnamenode:50070/

Job tracker 管理界面:http://hadoopnamenode:50030/

最新文章

  1. nginx下搭建CodeIgniter问题集锦
  2. PHP学习-链接数据库
  3. .net 读写记事本文件
  4. 状态模式 java &amp;&amp; php
  5. 启用 CORS 来解决这个问题(ajax跨域请求)
  6. activiti搭建(五)BPMN介绍
  7. jQuery图片无缝轮播插件;
  8. IOS开发中ARC下的assign和weak区别
  9. Speed-BI报表按钮链接设置
  10. UESTC_最少花费 2015 UESTC Training for Dynamic Programming&lt;Problem D&gt;
  11. POJ 2050 Searching the Web
  12. window.print()打印页面指定内容(使用iframe保证原页面不失效)
  13. (Python3) 运行结果 = 10,40 的困扰我一顿饭时间的 代码
  14. C++进阶--理解左值和右值
  15. solr7.4 安装与使用
  16. ROS与深度相机入门教程-在ROS使用kinect v1摄像头
  17. Spark项目之电商用户行为分析大数据平台之(十二)Spark上下文构建及模拟数据生成
  18. I/O模式总结
  19. {sharepoint} More on SharePoint 2010 Application Pools
  20. phpcms 实现动态价格

热门文章

  1. NDK开发总结
  2. 水果项目第2集-建立数据库-&gt;编写数据访问基础类-&gt;实现类的方法-&gt;调试通过
  3. php public protected private属性实例详解
  4. tar 压缩去除目录
  5. Java中this与super的区别【6】
  6. 第33讲:List的一阶函数操作代码实战详解
  7. 数据库知识整理&lt;三&gt;
  8. [Hyper-V]在Windows 8.1 操作系统中启用Hyper-V功能
  9. os.popen(command)
  10. YUI Compressor for Sublime text2