前面介绍过使用NFS+zookeeper来解决namenode单点失败问题,因为NFS可能也会存在单点问题,所以hadoop提供了一种叫做JournalNode技术,这项技术可以在JournalNode节点间共享数据

我们来介绍这一种技术:JournalNode+ zookeeper

Hadoop 版本:2.2.0

OS 版本: Centos6.4

Jdk 版本: jdk1.6.0_32

环境配置

机器名

Ip地址

功能

Hadoop1

192.168.124.135

NameNode, DataNode,

ResourceManager, NodeManager

Zookeeper

Zkfc

JournalNode

Hadoop2

192.168.124.136

NameNode

DataNode, NodeManager

Zookeeper

Zkfc

JournalNode

Hadoop3

192.168.124.137

DataNode, NodeManager

Zookeeper

Zkfc

JournalNode

在这里就不介绍安装zookeeper,直接使用前面nfs+zookeeper安装好的zookeeper

JournalNode也不需要安装,通过配置就可以。

直接配置hadooper

vi etc/hadoop/hadoop-env.sh 修改jdk位置
export JAVA_HOME=/home/hadoop/jdk1.6.0_32

vi etc/hadoop/mapred-env.sh修改jdk位置

export JAVA_HOME=/home/hadoop/jdk1.6.0_32

vi etc/hadoop/yarn-env.sh修改jdk位置

export JAVA_HOME=/home/hadoop/jdk1.6.0_32

vi etc/hadoop/core-site.xml

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/repo3/tmp</value>

<description>A base for other temporary
directories.</description>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://mycluster</value>

</property>

<property>

<name>dfs.journalnode.edits.dir</name>

<value>/home/hadoop/repo3/journal</value>

</property>

<property>

<name>ha.zookeeper.quorum</name>

<value>hadoop1:2181,hadoop2:2181,hadoop3:2181</value>

</property>

</configuration>

vi etc/hadoop/hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/hadoop/repo3/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/home/hadoop/repo3/data</value>

</property>

<property>

<name>dfs.nameservices</name>

<value>mycluster</value>

</property>

<property>

<name>dfs.ha.namenodes.mycluster</name>

<value>hadoop1,hadoop2</value>

</property>

<property>

<name>dfs.namenode.rpc-address.mycluster.hadoop1</name>

<value>hadoop1:9000</value>

</property>

<property>

<name>dfs.namenode.http-address.mycluster.hadoop1</name>

<value>hadoop1:50070</value>

</property>

<property>

<name>dfs.namenode.rpc-address.mycluster.hadoop2</name>

<value>hadoop2:9000</value>

</property>

<property>

<name>dfs.namenode.http-address.mycluster.hadoop2</name>

<value>hadoop2:50070</value>

</property>

<property>

<name>dfs.namenode.shared.edits.dir</name>

<value>qjournal://hadoop1:8485;hadoop2:8485;hadoop3:8485/mycluster</value>

</property>

<property>

<name>dfs.client.failover.proxy.provider.mycluster</name>       
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<property>

<name>dfs.ha.fencing.methods</name>

<value>sshfence</value>

</property>

<property>

<name>dfs.ha.fencing.ssh.private-key-files</name>

<value>/home/hadoop/.ssh/id_rsa</value>

</property>

<property>

<name>dfs.ha.automatic-failover.enabled</name>

<value>true</value>

</property>

</configuration>

vi etc/hadoop/yarn-site.xml

<configuration>

<property>

<description>the valid service name</description>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<description>The hostname of the RM.</description>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop1</value>

</property>

</configuration>

vi etc/hadoop/mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

vi etc/hadoop/slaves

hadoop1

hadoop2

hadoop3

运行hadoop

启动zookeeper,在hadoop1 ,hadoop2, hadoop3上运行

cd /home/hadoop/zookeeper-3.4.5/bin

./zkServer.sh  start

格式化namenode和failovercontroler

failovercontroler也需要格式化: bin/hdfs zkfc -formatZK

在hadoop1节点上运行: bin/hdfs namenode -format -clusterid mycluster

在hadoop2节点上的namenode信息需要与hadoop1节点同步,不能通过简单的格式化做到,hadoop2节点上的namenode需要向hadoop1的namenode发送数据请求。因此我们还需要启动hadoop1上的namenode.

在hadoop1上运行: bin/hdfs namenode

在hadoop3上运行:bin/hdfs namenode  -bootstrapStandby

最后关闭hadoop1上的namenode,然后启动整个hadoop集群。

启动hadoop集群

cd /home/hadoop/hadoop-2.2.0

sbin/start-all.sh

从图上可以看出,先启动namenode,再启动datanode, 再启动journalnode, 再启动ZK failover controller, 再启动resourcemanger, 最后启动nodemanager。

使用jps查看启动的进程

在hadoop1上运行jps

在hadoop2上运行jps

在hadoop3上运行jps

查看namenode的状态

bin/hdfs haadmin -getServiceState hadoop1

bin/hdfs haadmin -getServiceState hadoop2

从图上可以看出hadoop2上的namenode处于active状态,而hadoop1上的namenode处于standby状态

这些信息也可以通过Hadoop的web界面得到。

在浏览器里输入:http://hadoop1:50070

在浏览器里输入:http://hadoop2:50070

这里就不介绍failover后,有兴趣的可以看看nfs+zookeeper相关的内容

最新文章

  1. STM32F051芯片解密STM32F091IC解密STM32F042单片机破解多少钱?
  2. C++ 中指针与引用的区别
  3. [Gauss]POJ1830 开关问题
  4. didEndEditingRowAtIndexPath with nil indexPath
  5. C语言判断电脑的大、小端机
  6. 简说raid1 raid2 raid5 raid6 raid10的优缺点和做各自raid需要几块硬盘
  7. 如何在vue中使用ts
  8. java一个数分解的质因数java
  9. CenterOS7.5中搭建wordpress
  10. Biorhythms HDU - 1370 (中国剩余定理)
  11. CentOS 6.7 下 Squid 代理服务器 的 安装与配置
  12. Linear Regression with PyTorch
  13. Linux下 查看CPU信息
  14. _itemmod_creation_enchant
  15. Python笔记:字典的fromkeys方法创建的初始value同内存地址问题
  16. Selenium WebDriver VS Selenium RC
  17. Android环境搭建问题的解决: Connection to http://dl-ssl.google.com refused
  18. mysql 触发器 trigger用法 three (稍微复杂的)
  19. Nexus设备渗透测试平台 – Kali Linux NetHunter
  20. ZOJ3700 Ever Dream 2017-04-06 23:22 76人阅读 评论(0) 收藏

热门文章

  1. C++ STL中Map的按Key排序
  2. chromedriver Capabilities &amp; ChromeOptions
  3. recess----2.Controller里面取用request信息
  4. 关于bitmap recycle trying to use a recycled bitmap android.graphics.Bitmap
  5. html热点区域
  6. 如何监控MYSQL消耗服务器资源
  7. 【OpenGL基础篇】——使用面向对象方法封装OpenGL函数(二)
  8. CSS3中伪类nth-child和nth-of-type区别
  9. C# -- 使用递归列出文件夹目录及目录下的文件 神技do{}while(false)
  10. FtpHelper类匿名获取FTP文件