1. 安装环境

1.1硬件环境

1.1.1 NameNode

配置项 详细参数
主机 k8s-master
CPU Intel(R) Xeon(R) Gold 6278C CPU @ 2.60GHz 2核
内存 4G
硬盘 40G

1.1.2 DataNode

配置项 详细参数
主机 k8s-slave1
CPU Intel(R) Xeon(R) Gold 6278C CPU @ 2.60GHz 2核
内存 4G
硬盘 40G

1.2 软件环境

配置项 详细参数
操作系统 centos 7.7
jdk 8
hadoop 2.7.5

2. 安装步骤

2.1 安装前准备

2.1.1 配置主机名

2.1.1.1 修改主机名

[root@root ~]# hostnamectl set-hostname k8s-master
[root@root ~]# more /etc/hostname
k8s-master

reboot服务器会显示新设置的主机名k8s-master,在另外一台服务器做同样的操作。

2.1.1.2 修改hosts文件 (注意:云服务器中,只有一块内网网卡。外网地址不是直接配置在云服务器中,程序无法绑定公网IP地址。因此服务器本身要改为"内网IP+主机名"。不然在可能会在NameNode启动时报错:Cannot assign requested address)

[root@k8s-master ~]# cat >> /etc/hosts << EOF
xxx.xxx.xxx.xxx k8s-master
xxx.xxx.xxx.xxx k8s-slave1
EOF

2.1.1.3 免密登录

配置k8s-master到k8s-slave1之间免密登录

  1. 创建秘钥
[k8s-master ~]# ssh-keygen -t rsa
  1. k8s-master同步秘钥到k8s-slave1,主机名免密也要同步
[k8s-master ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub root@xxx.xxx.xxx.xxx
  1. 免密登录测试
[k8s-master ~]# ssh xxx.xxx.xxx.xxx
[k8s-master ~]# ssh k8s-slave1

2.1.1.4 禁用selinux

各节点都要执行禁用selinux操作

# 临时禁用selinux
[root@k8s-master ~]# setenforce 0
# 永久禁用selinux
[root@k8s-master ~]# vim /etc/selinux/config
SELINUX=disabled

2.1.1.5 关闭防火墙

各节点上执行关闭防火墙操作

[k8s-master ~]# systemctl stop firewalld
[k8s-master ~]# systemctl disable firewalld

3. 安装hadoop

我通常在安装完NameNode后直接把配置目录都会发送到其他机器上同步一份,不需要所有机器都手动配置一次,这样可以提高效率。PS:以下操作都是在root用户下操作。

3.1 下载地址

hadoop的官方网站:http://hadoop.apache.org/

hadoop 2.7.5版本对应的下载地址: http://archive.apache.org/dist/hadoop/core/hadoop-2.7.5/

3.2 解压安装包

[root@k8s-master ~]# cd /opt/
# 下载安装包
[root@k8s-master opt]# wget http://archive.apache.org/dist/hadoop/core/hadoop-2.7.5/hadoop-2.7.5.tar.gz
[root@k8s-master opt]# tar -zxf hadoop-2.7.5.tar.gz
# 做软链接
[root@k8s-master opt]# ln -s hadoop-2.7.5 hadoop

3.3 修改hadoop-env.sh配置文件

3.3.1 配置java的jdk

[root@k8s-master ~]# vim /opt/hadoop/etc/hadoop/hadoop-env.sh
#找到"export JAVA_HOME"这行,用来配置jdk路径
# The java implementation to use.
export JAVA_HOME=/opt/jdk1.8.0_161/

3.3.2 配置核心组件

3.3.2.1 core-site.xml(在NameNode节点上操作)

[root@k8s-master ~]# vim /opt/hadoop/etc/hadoop/core-site.xml
# 在<configuration>和</configuration>之间加入的代码,我的主机名是k8s-master
<property>
<name>fs.defaultFS</name>
<value>hdfs://k8s-master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/hadoopdata</value>
</property>

3.3.3 配置文件系统

3.3.3.1 hdfs-site.xml(在NameNode节点上操作)

[root@k8s-master ~]# vim /opt/hadoop/etc/hadoop/hdfs-site.xml
# 需要在<configuration>和</configuration>之间加入的代码
<property>
<name>dfs.replication</name>
<value>1</value>
</property>

3.3.4 配置MapReduce计算框架文件(在NameNode节点上操作)

[root@k8s-master ~]# cp /opt/hadoop/etc/hadoop/mapred-site.xml.template /opt/hadoop/etc/hadoop/mapred-site.xml
[root@k8s-master ~]# vim /opt/hadoop/etc/hadoop/mapred-site.xml
# 需要在<configuration>和</configuration>之间加入的代码
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

3.3.5 配置资源调度管理器

3.3.5.1 配置yarn-site.xml

[root@k8s-master ~]# vim /opt/hadoop/etc/hadoop/yarn-site.xml
# 需要在<configuration>和</configuration>之间加入的代码,我的主机名是k8s-master
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>k8s-master:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>k8s-master:18030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>k8s-master:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>k8s-master:18141</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>k8s-master:18088</value>
</property>

3.3.5.2 修改yarn-env.sh文件

[root@k8s-master ~]# vim /opt/hadoop/etc/hadoop/hadoop-env.sh
#找到"export JAVA_HOME"这行,用来配置jdk路径
# some Java parameters
export JAVA_HOME=/opt/jdk1.8.0_161/

3.3.6 修改slaves配置文件

该slaves文件是给出了hadoop集群中的slave列表,系统总是根据当前slaves文件中的slave节点列表启动hadoop集群,不在列表中的slave节点便不会被视为计算节点。

[root@k8s-master ~]# vim /opt/hadoop/etc/hadoop/slaves
# 需要在slaves文件中添加以下主机名(PS: 删掉localhost那一行)
k8s-slave1

3.3.7 将配置文件发送到DataNode节点上

[root@k8s-master ~]# scp -r /opt/hadoop root@k8s-slave1:/opt

4. 启动hadoop

4.1 启动前准备,配置操作系统环境变量(所有节点都要操作)

[root@k8s-master ~]# vim /root/.bash_profile
# 添加以下内容
# hadoop
export HADOOP_HOME=/opt/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH [root@k8s-master ~]# source ~/.bash_profile

4.2 创建hadoop数据目录(只在master节点上操作)

[root@k8s-master ~]# mkdir -p /opt/hadoop/hadoopdata

4.3 格式化文件系统(只在master上操作)

[root@k8s-master ~]# cd /opt/hadoop/bin
[root@k8s-master ~]# ./hdfs namenode -format

4.4 启动和关闭集群(只在master节点上操作)

4.4.1 启动hadoop集群

[root@k8s-master ~]# cd /opt/hadoop/sbin
[root@k8s-master ~]# sh start-all.sh

PS: 执行命令后,系统提示 ” Are you sure want to continue connecting(yes/no)”,输入yes,之后系统即可启动。执行过程可能会有些慢,千万不要以为卡掉了,然后强制关机,这是错误的。

4.4.2 关闭hadoop集群

[root@k8s-master ~]# cd /opt/hadoop/sbin
[root@k8s-master ~]# sh stop-all.sh

PS: 下次启动Hadoop时,无须NameNode的初始化,只需要使用start-dfs.sh命令即可,然后接着使用start-yarn.sh启动Yarn。实际上,Hadoop建议放弃(deprecated)使用start-all.sh和stop-all.sh一类的命令,而改用启动start-dfs.sh和start-yarn.sh命令

4.4.3 验证hadoop集群是否正常启动

1) 在NameNode上执行:(如果看到NameNode、ResourceManager、SecondaryNameNode,说明进程启动正常)

[root@k8s-master ~]# jps
14689 NameNode
15042 ResourceManager
14882 SecondaryNameNode
4309 Jps
1037 WrapperSimpleApp

2) 在DataNode上执行:(如果看到NodeManager、DataNode,说明进程启动正常)

[root@k8s-slave1 ~]# jps
19794 NodeManager
19636 DataNode
14251 Jps
1279 WrapperSimpleApp

5. 遇到的问题

5.1 hadoop启动之后datanode进程在,但50070页面Live Nodes为0,且看不到DataNode的所有信息,日志提示如下:

2020-08-28 22:06:45,427 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server: localhost/127.0.0.1:9000
2020-08-28 22:06:51,428 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

问题定位:

1) /etc/hosts 中的ip映射不对
2) master与slave之间不能互通
3) hadoop配置文件有错

我这里是由于/etc/hosts里面配置的ip和hosts的映射有误,原来配置的外网ip,改成内网ip映射主机名即可。

最新文章

  1. React之事件绑定、列表中key的使用
  2. 手机端touch事件 jquery模拟
  3. python计算非内置数据类型占用内存
  4. 开源框架DNN使用01
  5. 不规则三角网(TIN)(转)
  6. 内存储与外存储(IO流的应用)
  7. Qt信号槽机制的实现(面试的感悟,猜测每一个类保存的一个信号和槽的二维表,实际使用函数指针 元对象 还有类型安全的检查设定等等)
  8. SQL语句简单记录
  9. IE6浏览器不支持固定定位(position:fixed)解决方案
  10. UE4 Xml读写
  11. IntelliJ IDEA为类和方法自动添加注释
  12. shell中wait命令详解
  13. Docker Builders:Builder pattern vs. Multi-stage builds in Docker
  14. 【387】Python format 格式化函数
  15. Angular之输入输出属性
  16. BarTender出现3702错误怎么办
  17. scp加端口号
  18. 12个JavaScript技巧【转】
  19. python标准库介绍——26 getopt 模块详解
  20. C++11 之for 新解 auto

热门文章

  1. CF R 635 div2 1337D Xenia and Colorful Gems 贪心 二分 双指针
  2. Docker这些none:none的镜像,难道就不配拥有名字吗
  3. 解决Jenkins的html样式不生效问题的终极方案
  4. odoo13之文件预览widget/模块
  5. 在图像中隐藏数据:用 Python 来实现图像隐写术
  6. .NetCore 配合 Gitlab CI&amp;CD 实践 - 单体项目
  7. JS DOM笔记
  8. C#/.Net集成RabbitMQ
  9. XCTF-WEB-高手进阶区-upload1-笔记
  10. [leetcode/lintcode 题解] 微软面试题:公平索引