HDFS分布式集群安装
2024-08-30 08:07:49
HDFS集群安装: 1.准备工作
虚拟机(电脑8G内存 磁盘500GB)
3台 linux系统(1台namenode 2台datanode) (1)关闭防火墙
firewall-cmd --state 查看防火墙状态
systemctl stop firewalld.service 关闭防火墙
systemctl disable firewalld.service 禁止开机启动 (2)远程连接(CRT) (3)永久设置主机名
vi /etc/hostname
注意:要reboot重启生效 (4)配置映射文件
vi /etc/hosts #127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
#::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.146.132 hd09-1
192.168.146.133 hd09-2
192.168.146.134 hd09-3 2.安装jdk
(1)上传tar包
SecureCRT 中 按alt + p进入sftp模式,拖拽上传文件 (2)解压tar包
tar -zxvf jdk-8u144-linux-x64.tar.gz (3)配置环境变量
vi /etc/profile export JAVA_HOME=/root/hd/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin source /etc/profile 加载环境变量 (4)发送到其它机器
scp -r hd/jdk1.8.0_144/ hd09-2:hd/jdk1.8.0_144
scp -r hd/jdk1.8.0_144/ hd09-3:hd/jdk1.8.0_144
scp -r /etc/profile hd09-2:/etc
scp -r /etc/profile hd09-3:/etc 注意:加载环境变量 source /etc/profile 3.配置ssh免密登录
ssh-keygen 生成密钥对
ssh-copy-id hd09-1
ssh-copy-id hd09-2
ssh-copy-id hd09-3 4.安装HDFS集群
(1)解压tar包
tar -zxvf hadoop-2.8.4.tar.gz (2)修改hadoop-env.sh
export JAVA_HOME=/root/hd/jdk1.8.0_144 (3)修改core-site.xml
<configuration>
//配置hdfs
<property>
<name>fs.defaultFS</name>
<value>hdfs://hd09-1:9000</value>
</property>
</configuration> (4)修改hdfs-site.xml
<configuration>
//配置元数据存储位置
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/hd/dfs/name</value>
</property>
//配置数据存储位置
<property>
<name>dfs.datanode.data.dir</name>
<value>/root/hd/dfs/data</value>
</property>
</configuration> (5)配置hadoop环境变量
vi /etc/profile export JAVA_HOME=/root/hd/jdk1.8.0_144
export HADOOP_HOME=/root/hd/hadoop-2.8.4
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin source /etc/profile 加载环境变量 (6)格式化namenode
hadoop namenode -format (7)分发hadoop到其他服务器
scp -r ~/hd/hadoop-2.8.4/ hd09-2:/root/hd/
scp -r ~/hd/hadoop-2.8.4/ hd09-3:/root/hd/ (8)分发hadoop环境变量
scp -r /etc/profile hd09-2:/etc
scp -r /etc/profile hd09-3:/etc 注意:加载环境变量 source /etc/profile (9)启动namenode
hadoop-daemon.sh start namenode (10)启动datanode
hadoop-daemon.sh start datanode (11)访问namenode提供的web端口:50070
hd09-1:50070 (12)访问hd09-1出错需要修改 windows电脑的 C:\Windows\System32\drivers\etc\hosts 文件
在下面加上
192.168.146.132 hd09-1
192.168.146.133 hd09-2
192.168.146.134 hd09-3
即可 5.自动批量的启动脚本
(1)修改配置文件slaves 加入
hd09-2
hd09-3 (2)执行启动命令
start-dfs.sh
最新文章
- [精品书单] C#/.NET 学习之路——从入门到放弃
- vs2013给项目统一配置boost库
- XAML UserControl的继承
- 网络流EK
- Atitit &#160;数据存储的分组聚合 groupby的实现attilax总结
- Windows10 利用 Docker 配置 TensofFlow 深度学习工具
- 【wikioi】1003 电话连线
- 【iCore3 双核心板_FPGA】例程三:GPIO输入实验——识别按键输入
- oracle start with connect by prior 递归查询
- Android之查看网络图片和网页HTML
- JVM知识学习与巩固
- Linux(CentOS)文件操作命令
- TDD中的单元测试
- UnitOfWork实战
- CentOS6.5下LNMP环境的搭建
- 《JAVA程序设计》第14周学习总结
- httpd2.2配置文件详解
- UltraEdit文本行数多变一和一边多
- 利用JQuery 解析MVC控制器传到前台的Json数据
- webshell导致项目崩溃