There are 0 datanode(s) running and no node(s) are excluded in this operation.
2024-08-29 17:10:04
向hadoop导入文件,报错
....
There are 0 datanode(s) running and no node(s) are excluded in this operation.
....
查看配置
$hadoop_home/hadoop/etc/hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/sparkuser/myspark/hadoop/hdfs/name</value>
</property>
<property>
解决
删除目录下的 hdfs目录下所有文件
1. 查看NameNode的9000端口,(core-site.xml文件中的fs.default.name节点配置)端口是否打开,因为所有的DataNode都要通过这个端口连接NameNode
2. 关闭防火墙,因为防火墙可能会阻止其他的电脑连接。使用以下命令关闭防火墙
**查看防火墙**
service iptables status
service iptable stop
chkconfig iptable off
3.在host文件中注释掉
127.0.0.1 localhost
::1 localhost6 Master
最新文章
- 一张图理解prototype、proto和constructor的三角关系
- JAVA设计模式《二》
- c#语句 习题
- MyEclipse 从数据库反向生成Hibernate实体类
- 提升资源利用率的MapReduce框架
- jQuery慢慢啃之核心(一)
- java下tcp的socket连接案例
- .net 4.5 新特性 async await 一般处理程序实例
- JavaScript中return的用法详解
- jdk源码研究1-HashMap
- 201521123099 《Java程序设计》第13周学习总结
- 【Java资源免费分享,网盘自己拿】
- nginx——优化 Nginx 连接超时时间
- 2018-2019-2 网络对抗技术 20165308 Exp1 PC平台逆向破解
- ISAP算法
- redis(二)
- Android App 安全的HTTPS 通信
- odoo Q-web
- JS中的PadLeft、PadRight,位数不足,自动补位,String扩展方法
- python读取配置文件&;&;简单封装