1.首先安装java,配置java开发环境

  下载jdk:http://www.oracle.com/technetwork/java/javase/archive-139210.html选择你想要下载的版本,放入比如/home/java目录。我本机安装的是jdk 1.7

  下载完成后解压:tar -zxvf xxxxxx.tar.gz

  对/etc/profile文件进行配置: vim /etc/profile ,在文件的末尾添加环境变量(其中/usr/lib/jvm/java-7-oracle为解压文件的目录):

    export JAVA_HOME=/usr/lib/jvm/java-7-oracle
    export JRE_HOME=${JAVA_HOME}/jre
    export PATH=$JAVA_HOME/bin:$PATH:
    export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

  profile这个文件是每个用户登录时都会运行的环境变量设置,当用户第一次登录时,该文件被执行. 并从/etc/profile.d目录的配置文件中搜集shell的设置。  

  打开shell,输入java -version,显示:

        

2.配置ssh

  配置ssh之前最好先更新一下软件源:

      apt-get update

  安装openssh-server:

      apt-get install openssh-server  

  使用ssh进行无密码验证登录:

    1.创建ssh-key,采用rsa方式,使用如下命令存储目录使用默认:

      ssh-keygen -t rsa -P ""

    2.将公钥文件追加到authorized_keys中

      cat ~/.ssh/id_rsa.pub >> authorized_keys

  

  检测ssh 服务是否启动:

      ps -e | grep ssh

  如果显示有ssh字样,则说明已经启动成功,如果没有则手动启动:

      /etc/init.d/ssh start

  也可以重启ssh server:

      /etc/init.d/ssh restart

  登录localhost:

      ssh localhost

  显示错误信息:

      

  错误信息看起来是jdk环境变量设置有问题,也没找到改正方法。不用修改也目前看起来还没有问题。

3.下载hadoop,我下载的是hadoop-2.7.3

  wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.3.tar.gz

4.解压缩文件

  tar -xzvf hadoop-2.7.3.tar.gz

5.编辑hadoop配置文件

  hadoop的配置文件位于hadoop-2.7.3/etc/hadoop目录中,初始的话,需要修改core-site.xml,mapred-site.xml.template, hdfs-site.xml这三个文件

  使用vim编辑这三个配置文件:

  core-site.xml

<configuration>
<property>
    <name>hadoop.tmp.dir</name>
    <value>file:/home/hadoop/hadoop_tmp</value>
    <description>Abase for other temporary directories.</description>
  </property>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
  </property>
</configuration>

  其中<value>file:/home/hadoop/hadoop_tmp</value>是你自己设置用于hadoop的tmp目录

  mapred-site.xml

<configuration>
<property>
    <name>mapred.job.tracker</name>
    <value>localhost:9001</value>
  </property>
</configuration>

  hdfs-site.xml

<configuration>
<property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/home/hadoop/hadoop_tmp/dfs/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/home/hadoop/hadoop_tmp/dfs/data</value>
  </property>
</configuration>

  最好把dfs.namenode.name.dir和dfs.datanode.data.dir的目录放到core-site.xml中tmp目录下

6.初始化hadoop

  cd到hadoop-2.7.3根目录下,

    bin/hdfs namenode -format

  过程需要进行ssh验证,之前已经登录了,所以初始化过程之间键入y即可。

    

7.开启NameNode和dataNode进程

  sbin/start-dfs.sh

  报错:JAVA_HOME is not set and could not be found

  

  解决方法:vim打开hadoop-2.7.3/etc/hadoop/hadoop-env.sh,直接讲JAVA_HOME加入hadoop的环境变量

    

  使用jps查看进程信息:

  

  在浏览器中打开http://localhost:50070

  

 hadoop环境搭建完成。

最新文章

  1. libsvm下的windows版本中的工具的使用
  2. Objective-C的新特性
  3. Android监听Home键
  4. 如何在 IIS 中设置 HTTPS 服务
  5. 怎么解决Android studio导入项目卡死
  6. C#调用C++ dll时,结构体引用传参的方法
  7. 在WCF中不使用svc文件直接使用cs文件
  8. java之JDK的环境变量配置
  9. NYOJ 69 数的长度(数学)
  10. [LeetCode] 23. 合并K个排序链表
  11. react整理一二(初入React世界)
  12. Effective Java 第三版——53. 明智而审慎地使用可变参数
  13. php mysql 丢失更新
  14. java将XML文档转换成json格式数据
  15. vue2.0 Hash模式下实现微信分享
  16. pageEncoding和ContextType区别
  17. Java基础 深拷贝浅拷贝
  18. windows server 2003下搭建amp环境
  19. poj 1080 Human Gene Functions(lcs,较难)
  20. byte取高4位,低4位,byte转int

热门文章

  1. Android: Avoid passing null as the view root
  2. [Python设计模式] 第22章 手机型号&amp;软件版本——桥接模式
  3. InfluxDB源码阅读之httpd服务
  4. [.NET] 一个获取随机数的新方式
  5. jqGrid时间转换
  6. ld: library not found for -lstdc++.6
  7. Android Glide 源码分析系列(待完成)
  8. 设置GRUB密码以防止单用户模式下root密码被恶意更改
  9. 【Zookeeper】连接ZooKeeper的方式
  10. HAProxy配置说明(转)