集群环境搭建请见:http://blog.csdn.net/jediael_lu/article/details/45145767





一、环境准备

1、安装linux、jdk

2、下载hadoop2.6.0,并解压

3、配置免密码ssh

(1)检查是否可以免密码:  

$ ssh localhost

(2)若否:

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

4、在/etc/profile中添加以下内容

#hadoop setting

export PATH=$PATH:/mnt/jediael/hadoop-2.6.0/bin:/mnt/jediael/hadoop-2.6.0/sbin

export HADOOP_HOME=/mnt/jediael/hadoop-2.6.0

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"



二、安装hdfs

1、配置etc/hadoop/core-site.xml:

<configuration>

    <property>

        <name>fs.defaultFS</name>

        <value>hdfs://localhost:9000</value>

    </property>

</configuration>

2、配置etc/hadoop/hdfs-site.xml:



<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

</configuration>

3、格式化namenode

$ bin/hdfs namenode -format

4、启动hdfs

$ sbin/start-dfs.sh

5、打开页面验证hdfs安装成功

http://localhost:50070/

6、运行自带示例

(1)创建目录

  $ bin/hdfs dfs -mkdir /user

$ bin/hdfs dfs -mkdir /user/jediael

(2)复制文件

bin/hdfs dfs -put etc/hadoop input

(3)运行示例

$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep input output 'dfs[a-z.]+’

(4)检查输出结果

$ bin/hdfs dfs -cat output/*

6       dfs.audit.logger

4       dfs.class

3       dfs.server.namenode.

2       dfs.period

2       dfs.audit.log.maxfilesize

2       dfs.audit.log.maxbackupindex

1       dfsmetrics.log

1       dfsadmin

1       dfs.servers

1       dfs.replication

1       dfs.file

(5)关闭hdfs

 $ sbin/stop-dfs.sh



三、安装YARN

1、配置etc/hadoop/mapred-site.xml

<configuration>

    <property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

    </property>

</configuration>

2、配置etc/hadoop/yarn-site.xml

<configuration>

    <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

</configuration>

3、启动yarn

$ sbin/start-yarn.sh

4、打开页面检查yarn

 http://localhost:8088/

5、运行一个map-reduce job

$  bin/hadoop fs -mkdir /input

$ bin/hadoop fs -copyFromLocal /etc/profile /input

$ cd  /mnt/jediael/hadoop-2.6.0/share/hadoop/mapreduce

$ /mnt/jediael/hadoop-2.6.0/bin/hadoop jar hadoop-mapreduce-examples-2.6.0.jar wordcount /input /output

查看结果:

 $/mnt/jediael/hadoop-2.6.0/bin/hadoop fs -cat /output/*

版权声明:本文为博主原创文章,未经博主允许不得转载。

最新文章

  1. metaWeblog Test
  2. Lesson 5 No wrong numbers
  3. Windows Azure Storage 之 Retry Policy (用来处理短暂性错误-Transient Fault)
  4. Tomcat 6 —— Realm域管理
  5. Kali Linux渗透基础知识整理(三):漏洞利用
  6. yii2整理
  7. 计算机网络及TCP/IP知识点(全面,慢慢看)
  8. LeetCode Ugly Number (简单题)
  9. Oracle 数据库中日期时间的插入操作
  10. 【HDU 3435】 A new Graph Game (KM|费用流)
  11. LNMP wget 记录
  12. WinXP系统服务详细列表
  13. Ubuntu上搭建SVN
  14. 在windows环境利用celery实现简单的任务队列
  15. [CocoaPods]使用CocoaPods进行测试
  16. Atitit  Uncaught (in promise) SyntaxError Unexpected token &lt; in JSON at position 0
  17. 18.Mysql SQL优化
  18. hive一行变多行及多行变一行
  19. dlib landmark+人面识别
  20. GML3示例

热门文章

  1. CSU 8月月赛 Decimal 小数化分数
  2. JS错误记录 - dom操作 - 排序
  3. ElasticSearch 5.2.2 集群环境的搭建
  4. php 根据html table生成excel文件
  5. Intellij IDEA中修改项目名称
  6. VFS相关内容
  7. hive load文件第一个字段为NULL
  8. java移位操作符注意的问题
  9. 记阮一峰---JavaScript 标准参考教程之标准库-Object对象
  10. 二、Docker基础操作