终于把单击模式跟伪分布式模式搭建起来了,记录于此。

1.SSH无密码验证配置

因为伪分布模式下DataNode和NameNode均是本身,所以必须配置SSH localhost的无密码验证。

第一步,安装并启动SSH:

~$ sudo apt-get install openssh-server
~$ sudo /etc/init.d/ssh start

第二步,生成公钥和私钥,并将公钥追加到authorized_keys中(authorized_keys用于保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容):

~$ ssh-keygen -t rsa -P ""
~$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

2.安装java:

~$ sudo apt-get install openjdk-6-jdk

3.安装hadoop

第一步,官网http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/下载hadoop(我下载的是1.2.1版本)。解压并移动到/usr/local目录下,增加hadoop用户权限:

~$ sudo tar -xzf hadoop-1.1.2.tar.gz
~$ sudo mv hadoop-1.1.2 /usr/local/hadoop
~$ sudo chown -R hadoop:hadoop /usr/local/hadoop

第二步,在/hadoop/conf/hadoop-env/sh中配置java环境:

export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-i386
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:/usr/local/hadoop/bin

第三步,配置core-site.xml,hdfs-site.xml和mapred-site.xml:

core-site.xml:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>

hdfs-site.xml:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
</configuration>

mapred-site.xml:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>

第四步,使环境变量生效并格式化HDFS:

~$ source /usr/local/hadoop/conf/hadoop-env.sh
~$ hadoop namenode -format

第五步,启动hadoop并列出所有守护进程来查看是否安装成功:

~$ bin/start-all.sh
~$ jps

第六步,环境测试:

~$ bin/hadoop dfs -mkdir input
~$ hadoop dfs -copyFromLocal conf/* input
~$ hadoop jar hadoop-examples-1.1.2.jar wordcount input output
~$ hadoop dfs -cat output/*

第七步,关闭hadoop守护进程:

~$ bin/stop-all.sh

最新文章

  1. Ubuntu部署python3.5的开发和运行环境
  2. ThinkphpCMF笔记
  3. spring-boot-note
  4. c_test
  5. 【Android测试】【随笔】获得App的包名和启动页Activity
  6. mysql在一台服务器搭建主从
  7. 《JAVA学习笔记(1---13-4)》
  8. HDU-2700 Parity
  9. china-pub
  10. 64位下Hook NtOpenProcess的实现进程保护 + 源码 (升级篇 )
  11. SpringMVC 快速入门
  12. tnsping非常慢
  13. Django使用第三方模块django-password-reset重置密码
  14. 在Mac OSX上配置Appium+Android自动化测试环境
  15. vue select的change事件,将点击过的城市名存在数组中,下次调用不需要再调用接口
  16. PostgreSQL安装和配置---Ubuntu
  17. gitlab 迁移、升级打怪之路:8.8.5--&gt; 8.10.8 --&gt; 8.17.8 --&gt; 9.5.9 --&gt; 10.1.4 --&gt; 10.2.5
  18. 玩转X-CTR100 l STM32F4 l 红外遥控接收
  19. [SoapUI] Compare JSON Response(比较jsonobject)
  20. DevExpress01、独立使用的控件

热门文章

  1. 0406-服务注册与发现-客户端feign-使用、配置、日志、timeout
  2. (转载)处理SQL解析失败导致share pool 的争用
  3. 海量数据处理之Bloom Filter详解
  4. appium入门基础
  5. Django-MTV(Day66)
  6. 虚拟环境virtualenv和virtualenvwrapper(转)
  7. jquery 获取checkbox 选中值并拼接字符集
  8. Keras实践:实现非线性回归
  9. POJ_2533 Longest Ordered Subsequence【DP】【最长上升子序列】
  10. Linux中read命令的用法—(6/30)