---恢复内容开始---

回顾:

1.最终开发MR的计算程序

2.hadoop 2.x 出现了一个yarn:资源管理>>MR没有后台场服务

  yarn模型:container 容器,里面会运行我们的AppMaster,map/reduce Task

  解耦

  mapreduce on yarn

  架构:RM NM

搭建:

  RM要和NN岔开,NM个数要和DN一样

                    搭建图

----------通过官网:

mapred-site.xml > mapreduce on yarn

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

yarn-site.xml

//shuffle 洗牌 M -shuffle> R
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property> <property>
<name>yarn.resourcemanager.ha.enabled</name>
<value>true</value>
</property>
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>node02:,node03:,node04:</value>
</property> <property>
<name>yarn.resourcemanager.cluster-id</name>
<value>mashibing</value>
</property> <property>
<name>yarn.resourcemanager.ha.rm-ids</name>
<value>rm1,rm2</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm1</name>
<value>node03</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm2</name>
<value>node04</value>
</property>

流程:
我hdfs等所有的都用root来操作的
node01:

cd $HADOOP_HOME/etc/hadoop
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
vi yarn-site.xml
scp mapred-site.xml yarn-site.xml node02:`pwd`
scp mapred-site.xml yarn-site.xml node03:`pwd`
scp mapred-site.xml yarn-site.xml node04:`pwd`
vi slaves //可以不用管,搭建hdfs时候已经改过了。。。
start-yarn.sh
node03~:
yarn-daemon.sh start resourcemanager
http://node03:8088
http://node04:8088
This is standby RM. Redirecting to the current active RM: http://node03:8088/

-------MR 官方案例使用:wc
实战:MR ON YARN 的运行方式:

hdfs dfs -mkdir -p /data/wc/input
hdfs dfs -D dfs.blocksize= -put data.txt /data/wc/input
cd $HADOOP_HOME
cd share/hadoop/mapreduce
hadoop jar hadoop-mapreduce-examples-2.6..jar wordcount /data/wc/input /data/wc/output

1)webui:
2)cli:

hdfs dfs -ls /data/wc/output
-rw-r--r--  root supergroup  -- : /data/wc/output/_SUCCESS //标志成功的文件
-rw-r--r-- root supergroup -- : /data/wc/output/part-r- //数据文件
part-r-
part-m-
r/m : map+reduce r / map m
hdfs dfs -cat /data/wc/output/part-r-
hdfs dfs -get /data/wc/output/part-r- ./

抛出一个问题:
data.txt 上传会切割成2个block 计算完,发现数据是对的~!~?后边注意听源码分析~!~~

最新文章

  1. C#网络编程一:C#网络编程常用特性
  2. DB2导出脚本,重新建立数据库
  3. Webform——Repeater多表联合显示
  4. 浅谈Exchange 2013开发-如何操作邮件的附件
  5. MSSQLSERVER未分离LDF删除情况下的MDF附加
  6. 【服务器运维】Windows Server 2008 R2 下配置证书服务器和HTTPS
  7. QQ音乐的请求
  8. ShardedJedis实现学习
  9. ActiveMQ入门介绍
  10. python之用unittest实现接口参数化示例
  11. 日常踩坑 — 相邻元素之间的margin合并问题。
  12. 快速排序的两种实现方法(js)
  13. JS canvas 画板 撤销
  14. ArcGIS AddIN异常:无法注册程序集 未能加载文件或程序集&quot;ESRI.ArcGIS.Desktop.Addins&quot;
  15. chrome浏览器的VUE调试插件Vue.js devtools
  16. Java 社区平台 - Sym 1.7.0 发布
  17. flask_sqlalchemy的使用
  18. blank site teamplate去了哪里?
  19. helpera64开发板下制作ubuntu rootfs镜像
  20. 读《分布式一致性原理》JAVA客户端API操作

热门文章

  1. N2RR
  2. IDEA创建maven各种原型项目汇总
  3. Solr之java实现增删查操作
  4. linux 下的快捷键操作
  5. Selenium 2自动化测试实战16(多窗口切换)
  6. Selenium 2自动化测试实战3(函数、类和方法)
  7. 在windows上远程访问服务器jupyter notebook
  8. word2vec高效训练方法
  9. 【miscellaneous】监狱智能视频监控系统设计解决方案
  10. 浅谈spring配置定时任务的几种方式