Hbase 配置文件:

hbase-site.xml

<configuration>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<property>

<name>hbase.rootdir</name>

<value>hdfs://cdh-master:9000/hbase</value>

</property>

<property>

<name>zookeeper.session.timeout</name>

<value>60000</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>cdh-master,cdh-node1,cdh-node2</value>

</property>

<property>

<name>hbase.zookeeper.property.dataDir</name>

<value>/var/lib/zookeeper</value>

</property>

<property>

<name>hbase.master</name>

<value>172.168.10.251:60000</value>

</property>

<property>

<name>hbase.zookeeper.property.clientPort</name>

<value>2181</value>

</property>

<property>

<name>hbase.hregion.majorcompaction</name>

<value>0</value>

</property>

<property>

<name>hbase.hregion.max.filesize</name>

<value>10485760000</value>

</property>

<property>

<name>hbase.hregion.memstore.flush.size</name>

<value>104857600</value>

</property>

<property>

<name>hbase.regionserver.regionSplitLimit</name>

<value>1</value>

</property>

<property>

<name>hbase.hstore.compaction.max</name>

<value>10</value>

</property>

<property>

<name>hbase.hstore.blockingStoreFiles</name>

<value>3</value>

</property>

<property>

<name>hbase.hstore.compaction.max.size</name>

<value>1048576000</value>

</property>

</configuration>

1.1  测试方法(和工具)

测试工具:hadoop jar /usr/lib/hbase/hbase-0.94.2-cdh4.2.0-security.jar importtsv -Dimporttsv.columns=HBASE_ROW_KEY,t:v01 tbs /user/hac/input/$filedir (/user/hac/input目录下的tsv文件导入hbase数据库)

测试命令:

./genData.py  -p $prephone -m $filesize -f $filename (产生顺序row id的tsv导入文件,值为1K)

./randData.py -p $prephone -m $filesize -f $filename -s $regionmax(产生随机row id的tsv导入文件,值为1K)

2  测试过程

2.1   测试方案

2.1.1 测试目标

l   测试HBase的flush事件

l   测试HBase的compact事件

l   测试HBase的高可用性

2.1.2 测试过程

将测试过程分为两组进行:

第一组:hbase shell创建表,一个列,一个分区,在本地/root文件夹中创建指定大小tsv格式文件,文件内容第一列值是顺序的,例如:13100000001、13100000002、13100000003,并上传到HDFS文件系统/user/hac/input文件夹中,然后导入到hbase数据库。

第二组:hbase shell创建表,一个列,四个分区,在本地/root文件夹中创建指定大小tsv格式文件,文件内容第一列值是随机的,例如:13100803005、13101437328、13101391705,并上传到HDFS文件系统/user/hac/input文件夹中,然后导入到hbase数据库。

最新文章

  1. 深入理解CSS定位中的堆叠z-index
  2. 优秀的API接口设计原则及方法(转)
  3. jquery闭包的使用
  4. socket模拟通信实现ARQ停止等待协议
  5. bootstrap validator 使用 带代码
  6. [论文阅读]Going deeper with convolutions(GoogLeNet)
  7. 【Linux系统目录结构】
  8. MapReduce中,new Text()引发的写入HDFS的输出文件多一列的问题
  9. c++ 多态,虚函数、重载函数、模版函数
  10. angularJS1笔记-(14)-自定义指令(scope)
  11. 如何获取隔壁wifi密码,非暴力破解
  12. 【转载】hibernate缓存机制
  13. okhttp3使用详解
  14. 第三天-零基础学习python
  15. Bzoj 3498 Cakes(三元环)
  16. django中根据模型生成页面的脚手架app-groundwork
  17. SSH 项目建立过程
  18. Chromium之工程依赖关系.
  19. IO流分类详细介绍和各种字节流类介绍与使用 过滤流 字节流
  20. $git学习总结系列(1)——基本用法

热门文章

  1. P4876 近似排列计数50
  2. C#、VSTO讀取Excel類
  3. Mysql中WHERE IN,UNION 用法详解
  4. OPEN SQL
  5. Redis、Memcache区别
  6. MFC制作简单通讯录程序
  7. 在Windows Server 2012中搭建SQL Server 2012故障转移集群
  8. 基于FPGA的DDS任意波形发生器设计
  9. LibreOJ #2037. 「SHOI2015」脑洞治疗仪
  10. (五)SpringMVC之使用Kaptcha实现验证码功能