本文参考:黑泽君相关博客

本文是我总结日常工作中遇到的坑,结合黑泽君相关博客,选取、补充了部分内容。

开启 map 输出阶段压缩可以减少 job 中 map 和 Reduce task 间数据传输量。

查看配置命令如下,对应的设置只要加上相关值即可,如下

是否开启hive中间传输数据压缩功能?
hive> set hive.exec.compress.intermediate;
hive.exec.compress.intermediate=false 开启hive中间传输数据压缩功能
hive> set hive.exec.compress.intermediate=true;
是否开启mapreduce中map输出压缩功能
hive> set mapreduce.map.output.compress;
mapreduce.map.output.compress=true
是否设置mapreduce中map输出数据的压缩方式
hive> set mapreduce.map.output.compress;
mapreduce.map.output.compress=true

当 Hive 将输出写入到表中时,输出内容同样可以进行压缩。属性 hive.exec.compress.output 控制着这个功能。

用户可能需要保持默认设置文件中的默认值 false,这样默认的输出就是非压缩的纯文本文件了。用户可以通过在查询语句或执行脚本中设置这个值为 true,来开启输出结果压缩功能。

查看配置命令如下,对应的设置只要加上相关值即可,如下

是否开启hive最终输出数据压缩功能
hive> set hive.exec.compress.output;
hive.exec.compress.output=false
是否开启mapreduce最终输出数据压缩
hive> set hive.exec.compress.output;
hive.exec.compress.output=false
是否设置mapreduce最终数据输出压缩方式
hive> set mapreduce.output.fileoutputformat.compress.codec;
mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.DefaultCodec 设置为SnappyCodec 压缩
hive> set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.SnappyCodec ;
是否设置mapreduce最终数据输出压缩为块压缩(默认是行压缩RECORD)
hive> set mapreduce.output.fileoutputformat.compress.type;
mapreduce.output.fileoutputformat.compress.type=BLOCK

文件存储格式

Hive支持的存储数的格式主要有:TEXTFILE 、SEQUENCEFILE、ORC、PARQUET。

TextFile格式

默认格式,数据不做压缩,磁盘开销大,数据解析开销大。

可结合Gzip、Bzip2使用。

但使用Gzip这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作。

Orc格式

Orc (Optimized Row Columnar)是Hive 0.11版里引入的新的存储格式。

Index Data

Index Data 包括每一列的最小值和最大值,以及每一列中的行位置。(也可以包含bit field or bloom filter ) 行索引项提供了偏移量,使您能够在解压缩块中查找正确的压缩块和字节。

注意,ORC索引仅用于选择stripes 和 row groups,而不用于回答查询。

拥有相对频繁的行索引项可以在stripe 内跳过行,以便快速读取,尽管stripe 很大。默认情况下,可以跳过每10,000行。

Row Data

存的是具体的数据,先取部分行,然后对这些行按列进行存储。对每个列进行了编码,分成多个Stream来存储。

Stripe Footer

存的是各个Stream的类型,长度等信息。

File Footer

每个文件有一个File Footer,这里面存的是每个Stripe的行数,每个Column的数据类型信息等;

PostScript

每个文件的尾部是一个PostScript,这里面记录了整个文件的压缩类型以及FileFooter的长度信息等。

在读取文件时,会seek到文件尾部读PostScript,从里面解析到File Footer长度,再读FileFooter,从里面解析到各个Stripe信息,再读各个Stripe,即从后往前读。

示例:
数据量:19017003
hive> CREATE TABLE tmp.orcTest stored AS ORC
> TBLPROPERTIES
> ('orc.compress'='SNAPPY',
> 'orc.create.index'='true',
> 'orc.bloom.filter.fpp'='0.05',
> 'orc.stripe.size'='10485760',
> 'orc.row.index.stride'='10000')
> AS
> SELECT
> *
> FROM tmp.textFileTest
Stage-Stage-1: Map: 16 Reduce: 62 Cumulative CPU: 1350.32 sec HDFS Read: 4140450145 HDFS Write: 250057437 SUCCESS 向表中加载数据(不能使用load方式加载数据,需要insert into方式或者上述方式,即一定要通过MapReduce任务加载数据)
orc:不使用索引
hive> set hive.optimize.index.filter=false;
hive> select * from tmp.orcTest where userid ='02012138';
Query ID = hdfs_20190716114646_cb74ab6e-3d7f-42a8-b1e8-703abd89c420
Total jobs = 1
Launching Job 1 out of 1
.
.
.
Stage-Stage-1: Map: 5 Cumulative CPU: 32.88 sec HDFS Read: 250016639 HDFS Write: 175 SUCCESS
Total MapReduce CPU Time Spent: 32 seconds 880 msec
OK
02012138 2019-06-16 00:21:03.000000000 10000 0 20190616
Time taken: 13.935 seconds, Fetched: 1 row(s)
很明显,扫描了所有记录。再使用索引查询:
orc:使用索引
hive> set hive.optimize.index.filter=true;
hive> select * from tmp.orcTest where userid ='02012138';
Query ID = hdfs_20190716114747_dd02a4a3-7a25-424b-84d8-a314e918464f
Total jobs = 1
Launching Job 1 out of 1
.
.
.
Stage-Stage-1: Map: 5 Cumulative CPU: 24.77 sec HDFS Read: 58144301 HDFS Write: 175 SUCCESS
Total MapReduce CPU Time Spent: 24 seconds 770 msec
OK
02012138 2019-06-16 00:21:03.000000000 10000
Time taken: 12.916 seconds, Fetched: 1 row(s) 可以看到,只扫描了部分记录,即根据Row Group Index中的min/max跳过了WHERE条件中不包含的stripes,索引有效果。
TeXtFile
hive> select * from tmp.tb_tmp_tms_stb_errorcode where userid ='02012138';
Query ID = hdfs_20190716114747_ac4b272c-4317-4b47-9726-91f297fc1af8
Total jobs = 1
Launching Job 1 out of 1
.
.
.
Stage-Stage-1: Map: 16 Cumulative CPU: 112.89 sec HDFS Read: 4140148821 HDFS Write: 175 SUCCESS
Total MapReduce CPU Time Spent: 1 minutes 52 seconds 890 msec
OK
02012138 2019-06-16 00:21:03.000000000 10000
Time taken: 17.072 seconds, Fetched: 1 row(s) 数据未经过压缩,读取全集数据
注:我看一些文档说,Orc列存储,如果用 =,> 之类 筛选列不会触发 mapReduce,经过测试,还是触发了,而且查询时间整体上比TextFile 短。
关于mapReduce的后续再找找答案,或者有知道的道友分享下。


Parquet格式

这个东东我用的少,了解不多,在这里就仅仅标记一下

Parquet文件是以二进制方式存储的,所以是不可以直接读取的,文件中包括该文件的数据和元数据,因此Parquet格式文件是自解析的。

通常情况下,在存储Parquet数据的时候会按照Block大小设置行组的大小,由于一般情况下每一个Mapper任务处理数据的最小单位是一个Block,这样可以把每一个行组由一个Mapper任务处理,增大任务执行并行度。Parquet文件的格式如下图所示。

各种存储文件的查询速度总结:经过验证,查询速度相近, orc、parquet有时候会比TextFile稍微快一丢丢。

小结:在实际的项目开发当中,hive表的数据存储格式一般选择:orc或parquet。压缩方式一般选择snappy或lzo。(使用压缩后可大量节省空间)


存储和压缩结合

  • 查看hadoop支持的压缩方式
[hdfs@tmpe2e02 tmp_lillcol]$ hadoop checknative
19/07/16 14:21:20 INFO bzip2.Bzip2Factory: Successfully loaded & initialized native-bzip2 library system-native
19/07/16 14:21:20 INFO zlib.ZlibFactory: Successfully loaded & initialized native-zlib library
Native library checking:
hadoop: true /opt/cloudera/parcels/CDH-5.7.2-1.cdh5.7.2.p0.18/lib/hadoop/lib/native/libhadoop.so.1.0.0
zlib: true /lib64/libz.so.1
snappy: true /opt/cloudera/parcels/CDH-5.7.2-1.cdh5.7.2.p0.18/lib/hadoop/lib/native/libsnappy.so.1
lz4: true revision:10301
bzip2: true /lib64/libbz2.so.1
openssl: true /usr/local/ssl/lib/libcrypto.so
  • HiveQL语句指定ORC文件格式配置
配置 默认值 备注
orc.compress ZLIB 高级压缩(one of NONE, ZLIB, SNAPPY)
orc.compress.size 262,144 每个压缩块中的字节数
orc.stripe.size 67,108,864 每条stripe中的字节数
orc.row.index.stride 10,000 索引条目之间的行数(必须是>= 1000)
orc.create.index true 是否创建行索引
orc.bloom.filter.columns "" 逗号分隔的列名列表,应该为其创建bloom过滤器
orc.bloom.filter.fpp 0.05 bloom过滤器的误报概率(必须是>0.0和<1.0)
案例:
CREATE TABLE tmp.orcTest stored AS ORC
TBLPROPERTIES
('orc.compress'='SNAPPY',
'orc.create.index'='true',
'orc.bloom.filter.fpp'='0.05',
'orc.stripe.size'='10485760',
'orc.row.index.stride'='10000')
AS
SELECT
*
FROM tmp.orcTextFile
DISTRIBUTE BY userid sort BY userid; orc存储文件默认采用ZLIB压缩。ZLIB压缩率比snappy的高,但是ZLIB解压缩速率很低。

Fetch抓取

Fetch抓取是指,Hive中对某些情况的查询可以不必使用MapReduce计算。

例如:SELECT * FROM orcTest; 在这种情况下,Hive可以简单地读取orcTest对应的存储目录下的文件,然后输出查询结果到控制台。

配置
hive-default.xml.template 中 hive.fetch.task.conversion <property>
<name>hive.fetch.task.conversion</name>
<value>more</value>
<description>
可选值 [none, minimal, more].
一些select查询可以转换为单个获取任务,从而最小化延迟。
目前,查询应该是单一来源的,没有任何子查询,也不应该有任何聚合或区别(引起RS)、横向视图和连接。
0. none : 禁用 hive.fetch.task.conversion
1. minimal : SELECT STAR, FILTER on partition columns, LIMIT only
2. more : SELECT, FILTER, LIMIT only (support TABLESAMPLE and virtual columns)
</description>
</property>
测试:
hive> set hive.fetch.task.conversion; //查询当前配置
hive.fetch.task.conversion=minimal hive> set hive.fetch.task.conversion=none;
hive> select userid from tmp.orcTest limit 1;
Query ID = hdfs_20190716151010_29239e97-a06c-47aa-9958-f1964ab8eb17
Total jobs = 1
Launching Job 1 out of 1
.
.
.
Stage-Stage-1: Map: 5 Cumulative CPU: 15.09 sec HDFS Read: 4155591 HDFS Write: 661 SUCCESS
Total MapReduce CPU Time Spent: 15 seconds 90 msec
OK
02012138
Time taken: 13.908 seconds, Fetched: 10 row(s) hive> set hive.fetch.task.conversion=more;
hive> select userid from tmp.orcTest limit 10;
OK
02012138
Time taken: 0.025 seconds, Fetched: 10 row(s)

把hive.fetch.task.conversion设置成none,然后执行查询语句,都会执行MapReduce程序。


本地模式

有时Hive的输入数据量是非常小的。

在这种情况下,为查询触发执行任务消耗的时间可能会比实际job的执行时间要多的多。

对于大多数这种情况,Hive可以通过本地模式在单台机器上处理所有的任务。

对于小数据集,执行时间可以明显被缩短。

// 开启本地mr模式
hive> set hive.exec.mode.local.auto;
hive.exec.mode.local.auto=false // 设置local mr的最大输入数据量,当输入数据量小于这个值时采用local mr的方式,默认为134217728,即128M
hive> set hive.exec.mode.local.auto.inputbytes.max;
hive.exec.mode.local.auto.inputbytes.max=134217728 // 设置local mr的最大输入文件个数,当输入文件个数小于这个值时采用local mr的方式,默认为4
hive> set hive.exec.mode.local.auto.input.files.max;
hive.exec.mode.local.auto.input.files.max=4 上面是查看参数值的方法,对应的设置直接改成设置值即可。
创建测表
hive> CREATE TABLE tmp.orclocal stored AS ORC
> TBLPROPERTIES
> ('orc.compress'='SNAPPY',
> 'orc.create.index'='true',
> 'orc.bloom.filter.fpp'='0.05',
> 'orc.stripe.size'='10485760',
> 'orc.row.index.stride'='10000')
> AS
> SELECT
> *
> FROM tmp.orcTest
> DISTRIBUTE BY userid sort BY userid limit 1000; 查看文件数量:1个 符合配置
hive> !hadoop fs -du -h hdfs://ns1/user/hive/warehouse/tmp.db/orclocal;
22.5 K 45.1 K hdfs://ns1/user/hive/warehouse/tmp.db/orclocal/000000_0 关闭本地模式,并执行查询语句
hive> set hive.exec.mode.local.auto=false;
hive> select count(*) from tmp.orclocal;
OK
1000
Time taken: 18.98 seconds, Fetched: 1 row(s)
开启本地模式,并执行查询语句
hive> set hive.exec.mode.local.auto=true;
hive> select count(*) from tmp.orclocal;
OK
1000
Time taken: 1.576 seconds, Fetched: 1 row(s) 时间对比有点不真实了....,但是测试几次,在小文件的情况下开启本地模式确实优势很大

最新文章

  1. H5页面在QQ和微信上分享,为什么不能自定义设置图片和摘要?
  2. Chrome开发工具Elements面板(编辑DOM和CSS样式)详解
  3. 你所不知道的Android Studio调试技巧
  4. eclipse配置gradle
  5. wpf 窗体内容旋转效果 网摘
  6. 1_mysql +DBA职业发展
  7. IIS管理
  8. a[1000][1000]程序崩溃
  9. Cygwin + CMake 测试
  10. ubuntu装机后的一些零散配置
  11. 【23】宁以non-member、non-friend替换member函数
  12. [React] React Fundamentals: Using Refs to Access Components
  13. poj 1228 凸包
  14. Delphi NativeXml用法攻略
  15. 3522: [Poi2014]Hotel( 树形dp )
  16. Wireshark抓包介绍和TCP三次握手分析
  17. 如何简单的实现新手引导之UGUI篇
  18. [国嵌攻略][155][I2C用户态驱动设计]
  19. 记一次 MySQL semaphore crash 的分析(爱可生)
  20. Centos7升级gcc版本方法之一使用scl软件集

热门文章

  1. delphi xe10 获取屏幕截图
  2. thinkphp 数据库缓存
  3. NX二次开发-算法篇-冒泡排序(例子:遍历所有点并排序)
  4. NX二次开发-NXOPEN导出STEP Step214Creator *step214Creator1;
  5. markdown常用数学符号小结
  6. sqlserver 获取实例上用户数据库的数据字典
  7. spark-sql性能优化之——动态实现多个列应用同一个函数
  8. 2019-8-27-静默命令行安装-Visual-C++-发行包
  9. 神经网络 (2)- Alexnet Training on MNIST
  10. Python学习笔记(四)——文件永久存储