hadoop压缩和解压
2024-08-25 05:41:05
最近有一个hadoop集群上的备份需求。源文件有几百G,如果直接复制太占用磁盘空间。将文件从hadoop集群下载到本地,压缩之后再上传到hadoop则太耗时间。于是想到能否直接在HDFS文件系统上进行压缩和解压。
经过粗略的了解,使用pig脚本可轻松的实现以上目标。
压缩
set output.compression.enabled true;
set output.compression.codec org.apache.hadoop.io.compress.GzipCodec; uncompress = load '$uncompress';
store uncompress into '$compress';
解压
compress = load '$compress';
set output.compression.enabled false;
store compress into '$uncompress';
最新文章
- August 23rd 2016 Week 35th Tuesday
- Android开发(二十八)——基础功能函数
- qwt 介绍
- RFID系统的选择
- 【PHP SDK for OpenStack/Rackspace APIs】身份验证
- CSS选项卡
- 潜水JVM
- 聊聊RPC及其原理
- TCP/IP资料整理
- .NET垃圾回收机制(二)
- 基于FPGA的视频时序生成
- JPQL设置自增长、只读、文本类型等的注解
- spring+springMVC+mybatis+maven+mysql环境搭建(一)
- odoo开发环境搭建(一):安装VMware Workstation
- EF访问数据库报“ExecuteReader 要求已打开且可用的 Connection。连接的当前状态为已关闭。”错误
- IOS文件系统及其相关操作(NSFileManager,NSFileHandle)
- .Net Core2.0基于DbContext,IActionFilter过滤器实现全局UOW,不使用TransactionScope
- 构造函数中的super和this的使用
- codeforces 300 div2 B.Pasha and Phone 容斥原理
- Linux上jdk安装及环境变量设置