使用Hadoop的Java客户端API操作分布式文件系统
#获取文件系统实现
//hdfs://master01:9000/
FileSystem get(URI uri[,Configuration conf[,String user]])
//fs.defaultFS
FileSystem newInstance(URI uri[,Configuration conf[,String user]])
#从配置中获取默认URI路径
URI getDefaultUri(Configuration conf)
#打开一个指向给定HDFS文件的输入流
FSDataInputStream open(Path path[,int bufferSize])
#移动(不同的目录参数时)或重命名(相同的目录参数时)一个HDFS文件,它相当于mv命令
boolean rename(Path src,Path dest)
#创建符号链接,第一个参数是被链接的目标文件,第二个参数是符号连接,第三个参数表示符号连接是否允许创建父级目录,
//此方法调用之前必须首先调用FileSystem.enableSymlinks()以保证符号连接可用
createSymlink(Path src, Path link, boolean createParent)
#本地文件的内容直接追加到HDFS文件中
FSDataOutputStream append(Path path[,int bufferSize])
#创建一个指向给定HDFS文件的输出流,使用该输出流可以向该文件中写入内容
FSDataOutputStream create(Path path[,boolean override[,int bufferSize]])
#删除指定的HDFS文件或文件夹,第二个参数表示是否可以递归删除,方法返回是否删除成功的逻辑类型
boolean delete(Path path[,boolean recursive])
#判断给定的HDFS文件或路径是否存在
boolean exists(Path path)
#获取给定HDFS文件块的实际块尺寸(字节)
long getBlockSize(Path path)
#获取HDFS文件块的默认尺寸(字节)
long getDefaultBlockSize()
#获取文件系统的默认端口
int getDefaultPort()
#获取给定HDFS文件的尺寸
long getLength(Path path)
#获取给定HDFS文件的文件状态信息
FileStatus getFileStatus(Path path)
#获取HDFS文件的实际副本数量
int getReplication()
#设置给定文件的副本数量
boolean setReplication(Path src,short replication)
#判断给定的文件是否是文件/目录
boolean isFile(Path path)/isDirectory(Path path)
#获取HDFS文件的默认副本数量
int getDefaultReplication()
#创建指定路径的HDFS目录
boolean mkdirs(Path path[,FsPermission permission])
#获取文件系统的使用量和容量的状态
FileStatus getStatus()
#列出给定目录中的文件和文件夹
FileStatus[] listStatus(Path path[,PathFilter pf])
#第二个参数表示是否递归,如果第一个参数是文件则返回文件的状态信息,如果第一个参数是目录则表示是否递归列出该目录中的文件(不含文件夹)
RemoteIterator<LocatedFileStatus> listFiles(Path path,boolean recursive)
#获取给定HDFS文件块所在的位置
BlockLocation[] getFileBlockLocations(Path path,int start,long len)
BlockLocation[] getFileBlockLocations(FileStatus file,int start,long len)
#返回文件系统中所有文件的总尺寸
long getUsed()
#将本地单个文件拷贝到HDFS文件系统中,前两个参数表示是否需要删除源文件,是否需要覆盖目标文件
copyFromLocalFile([boolean delSrc[,boolean override]]Path src,Path dst)
#重载,将本地多个文件拷贝到HDFS文件系统中
copyFromLocalFile(boolean delSrc,boolean override,Path[] srcs,Path dst)
#将HDFS文件拷贝到本地文件系统中,第1个参数表示是否需要删除源文件
copyToLocalFile([boolean delSrc,]Path src,Path dst)
#将HDFS文件或文件夹从一个路径拷贝到另一个路径
FileUtil.copy(FileSystem srcFS,Path srcPath,FileSystem dstFS,Path dstPath,boolean delSource,boolean override,Configuration conf)

测试代码

测试说明:

全都切换到hadoop用户下;在主机上启动hdfs集群;使用jps查看启动是否成功;

主机:master01

节点:slave01、slave02、slave03

本地机器的eclipse上的代码:(导入hadoop-2.7.3-All.jar包

package com.mmzs.hdfs.main;

import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FileUtil;
import org.apache.hadoop.fs.LocatedFileStatus;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.RemoteIterator; /**
* @author hadoop
*
*/
public class HdfsMain { private static FileSystem fs;
private static Configuration conf;
static {
String uri = "hdfs://master01:9000/";
conf = new Configuration();
try {
fs = FileSystem.get(new URI(uri), conf, "hadoop");
} catch (IOException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
} catch (URISyntaxException e) {
e.printStackTrace();
}
} public static void main(String[] args) {
// mkdir("/data");
// uploadFile("/home/hadoop/test/1.txt");//本地文件路径
// downloadFile("/data/1.txt");//HDFS上的文件路径
// openFile("/data/2.txt");
try {
// writeFile("/data/1.txt");
// rename("/data/1.txt", "/data02/1-run.txt");
// rename("/data02/1-run.txt", "/data02/1copy.txt");
createLink("/data/1.txt", "/data/info");
// deleteFile("/data/2.txt");
// listFiles("/data");
// listFiles02("/data");
// copyFile("/data/1.txt", "/data/test/");
} catch (IOException e) {
e.printStackTrace();
}
} /**
* 实现集群文件的拷贝
* @param src
* @param path
* @throws IOException
*/
public static void copyFile(String src, String path) throws IOException {
Path srcpath = new Path(src);
Path dstpath = new Path(path); Boolean flag = FileUtil.copy(fs, srcpath, fs, dstpath, false, false, conf);
if (flag) {
System.out.println("拷贝文件成功");
} else {
System.out.println("拷贝文件失败");
}
} /**
* 创建文件夹
* @param path
*/
public static void mkdir(String path) {
Path newpath = new Path(path);
try {
Boolean flag = fs.mkdirs(newpath);
if (flag) {
System.out.println("文件夹创建成功");
} else {
System.out.println("文件夹创建失败");
}
} catch (IOException e) {
e.printStackTrace();
}
} /**
* 上传本地文件到HDFS集群
* @param path
*/
public static void uploadFile(String path) {
Path localFile = new Path(path);
Path clusterPath = new Path("/data/"); try {
fs.copyFromLocalFile(false, localFile, clusterPath);
System.out.println(" 上传成功!");
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
} /**
* 下载HDFS集群中的文件到本地系统中
* @param clusterPath
*/
public static void downloadFile(String clusterPath) {
Path clusterFile = new Path(clusterPath);
Path localPath = new Path("/home/hadoop/test/"); try {
fs.copyToLocalFile(false, clusterFile, localPath);
System.out.println("下载成功!");
} catch (IOException e) {
e.printStackTrace();
}
} /**
* 打开集群文件并输出文件内容
* @param clusterFile
*/
public static void openFile(String clusterFile) {
Path clusterPath = new Path(clusterFile);
FSDataInputStream fis = null; try {
fis = fs.open(clusterPath,1024);
while (fis.available()>0) {//available表示测试是否可以读
// String line = fis.readUTF();
String line = fis.readLine();
System.out.println(line);
}
} catch (IOException e) {
e.printStackTrace();
}finally {
try {
if(null != fis)
fis.close();
} catch (IOException e) {
e.printStackTrace();
}
}
} /**
* 写一个文件到HDFS集群
* @param clusterFile
* @throws IOException
*/
public static void writeFile(String clusterFile) throws IOException {
Path destFile = new Path(clusterFile);
FSDataOutputStream fos = null;
if (fs.exists(destFile) && fs.isDirectory(destFile)) {
System.out.println("参数路径指向一个目录,无法写入数据");
return;
}
//如果文件存在则以追加的方式打开,否则直接创建文件并写入内容
if (fs.exists(destFile) && fs.isFile(destFile)) {
fos = fs.append(destFile);
}else {
fos = fs.create(destFile, true);
}
try{
fos.writeUTF("he is ligang\n");
fos.writeUTF("he is 65kg\n");
fos.writeUTF("he is eat\n");
fos.writeUTF("he is running\n");
fos.flush();//一定要flush啊!!!!!!!!
System.out.println("写入完成!");
}finally{
if(null != fs) fs.close();
}
} /**
* 移动(在不同目录下)或重命名文件(同一个目录下);
* @param path1 源文件路径
* @param path2 移动或重命名后的文件路径
* @throws IOException
*/
public static void rename(String path1, String path2) throws IOException {
Path file01 = new Path(path1);
Path file02 = new Path(path2);
if (!fs.exists(file01)) return; int index = path2.lastIndexOf('/');
String dir = path2.substring(0, index);
Path dstpath = new Path(dir); Boolean flag = null;
if (!fs.exists(dstpath)) {
flag = fs.mkdirs(dstpath);
} // if (flag) {
// return;
// } fs.rename(file01, file02);
} /**
* 创建集群文件快捷方式
* @param src
* @param link
* @throws IOException
*/
public static void createLink(String src, String link) throws IOException {
Path srcPath = new Path(src);
Path linkPath = new Path(link); //如果创建快捷方式的源文件不存在或者是一个目录就理它
if (!fs.exists(srcPath) || fs.isDirectory(srcPath)) return;
fs.createSymlink(srcPath, linkPath, true);
System.out.println("创建完成!");
} /**
* 删除集群文件或者目录
* @param path
* @throws IOException
*/
public static void deleteFile(String path) throws IOException {
Path dstPath = new Path(path);
Boolean flag = fs.delete(dstPath, true);
if (flag) {
System.out.println("删除成功");
}else {
System.out.println("删除失败");
}
} /**
* 查看给定参数集群路径下的文件或者文件夹
* @param path
* @throws IOException
*/
public static void listFiles(String path) throws IOException {
Path dstPath = new Path(path);
if(!fs.exists(dstPath) ||fs.isFile(dstPath)) {
return;
}
FileStatus[] filestatus = fs.listStatus(dstPath);
for(FileStatus fstatus:filestatus) {
if(fstatus.isFile()) {
//如果是文件打印出文件的大小尺寸(单位:byte)
long filelen = fstatus.getLen();
System.out.println(filelen);
//获取文件名
System.out.println("文件名:"+fstatus.getPath().getName());
//文件的路径
System.out.println("文件路径:"+fstatus.getPath().toString());
//获取文件块的信息
BlockLocation[] bls = fs.getFileBlockLocations(fstatus, 0, filelen);
//循环打印每一个块的信息
for(BlockLocation bl:bls) {
String[] hosts = bl.getHosts() ;
System.out.print("主机列表:"+"\n"+"hosts:");
for (int i = 0; i < hosts.length; i++) {
System.out.print(hosts[i]+"---");
}
System.out.println();
Long blockSize = bl.getLength();
System.out.println("blockSize:"+blockSize);
String[] blockPaths = bl.getTopologyPaths();
System.out.println("块路径列表:");
for (int i = 0; i < blockPaths.length; i++) {
System.out.println(blockPaths[i]+"---");
}
}
}else {
//获取文件名
String fileName = fstatus.getPath().getName();
//获取目录名
String filePath = fstatus.getPath().toString();
System.out.println("目录名字:"+fileName+"目录路径:"+filePath);
}
}
} /**
* 遍历指定路径下的问夹(不含文件夹)
* @param path
* @throws IOException
*/
public static void listFiles02(String path) throws IOException {
Path dstPath = new Path(path);
if(!fs.exists(dstPath) ||fs.isFile(dstPath)) {
return;
}
RemoteIterator<LocatedFileStatus> fss = fs.listFiles(dstPath, true);
while ( fss.hasNext() ) {
LocatedFileStatus fstatus = fss.next();
if(fstatus.isFile()) {
//如果是文件打印出文件的大小尺寸(单位:byte)
long filelen = fstatus.getLen();
System.out.println("文件大小尺寸 :"+filelen);
//获取文件名
System.out.println("文件名:"+fstatus.getPath().getName());
//文件的路径
System.out.println("文件路径:"+fstatus.getPath().toString());
//获取文件块的信息
BlockLocation[] bls = fs.getFileBlockLocations(fstatus, 0, filelen);
//循环打印每一个块的信息
for(BlockLocation bl:bls) {
String[] hosts = bl.getHosts() ;
System.out.print("主机列表:"+"\n"+"hosts:");
for (int i = 0; i < hosts.length; i++) {
System.out.print(hosts[i]+"---");
}
System.out.println();
Long blockSize = bl.getLength();
System.out.println("blockSize:"+blockSize);
String[] blockPaths = bl.getTopologyPaths();
System.out.println("块路径列表:");
for (int i = 0; i < blockPaths.length; i++) {
System.out.println(blockPaths[i]+"---");
}
}
}else {
//获取文件名
String fileName = fstatus.getPath().getName();
//获取目录名
String filePath = fstatus.getPath().toString();
System.out.println("目录名字:"+fileName+"目录路径:"+filePath);
}
} }
}

HdfsMain

然后在eclipse中直接诶运行即可。

然后使用:“hdfs dfs -ls /集群文件路径”   等操作来查看即可。

运行中可以查看运行状态:hdfs dfs admin -report

最新文章

  1. [转载]再谈百度:KPI、无人机,以及一个必须给父母看的案例
  2. 六、saltstack的module组件
  3. SQL Server批量数据导出导入Bulk Insert使用
  4. Easy-UI 动态添加DataGrid的Toolbar按钮
  5. 《Nagios系统监控实践》一书出版
  6. windows phone 网易云阅读hubtile效果实现
  7. careercup-递归和动态规划 9.4
  8. [wikioi]最长严格上升子序列
  9. SVN global ignore pattern for c#
  10. grails框架中在使用domain的save方法保存时保存不成功
  11. crm2011js操作IFRAME和选项集
  12. http GET
  13. MySQL 忘记root密码解决方法,基于Ubuntu 14.10
  14. 本地跑 spark ui 报错
  15. mysql建立索引的几大原则
  16. css动画和js动画的差异
  17. 群辉6.1.7安装scrapy框架执行爬虫
  18. springmvc防止重复提交拦截器
  19. Python简单做二维统计图
  20. [转载]Cool, Tomcat is able to handle more than 13,000 concurrent connections

热门文章

  1. Touch365现已上架!
  2. sublime text3如何在浏览器预览?
  3. bzoj4445(半平面交)
  4. python猜数字游戏console版本
  5. beautifulsoup爬取糗事百科
  6. vue.js 2.0(2)
  7. prototype 和 __proto__
  8. W3C标准和规范
  9. centos 7 默认图形界面(或者字符界面)启动
  10. 高手养成计划基础篇-Linux第二季