HDFS详解二:客户端Java Api

在《Hadoop三:Hadoop Java API初探(完结)》中已经介绍了为什么需要从winddows的eclipse转到linux下eclipse+maven来写java api,以及在linux搭建开发环境的demo程序。(详见:https://www.jianshu.com/p/dd13c1dba52d)

这一节我会介绍更详细的HDFS客户端API程序

写代码的时候需要从官网查看api文档,地址:https://hadoop.apache.org/docs/r2.9.1/api/


1. 初始化部分代码

conf.set("fs.defaultFS", "hdfs://10.10.77.194:9000"); //这一行的作用很重要,因为new出来的conf文件仅仅存储的是hdfs配置文件默认值,必须要在客户端手动设置

conf.set("dfs.replication", "2"); //另外需要根据实际情况设置每一个block的副本数量,我做实验设置的是2(配置文件中也是设置的2,跟配置文件保持同步就好)

package com.gamebear.test1;

import java.net.URI;

import java.util.Iterator;

import java.util.Map.Entry;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.LocatedFileStatus;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.RemoteIterator;

public class HadoopHdfs {

   static FileSystem fsObj = null;

  static Configuration conf = null;

  private static void init() throws Exception {

    conf = new Configuration(); /* set the "http://hadoop.apache.org/docs/stable/api/index.html" * set core-site.xml, "10.10.77.194" is the nameNode, "9000" is the nameNode client port */

    conf.set("fs.defaultFS", "hdfs://10.10.77.194:9000");

    conf.set("dfs.replication", "2");

    //conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");

    System.out.println(conf.get("fs.hdfs.impl")); fsObj = FileSystem.get(conf); //get a hadoop FileSystem client object, refer to the web:"http://hadoop.apache.org/docs/stable/api/index.html"

    //fsObj = FileSystem.get(new URI("hdfs://10.10.77.194:9000"), conf, "root"); //get the configuration file from hadoop server

  }


2. 查看默认配置参数

需要注意的是,有些参数是Hadoop服务器端参数,有些是客户端参数

private static void testConf() throws Exception{

    //import java.util.Map.Entry;

    Iterator<Entry<String, String>> it = conf.iterator();

    while(it.hasNext()){

        Entry<String, String> ent = it.next();

        System.out.println(ent.getKey() + ":" + ent.getValue());

    }

}

关注如下默认参数:

dfs.blocksize:134217728 //默认值128M,最小值是1M

dfs.replication:3 //默认值3, 我这里测试只有2台datanode,设置为了2

dfs.datanode.data.dir:file://${hadoop.tmp.dir}/dfs/data


3. 上传下载文件

在linux环境下的eclipse没有跨平台的问题

private static void testUpload() throws Exception

{

    fsObj.copyFromLocalFile(new Path("/kluter/hdpTestFile"), new Path("/json201710.tgz.copy"));

    System.out.println("upload finished!");

    fsObj.close();

}

private static void testDownload() throws Exception

{

    fsObj.copyToLocalFile(new Path("/json201710.tgz.copy"), new Path("/kluter/hdpTestFileDl"));

    System.out.println("download finished!");

    fsObj.close();

}


4. 嵌套创建目录结构

private static void testMkDir() throws Exception

{

    boolean mkdirs = fsObj.mkdirs(new Path("/aaa/bbb/ccc"));

    System.out.println("mkdirs finished!");

}


5. 递归删除目录

private static void testDel() throws Exception

{

    boolean delBl = fsObj.delete(new Path("/aaa/bbb"), true);

    System.out.println(delBl);

}


6. 递归查看文件夹下的文件信息

private static void testLs() throws Exception{

    RemoteIterator fileLst = fsObj.listFiles(new Path("/"), true);

    while(fileLst.hasNext()){

        LocatedFileStatus fileStatus = fileLst.next();

        System.out.println("blocksize: " + fileStatus.getBlockSize());

        System.out.println("owner: " + fileStatus.getOwner());

        System.out.println("Replication: " + fileStatus.getReplication());

        System.out.println("permission: " + fileStatus.getPermission());

        System.out.println("permission2: " + fileStatus.getPath().getName());

        BlockLocation[] blockLocations = fileStatus.getBlockLocations();

        for(BlockLocation bl:blockLocations){

            System.out.println("block-len: " + bl.getLength() + "---" + "block-offset:" + bl.getOffset());

            String[] hosts = bl.getHosts();

            for(String host:hosts){

                System.out.println(host);

            }

        }

    }

}

这里使用Iterator而不使用List的原因是因为,如果hdfs中有上亿个文件,那么客户端使用List的话内存容易爆掉,而且网络传输也很久。

而迭代器只是一种取数据的方式,调用next的时候才分配一个文件的少量内存,不占用大内存空间

代码打印出了分block文件的信息,查看block所在的host,便于mapreduce的时候分布式计算


如果不想递归查看,参数写false


7. 查看单目录下文件信息

private static void testLs2() throws Exception {

    FileStatus[] listStatus = fsObj.listStatus(new Path("/"));

    for(FileStatus file:listStatus) {

        System.out.println("permission2: " + file.getPath().getName());

        System.out.println("permission2: " + file.getPath());

        System.out.println(file.isDir()?"directory":"file");

        System.out.println("----------------------------------------------");

    }

}

这种方式适用于单个目录下文件较少的情况


8. 使用stream方式上传、下载文件

用流的方式来操作hdfs上的文件,可以实现读取指定偏移量范围的数据

8.1 使用stream方式上传文件

将/kluter/hdpTestFile以steam的形式上传到hdfs的aaa目录下:

private static void testUpload() throws Exception{

    FSDataOutputStream dfsOutStream = fsObj.create(new Path("/streamTestFile"), true);

    FileInputStream inputStream = new FileInputStream("/kluter/streamTestFile");

    IOUtils.copy(inputStream, dfsOutStream);

}


8.2 使用stream方式下载文件

private static void testDownload() throws Exception{

    FSDataInputStream inputStream = fsObj.open(new Path("/streamTestFile"));

    FileOutputStream dfsOutStream = new     FileOutputStream("/kluter/downloadStreamFile");

    IOUtils.copy(inputStream, dfsOutStream);

}


9. 使用stream方式,按需求读取

private static void testRamdomAccess() throws Exception{

    FSDataInputStream inputStream = fsObj.open(new Path("/streamTestFile"));

    FileOutputStream OutStream = new     FileOutputStream("/kluter/downloadStreamFile");

    /**

    * just seek 100, pass the first 100 bytes

    */

    // inputStream.seek(100);

    // IOUtils.copy(inputStream, OutStream);

    /**

    * copy by client control, u can use while here

    */

    IOUtils.copyLarge(inputStream, OutStream, 100, 300);

}

private static void testPrintScr() throws Exception{

    FSDataInputStream inputStream = fsObj.open(new Path("/streamTestFile"));

    IOUtils.copy(inputStream, System.out);

}

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,847评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,208评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,587评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,942评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,332评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,587评论 1 218
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,853评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,568评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,273评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,542评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,033评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,373评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,031评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,073评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,830评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,628评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,537评论 2 269

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,100评论 18 139
  • 复习是巩固学习知识的基本方法 如何合理地组织复习 (一)遵守三原则 1.及时复习 复习时机要得当,由于遗忘的发展开...
    Qian_fairyland阅读 607评论 1 1
  • 淡看世间繁华,细数人间欢乐。品尽天下美味,踏遍万里河山。
    半卷烟阅读 127评论 0 1
  • 今天写给自己的话! 从小到大,我被冠以大嗓门的称号,嗓门大,说话急,北方女子的形象展露无遗。但...
    懂静皆宜阅读 1,125评论 1 9
  • 所以说潍维岛到底是什么。我想潍维岛是一个遗憾之地。是一个我们真正所经历过却从未过涉足的世界。这里有你经常去的游乐园...
    花下死阅读 218评论 0 0