HDFS(5)- 数据流之写入

根据下图介绍HDFS的写入流程。

hdfs-write.png

步骤

1. create

客户端通过对DistributedFileSystem对象调用create()方法来发起创建文件流程。

2. create

DistributedFileSystem对象对namenode创建一个RPC调用,在文件系统中的命名空间中创建一个文件,此时还没有对此文件创建相应的数据块。namenode执行各种检查确保这个文件不存在以及客户端有新建该文件的权限。如果检查通过namenode就会创建这个文件并添加一条记录。否则,文件创建失败并向客户端抛出IOException异常。DistributedFileSystem对象向客户端返回一个FSDataOutputStream对象。

3. write

客户端获得FSDataOutputStream对象后,开始写入数据。和读取数据一样FSDataOutputStream封装了DFSOutputStream对象,该对象负责处理datanodenamenode之间的通讯。

4. write packet

DFSOutputStream将写入的数据分成一个个的数据包并写入内部队列,称为“数据队列”。DataStreamer处理数据队列,它的挑选出一组合适存储数据的datanodenamenode根据这些信息来分配新的数据块。假设副本数为3,则写入需要涉及3个datanodeDataStreamer将数据包流式写入第一个datanode中,并且第一个会将数据转发给第二个datanode。同样,第二个也会将数据转发给第三个datanode

5. ack packet

DFSOutputStream也维护着一个内存数据包队列来等待datanode收到数据的确认回执,称为“确认队列”。收到所有datanode确认信息后,该数据包才会从确认队列删除。如果任何datanode写入数据中发生故障,则执行以下操作。

  1. 关闭错误的写入流。确认把队列中的所有数据包都添加回数据队列的最前端,等待重新发送,确保故障发生节点以后的datanode不会漏掉任何一个数据包。

  2. 当前数据块可能已经正常写入一些节点,则对这些数据块指定一个新的标识,并将该表示传递给namenode,便于故障datanode可以删除存储的部分数据块。

  3. 删除故障的datanode,选择两个正常的datanode构建一条新的管线。余下的数据块写入管线中正常的datanodenamenode注意到块副本量不足时,会在另一个节点上创建一个新的副本。

6. close

客户端完成数据的写入后,对数据流调用close()方法。

7. complete

通知namenode所有文件写入完成后完成写入操作。

推荐阅读更多精彩内容

  • 随着全球经济的不断发展,大数据时代早已悄悄到来,而Hadoop又是大数据环境的基础,想入门大数据行业首先需要了解H...
    LeiLv阅读 2,358评论 0 31
  • 概述:HDFS即Hadoop Distributed File System分布式文件系统,它的设计目标是把超大数...
    LeiLv阅读 662评论 0 5
  • 认识HDFS HDFS的特点: 高容错性高吞吐量故障的检测和自动快速恢复流式的数据访问大数据集一次写入,多次读写 ...
    Bloo_m阅读 2,075评论 6 7
  • hadoop HDFS原理解析01 HDFS架构•NameNode•DataNode•Sencondary Nam...
    白菜青萝卜阅读 1,982评论 2 30
  • 思考问题 HDFS的架构 设计前提和目标 专为存储超大文件而设计:hdfs应该能够支持GB级别大小的文件;它应该能...
    Sakura_P阅读 155评论 0 2