《十小时入门大数据》学习笔记之HDFS

笔记目录

    1. HDFS概述及设计目标
    1. HDFS架构
    1. HDFS副本机制
    1. HDFS环境搭建
    1. HDFS shell
    1. Java API 操作HDFS
    1. HDFS 文件读写流程
    1. HDFS优缺点

1. HDFS概述及设计目标

1.1 什么是HDFS
  • Hadoop 实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS;
  • 源自于Google的GFS论文
  • 发表于2003年,HDFS是GFS的克隆版
1.2 HDFS的设计目标
  • 非常巨大的分布式文件系统
  • 运行在普通廉价的硬件上
  • 易扩展、为用户提供性能不错的文件存储服务
  • 更多的请看官网....

2. HDFS架构

1个Master(NameNode/NN) 带N个Slaves(DataNode/DN)
一个文件会被拆分成多个Block,blocksize:128M,eg:130M的文件==>2 block(128M和2M)

  • NN:
    1). 负责客户端的请求响应
    2).负责元数据(文件名称、副本系数、Block存放的DN)的管理
  • DN:
    1). 存储用户的文件对应的数据块(Block)
    2). 要定期向NN发送信条信息,汇报本身及其所有的block信息,健康状况
    A typical deployment has a dedicated machine that runs only the NameNode software. Each of the other machines in the cluster runs one instance of the DataNode software. The architecture does not preclude running multiple DataNodes on the same machine but in a real deployment that is rarely the case.
  • 建议:NN和DN部署在不同的节点上
    图片.png

3. HDFS副本机制

Replication factor:副本因子/副本系数 ;处理文件的最后一个block,其他的block大小都相同。
图片.png
  • HDFS副本存放策略(面试的一个考点)
    如下图,假设一个集群有两个机架,橙色的代表客户端,假设文件有3个副本,那么第一个副本存放在客户端所在的机器上,另外两个副本存放在与客户端不在同一个机架上的随机的两台机器上。分机架的好处是:保证容错性。


    图片.png

4. HDFS环境搭建

  • 简单步骤:
    1). jdk安装
    • 解压: tar -zxvf jdk-8u181-linux-x64.tar.gz -C ~/app
    • 添加到系统环境变量: vim /etc/profile (或 vim ~/.bashrc )
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_181
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
  • 使环境变量生效:source /etc/profile (或 source ~/.bashrc)
  • 验证java是否配置成功:java -version
    2). 安装SSH
  • Ubuntu :
    sudo apt-get install ssh
    sudo apt-get install rsync
  • CentOS
    sudo yum install ssh
  • 配置免密码登录
ssh-keygen -t rsa  #一路回车就行
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
  • 验证是否免密码登录是否成功:
hadoop@Dell:~$ ssh localhost  # 接下来输入yes

3). 下载并解压Hadoop

  • 下载:到cdh官网直接下载
  • 解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app
    4). Hadoop配置文件的修改(hadoop_home/etc/hadoop/)
  • hadoop-env.sh
/home/hadoop/app/jdk1.8.0_181
  • core-site.xml
<!-- hadoop1.X的端口是9000,2.X以后的是8020-->
 <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:8020</value>
  </property>
<!-- hadoop默认的存储地址是临时文件夹,在linux下临时文件夹每次重启都会被删除,所以需要添加一个临时文件 -->
 <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/app/tmp</value>
  </property>
  • hdfs-site.xml
<!-- 由于是伪分步单节点。因此副本系数设置为1-->
 <property>
        <name>dfs.replication</name>
        <value>1</value> 
</property>

5). 启动hdfs

  • 格式化文件系统(仅第一次执行,):bin/hdfs namenode -format
  • 启动 hdfs:sbin/start-dfs.sh
  • 验证是否启动成功:
    jps :多次三个进程:NameNode 、DataNode、SecondaryNameNode
    浏览器:http://localhost:50070
    6). 停止hdfs
    sbin/stop-dfs.sh
    至此,HDFS环境搭建完成!
    7). 把hadoop配置到环境变量中: vim ~/.bashrc
    为了方便后期使用hadoop,需要把hadoop配置到系统环境变量中,后期不管在哪个控制台目录下都可以直接使用hadoop shell命令。
export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

保存之后一定记得执行:source ~/.bashrc 使配置文件生效。

5. HDFS shell

  • HDFS常用的shell命令
    ls mkdir put get mv cp ......
  • shell 例子
    1). 把当前目录下的hello.txt文件上传到hdfs的根目录下中:hadoop fs -put hello.txt /
    图片.png
    2). 查看hdfs根目录下的文件:hadoop fs -ls /
    图片.png
    3). 查看刚刚上传的hello.txt文件的内容:hadoop fs -text /hello.txt 或 hadoop fs -cat /hello.txt
    图片.png
    4). 创建文件夹:hadoop fs -mkdir /test
    图片.png
    5). 递归创建文件夹: hadoop fs -mkdir -p /test/a/b
    6). 递归展示文件:hadoop fs -ls -R /
    图片.png
    7). 从hdfs上下载文件到本地:hadoop fs -get /hello.txt (也可以在浏览器中下载文件或查看文件的信息)
    8).如果在使用中遇到不会是用的,可以直接在控制台上敲:hadoop fs 然后回车,会出现提示信息 ......

6. Java API 操作HDFS

  • 1) IDEA + Maven创建Java工程
    :IDEA和Maven的安装请看另外一篇笔记:Ubuntu 16.04安装IDEA和maven
    创建一个新项目(Maven项目),如下图,注意选上标红的选项,之后下一步。
    image.png
    输入项目名称,然后点击下一步
    image.png
    选中标红的部分选择maven安装的路径(可不选,使用默认的) ,之后一直下一步到结束。
    image.png
    至此,Java项目创建完毕!
    image.png
    1. 添加HDFS相关依赖
      在pom.xml中,安装下图进行添加hadoop的HDFS相关依赖
<!--  cdh版本的hadoop仓库-->
 <repositories>
    <repository>
      <id>cloudera</id>
      <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
    </repository>
  </repositories>
image.png
    1. 开发Java API操作HDFS文件

7. HDFS 文件读写流程(面试考点)

这里详见 其他简友的笔记: Hadoop学习笔记(三)漫画解读HDFS读写原理

8. HDFS优缺点

1)** 优点**

  • 数据冗余、硬件容错
  • 处理流式访问
  • 适合存储大文件
  • 可构建在廉价的机器上
    2)** 缺点**
  • 低延迟的数据访问
  • 不适合小文件存储(因为太多的小文件会浪费大量的NameNode的资源)
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,569评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,499评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,271评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,087评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,474评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,670评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,911评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,636评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,397评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,607评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,093评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,418评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,074评论 3 237
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,092评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,865评论 0 196
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,726评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,627评论 2 270

推荐阅读更多精彩内容