hadoop单机模式、伪分布式和分布式

hadoop

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。

Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。

Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。

HDFS架构

(1)NameNode

(2)DataNode

(3)Secondary NameNode

NameNode

(1)是整个文件系统的管理节点。它维护着整个文件系统的文件目录树,文件/目录的元信息和每个文件对应的数据块列表。接收用户的操作请求。

(2)文件包括:

fsimage:元数据镜像文件。存储某一时段NameNode内存元数据信息。

edits:操作日志文件。

fstime:保存最近一次checkpoint的时间

(3)以上这些文件是保存在linux的文件系统中。

SecondaryNameNode

(1)HA的一个解决方案。但不支持热备。配置即可。

(2)执行过程:从NameNode上下载元数据信息(fsimage,edits),然后把二者合并,生成新的fsimage,在本地保存,并将其推送到NameNode,替换旧的fsimage.

(3)默认在安装在NameNode节点上,但这样不安全!

Datanode

(1)提供真实文件数据的存储服务。

(2)文件块(block):最基本的存储单位。对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。HDFS默认Block大小是128MB,以一个256MB文件,共有256/128=2个Block.

dfs.block.size

(3)不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间

(4)Replication。多复本。默认是三个。hdfs-site.xml的dfs.replication属性

一.单机模式

建立用户,设置密码(密码此次设置为(redhat)

[root@server1 ~]# useradd -u 1000 hadoop

[root@server1 ~]# passwd hadoop

2.hadoop的安装配置

[root@server1 ~]# mv hadoop-3.0.3.tar.gz jdk-8u181-linux-x64.tar.gz /home/hadoop

[root@server1 ~]# su - hadoop

[hadoop@server1 ~]$ ls

hadoop-3.0.3.tar.gz  jdk-8u181-linux-x64.tar.gz

[hadoop@server1 ~]$ tar zxf jdk-8u181-linux-x64.tar.gz

[hadoop@server1 ~]$ tar zxf hadoop-3.0.3.tar.gz

[hadoop@server1 ~]$ ln -s jdk1.8.0_181/ java

[hadoop@server1 ~]$ ln -s hadoop-3.0.3 hadoop

[hadoop@server1 ~]$ ls

hadoop        hadoop-3.0.3.tar.gz  jdk1.8.0_181

hadoop-3.0.3  java                jdk-8u181-linux-x64.tar.gz

3.配置环境变量

[hadoop@server1 hadoop]$ pwd

/home/hadoop/hadoop/etc/hadoop

[hadoop@server1 hadoop]$ vim hadoop-env.sh

54 export JAVA_HOME=/home/hadoop/java

[hadoop@server1 ~]$ vim .bash_profile

PATH=$PATH:$HOME/.local/bin:$HOME/bin:$HOME/java/bin

[hadoop@server1 ~]$ source .bash_profile

[hadoop@server1 ~]$ jps

2133 Jps

4.测试

[hadoop@server1 hadoop]$ pwd

/home/hadoop/hadoop

[hadoop@server1 hadoop]$ mkdir input

[hadoop@server1 hadoop]$ cp etc/hadoop/*.xml input/

[hadoop@server1 hadoop]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.3.jar grep input output 'dfs[a-z.]+'

[hadoop@server1 hadoop]$ cd output/

[hadoop@server1 output]$ ls

part-r-00000  _SUCCESS

[hadoop@server1 output]$ cat *

1 dfsadmin

二.伪分布式

namenode和datanode都在自己这台主机上

1.编辑文件

[hadoop@server1 hadoop]$ pwd

/home/hadoop/hadoop/etc/hadoop

[hadoop@server1 hadoop]$ vim core-site.xml

<configuration>

    <property>

        <name>fs.defaultFS</name>

        <value>hdfs://localhost:9000</value>

    </property>

</configuration>

[hadoop@server1 hadoop]$ vim hdfs-site.xml

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

</configuration>

2.生成密钥做免密连接

[hadoop@server1 hadoop]$ ssh-keygen

[hadoop@server1 hadoop]$ ssh-copy-id localhost

3.格式化,并开启服务

[hadoop@server1 hadoop]$ pwd

/home/hadoop/hadoop

[hadoop@server1 hadoop]$ bin/hdfs namenode -format

[hadoop@server1 hadoop]$ cd sbin/

[hadoop@server1 sbin]$ ./start-dfs.sh

[hadoop@server1 sbin]$ jps

2458 NameNode

2906 Jps

2765 SecondaryNameNode

2575 DataNode

4.浏览器查看http://172.25.68.1:9870

5.测试,创建目录,并上传

[hadoop@server1 hadoop]$ pwd

/home/hadoop/hadoop

[hadoop@server1 hadoop]$ bin/hdfs dfs -mkdir -p /user/hadoop

[hadoop@server1 hadoop]$ bin/hdfs dfs -ls

[hadoop@server1 hadoop]$ bin/hdfs dfs -put input

[hadoop@server1 hadoop]$ bin/hdfs dfs -ls

Found 1 items

drwxr-xr-x  - hadoop supergroup          0 2019-05-28 10:20 input

删除input和output文件,重新执行命令(测试从分布式上拉取文件)

[hadoop@server1 hadoop]$ rm -fr input/ output/

[hadoop@server1 hadoop]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.3.jar grep input output 'dfs[a-z.]+'

[hadoop@server1 hadoop]$ ls

bin  etc  include  lib  libexec  LICENSE.txt  logs  NOTICE.txt  README.txt  sbin  share

**此时input和output不会出现在当前目录下,而是上传到了分布式文件系统中,网页上可以看到**

[hadoop@server1 hadoop]$ bin/hdfs dfs -cat output/*

1 dfsadmin

[hadoop@server1 hadoop]$ bin/hdfs dfs -get output      ##从分布式系统中get下来output目录

[hadoop@server1 hadoop]$ cd output/

[hadoop@server1 output]$ ls

part-r-00000  _SUCCESS

[hadoop@server1 output]$ cat *

1 dfsadmin

分布式

主机是namenode,其它从机是datanode

1.先停掉服务,清除原来的数据

[hadoop@server1 hadoop]$ sbin/stop-dfs.sh

Stopping namenodes on [localhost]

Stopping datanodes

Stopping secondary namenodes [server1]

[hadoop@server1 hadoop]$ jps

3927 Jps

[hadoop@server1 hadoop]$ cd /tmp/

[hadoop@server1 tmp]$ ls

hadoop  hadoop-hadoop  hsperfdata_hadoop

[hadoop@server1 tmp]$ rm -fr *

2.新开两个虚拟机,当做节点

[root@server2 ~]# useradd -u 1000 hadoop

[root@server3 ~]# useradd -u 1000 hadoop

[root@server1 ~]# yum install -y nfs-utils

[root@server2 ~]# yum install -y nfs-utils

[root@server3 ~]# yum install -y nfs-utils

[root@server1 ~]# systemctl start rpcbind

[root@server2 ~]# systemctl start rpcbind

[root@server3 ~]# systemctl start rpcbind

3.server1开启服务,配置

[root@server1 ~]# systemctl start nfs-server

[root@server1 ~]# vim /etc/exports

/home/hadoop  *(rw,anonuid=1000,anongid=1000)

[root@server1 ~]# exportfs -rv

exporting *:/home/hadoop

[root@server1 ~]# showmount -e

Export list for server1:

/home/hadoop *

4.server2,3挂载

[root@server2 ~]# mount 172.25.68.1:/home/hadoop/ /home/hadoop/

[root@server2 ~]# df

Filesystem              1K-blocks    Used Available Use% Mounted on

/dev/mapper/rhel-root    10258432 1097104  9161328  11% /

devtmpfs                    497292      0    497292  0% /dev

tmpfs                      508264      0    508264  0% /dev/shm

tmpfs                      508264  13072    495192  3% /run

tmpfs                      508264      0    508264  0% /sys/fs/cgroup

/dev/sda1                  1038336  141516    896820  14% /boot

tmpfs                      101656      0    101656  0% /run/user/0

172.25.68.1:/home/hadoop  10258432 2796544  7461888  28% /home/hadoop

[root@server3 ~]# mount 172.25.68.1:/home/hadoop/ /home/hadoop/

5.server1免密登陆server2和server3

[root@server1 tmp]# su - hadoop

Last login: Tue May 28 10:17:23 CST 2019 on pts/0

[hadoop@server1 ~]$ ssh 172.25.68.2

[hadoop@server2 ~]$ logout

Connection to 172.25.68.2 closed.

[hadoop@server1 ~]$ ssh 172.25.68.3

[hadoop@server3 ~]$ logout

Connection to 172.25.68.3 closed.

6.编辑文件(server1做namenode,server2和server3做datanode)

[hadoop@server1 hadoop]$ pwd

/home/hadoop/hadoop/etc/hadoop

[hadoop@server1 hadoop]$ vim core-site.xml

<configuration>

    <property>

        <name>fs.defaultFS</name>

        <value>hdfs://172.25.68.1:9000</value>

    </property>

</configuration>

[hadoop@server1 hadoop]$ vim hdfs-site.xml

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>2</value>

    </property>

</configuration>

[hadoop@server1 hadoop]$ vim workers

[hadoop@server1 hadoop]$ cat workers

172.25.68.2

172.25.68.3

7.格式化,并启动服务

[hadoop@server1 hadoop]$ bin/hdfs namenode -format

[hadoop@server1 hadoop]$ sbin/start-dfs.sh

Starting namenodes on [server1]

Starting datanodes

Starting secondary namenodes [server1]

[hadoop@server1 hadoop]$ jps #出现SecondaryNameNode

4673 SecondaryNameNode

4451 NameNode

4787 Jps

从节点可以是datanode

[hadoop@server2 hadoop]$ jps

2384 DataNode

2447 Jps

[hadoop@server3 hadoop]$ jps

2386 DataNode

2447 Jps

8.测试

[hadoop@server1 hadoop]$ bin/hdfs dfs -mkdir -p /user/hadoop

[hadoop@server1 hadoop]$ bin/hdfs dfs -mkdir input

[hadoop@server1 hadoop]$ bin/hdfs dfs -put etc/hadoop/*.xml input

[hadoop@server1 hadoop]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.3.jar grep input output 'dfs[a-z.]+'


网页上查看,有两个节点,且数据已经上传

9.添加节点server4

[root@server4 ~]# useradd -u  1000 hadoop

[root@server4 ~]# yum  install -y  nfs-utils

[root@server4 ~]# systemctl start rpcbind

[root@server4 ~]# mount 172.25.68.1:/home/hadoop /home/hadoop

[root@server4 ~]# su - hadoop

[hadoop@server4 hadoop]$ pwd

/home/hadoop/hadoop/etc/hadoop

[hadoop@server4 hadoop]$ vim workers

172.25.68.2

172.25.68.3

172.25.68.4

[hadoop@server4 hadoop]$ pwd

/home/hadoop/hadoop

[hadoop@server1 hadoop]$ sbin/start-dfs.sh

[hadoop@server4 hadoop]$ jps

3029 DataNode

3081 Jps

浏览器查看,节点添加成功

server4上传文件

[hadoop@server4 hadoop]$ dd if=/dev/zero of=bigfile bs=1M count=500

500+0 records in

500+0 records out

524288000 bytes (524 MB) copied, 15.8634 s, 33.1 MB/s

[hadoop@server4 hadoop]$ bin/hdfs dfs -put bigfile

如果你对编程感兴趣或者想往编程方向发展,可以关注微信公众号【筑梦编程】,大家一起交流讨论!小编也会每天定时更新既有趣又有用的编程知识!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,847评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,208评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,587评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,942评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,332评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,587评论 1 218
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,853评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,568评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,273评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,542评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,033评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,373评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,031评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,073评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,830评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,628评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,537评论 2 269

推荐阅读更多精彩内容