ceph集群部署与客户端文件挂载流程

前期准备

1, 安装ceph-deploy

sudo apt install ceph-deploy

2, 安装ntp来同步节点的时间

#所有节点上
sudo apt-get install -y ntp ntpdate ntp-doc
ntpdate 0.us.pool.ntp.org
hwclock --systohc
systemctl enable ntp
systemctl start ntp

3, 获取集群节点的sudo权限
在集群各节点上创建

sudo useradd -d /home/{username} -m {username}
sudo passwd {username} #设置密码
#例如,创建cephuser用户
sudo useradd -d /home/cephuser -m cephuser
sudo passwd cephuser
#从 [Infernalis 版](http://docs.ceph.org.cn/release-notes/#v9-1-0-infernalis-release-candidate)起,用户名 “ceph” 保留给了 Ceph 守护进程。如果 Ceph 节点上已经有了 “ceph” 用户,升级前必须先删掉这个用户,所以尽量不要直接使用ceph当节点名称。

对新建的用户配置sudo权限

echo "{username} ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/{username}
sudo chmod 0440 /etc/sudoers.d/{username}

4, 配置集群主机免密登录

vim /etc/hosts
#输入以下内容
192.168.0.193   ceph-admin
192.168.4.4     mon1
192.168.4.1     ceph-osd1
192.168.4.2     ceph-osd2

实例中包含5个主机:192.168.0.193为管理节点,负责部署安装ceph到各个存储节点和监控节点。192.168.4.4为监控节点,负责同步存储节点的数据。192.168.4.1,192.168.4.2为osd存储节点,负责实际数据的存储。

在管理节点上新建一个名为cephuser的用户,配置ssh登录密钥

#在管理节点上
#切换用户cephuser
su - cephuser
#生成ssh登录密钥
ssh-keygen
#配置主机(节点)列表
vim ~/.ssh/config
#主机列表内容如下
Host ceph-admin
        Hostname ceph-admin
        User cephuser
Host mon1
        Hostname mon1
        User cephuser
Host ceph-osd1
        Hostname ceph-osd1
        User cephuser
Host ceph-osd2
        Hostname ceph-osd2
        User cephuser

设置权限

chmod 644 ~/.ssh/config

发放密钥到各节点

ssh-keyscan ceph-osd1 ceph-osd2 mon1 >> ~/.ssh/known_hosts
ssh-copy-id ceph-osd1
ssh-copy-id ceph-osd2
ssh-copy-id mon1

测试

#在管理节点上
ssh mon1
#试着从管理节点上ssh到mon1节点,若无需密码即可登录,则ok

5, 打开节点通信端口

sudo firewall-cmd --zone=public --add-port=6789-6800/tcp --permanent
sudo firewall-cmd reload

创建集群

1, 创建ceph-deploy工作文件夹

sudo mkdir my-cluster
cd my-cluster

往后的ceph-deploy操作都要在该文件夹中进行

2, 创建监控节点

ceph-deploy new mon1

3, 设置ceph副本数量

sudo vim ceph.conf 
osd pool default size = 0 #添加此段内容,设置副本数量为0

4, 从管理节点安装ceph到各节点

ceph-deploy install ceph-admin mon1 ceph-osd1 ceph-osd2

5, 初始化监控节点

ceph-deploy mon create-initial

6, osd节点磁盘划分

  • ceph-osd1节点
dd if=/dev/zero of=ceph-volumes.img bs=1M count=4200 oflag=direct
sgdisk -g --clear ceph-volumes.img
sudo vgcreate ceph-volumes $(sudo losetup --show -f ceph-volumes.img)
sudo lvcreate -L2G -nceph1 ceph-volumes
sudo mkfs.xfs -f /dev/ceph-volumes/ceph1
mkdir -p /srv/ceph/osd1
sudo mount /dev/ceph-volumes/ceph1 /srv/ceph/osd1
  • ceph-osd2节点
dd if=/dev/zero of=ceph-volumes.img bs=1M count=4200 oflag=direct
sgdisk -g --clear ceph-volumes.img
sudo vgcreate ceph-volumes $(sudo losetup --show -f ceph-volumes.img)
sudo lvcreate -L2G -nceph2 ceph-volumes
sudo mkfs.xfs -f /dev/ceph-volumes/ceph2
mkdir -p /srv/ceph/osd2
sudo mount /dev/ceph-volumes/ceph2 /srv/ceph/osd2

7, 激活集群

ceph-deploy osd prepare ceph-osd1:/srv/ceph/osd1
ceph-deploy osd activate ceph-osd1:/srv/ceph/osd1
ceph-deploy osd prepare ceph-osd2:/srv/ceph/osd2
ceph-deploy osd activate ceph-osd2:/srv/ceph/osd2

如果出现如下报错

 [ceph_deploy][ERROR ] RuntimeError: Failed to execute command: ceph-disk -v activate --mark-init upstart --mount /srv/ceph/osd1

使用以下命令解决

#切换到ceph-osd1
sudo chown ceph:ceph /srv/ceph/osd1
#切换到ceph-osd2
sudo chown ceph:ceph /srv/ceph/osd2

8, 检测ceph集群状态

  • 从客户端发送配置文件和密钥到各个节点
ceph-deploy admin ceph-admin mon1 ceph-osd1 ceph-osd2
  • 设置密钥权限
sudo chmod +r /etc/ceph/ceph.client.admin.keyring
  • 检测ceph集群状态
ceph health #如果为ok则部署成功
ceph -s #使用该命令可以看到集群的更多状态信息

9, 添加新的monitor

ceph-deploy mon add ceph-osd1 ceph-osd2

10, 安装元数据mds

ceph-deploy mds create mon1

挂载客户端空间文件系统

1, 安装ceph客户端

  • 准备节点密钥文件,将管理节点的my-cluster文件夹复制到客户端节点。

  • 进入my-cluster文件夹,在客户端节点上安装ceph-deploy和ceph

apt-get install ceph-deploy 
ceph-deploy install localhost #localhost换成局域网ip也行
  • 设置客户端节点权限
echo "{hostname} ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/{hostname}
sudo chmod 0440 /etc/sudoers.d/{hostname}
ssh-keygen
ssh-copy-id localhost
  • 分发密钥和设置权限
ceph-deploy admin localhost #将密钥发送到/etc/ceph
sudo chmod +r /etc/ceph/ceph.client.admin.keyring #设置权限

2, 挂载文件系统

sudo mkdir /cpehfs
sudo mount -t ceph 192.168.4.4:6789:/ /mycephfs/ -o name=admin,secret=AQAwcGpcMxkrOxAA3EcRJkmSMXB9nsDXplxhnQ== #AQAwcGpcMxkrOxAA3EcRJkmSMXB9nsDXplxhnQ==为ceph.client.admin.keyring的密钥内容

3, 检测文件系统挂载情况

df -h 

参考

ceph官方文档
如何在 Ubuntu 16.04 中安装 Ceph 存储集群

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,298评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,701评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 107,078评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,687评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,018评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,410评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,729评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,412评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,124评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,379评论 2 242
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,903评论 1 257
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,268评论 2 251
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,894评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,014评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,770评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,435评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,312评论 2 260

推荐阅读更多精彩内容