用K8S+Prometheus四步搭建Ceph监控

用K8S+Prometheus四步搭建Ceph监控
Ceph的监控方案有很多,有专业的Calamari,也有collectd-ceph+influxdb的。不过不管用什么,我们的目的其实是能够第一时间直观的看到Ceph集群的运行状态。在这点上我觉得目前用Grafana+Prometheus的展示Ceph集群的状态还是挺直观方便的,重要的是得益于Prometheus和Kubernetes良好的结合,我们可以非常快的复制几个Ceph集群的监控。

对于Ceph监控,需求也很简单:

  • Cluster、Mon节点、OSD节点和Pools的状态检查
  • pg状态和object数量
  • 存储总容量、使用量、iops和吞吐量
  • Ceph存储网卡流量,CPU内存利用率等
  • 查看数据的延迟
  • 监控多套Ceph集群

目前Ceph网上流行的Grafana模板如下图:

Ceph集群Dashboard
OSD信息
Pool信息

其实可以看到默认的三个展示页面已经能够实现我的大部分需求了,日常工作中大部分时间都是关注集群的监控状态和iops,而且这个基于全开源的方案,基本没有开发成本,挺不错的。

那么如何快速搭建一套基于K8S+Prometheus的Ceph监控呢?

第1步. ceph-exporter

ceph-exporter是采集Ceph集群数据的客户端程序,启动时默认会从/etc/ceph目录下获取Ceph的配置信息。ceph-exporter是一个用Go写的二进制静态程序,运行它的方式可以是Pod,也可是在物理机上独立启动。

Pod
yaml文件如下:

apiVersion: v1
kind: Pod
metadata:
  annotations:
    kubernetes.io/created-by: |
      {"kind":"SerializedReference","apiVersion":"v1","reference":{"kind":"DaemonSet","namespace":"monitoring","name":"ceph-exporter","uid":"3c5bf0d4-2fd9-11e7-8834-1866da6d9abb","apiVersion":"extensions","resourceVersion":"1336275"}}
  labels:
    app: ceph-exporter
    pod-template-generation: "1"
  name: ceph-exporter-1wfcd
  namespace: monitoring
  ownerReferences:
  - apiVersion: extensions/v1beta1
    blockOwnerDeletion: true
    controller: true
    kind: DaemonSet
    name: ceph-exporter
spec:
  containers:
  - image: digitalocean/ceph_exporter
    imagePullPolicy: IfNotPresent
    name: ceph-exporter
    resources:
      limits:
        cpu: 100m
        memory: 200Mi
      requests:
        cpu: 100m
        memory: 200Mi
    volumeMounts:
    - mountPath: /etc/ceph
      name: ceph-conf
  hostNetwork: true
  nodeName: <hostname>   #Ceph宿主机的ip
  nodeSelector:
    kubernetes.io/hostname: <hostname>  #Ceph宿主机的ip
  restartPolicy: Always
  serviceAccount: default
  serviceAccountName: default
  volumes:
  - hostPath:
      path: /etc/ceph
    name: ceph-conf

物理机

直接将ceph-exporter文件拷贝到目标节点,可以采用nohup或者手动编写systemd文件启动采集程序。

运行成功后可以在浏览器中直接访问http://目标ip:9128/metrics

metrics

第2步. 定义服务

Pod

---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: ceph-exporter
    k8s-app: ceph-exporter
  name: ceph-exporter
  namespace: monitoring
spec:
  clusterIP: None
  ports:
  - name: web
    port: 9128
    protocol: TCP
    targetPort: 9128
  selector:
    app: ceph-exporter
  type: ClusterIP
---
apiVersion: monitoring.coreos.com/v1alpha1
kind: ServiceMonitor
metadata:
  labels:
    app: ceph-exporter
  name: ceph-exporter
  namespace: monitoring
spec:
  endpoints:
  - interval: 10s
    port: web
  namespaceSelector:
    matchNames:
    - monitoring
  selector:
    matchLabels:
      app: ceph-exporter

物理机

---
apiVersion: v1
kind: Service
metadata:
  labels:
    k8s-app: ocata-ceph
  name: ocata-ceph
  namespace: monitoring
spec:
  clusterIP: None
  ports:
  - name: api
    port: 9128
    protocol: TCP
    targetPort: 9128
  sessionAffinity: None
  type: ClusterIP
---
apiVersion: v1
kind: Endpoints
metadata:
  labels:
    k8s-app: ocata-ceph
  name: ocata-ceph
  namespace: monitoring
subsets:
- addresses:
  - ip: <物理机ip>
    nodeName: <物理机ip>
  ports:
  - name: api
    port: 9128
    protocol: TCP
---
apiVersion: monitoring.coreos.com/v1alpha1
kind: ServiceMonitor
metadata:
  labels:
    app: ocata-ceph
  name: ocata-ceph
  namespace: monitoring
spec:
  endpoints:
  - interval: 10s
    port: api
  namespaceSelector:
    matchNames:
    - monitoring
  selector:
    matchLabels:
      k8s-app: ocata-ceph

创建成功后就可以在Prometheus的状态里面查看job是否被添加上,如果添加上了,prometheus就会定期去目标节点上拉去新数据。

Prometheus config
Prometheus Target

第3步. 测试

简单测试下Prometheus的查询语句,如果没问题就可以在前端Grafana上展示出来了。

metrics
ceph_health_stats
osd状态,根据job过滤

第4步.. Grafana导入模板

原来模板不支持templating,我这里改了下,可以在这个页面上选择多个Ceph集群并展示状态。
我将改好的Grafana模板传到这里,欢迎下载。

Templating
Templating Edit
Templating exporter
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,012评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,589评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,819评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,652评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,954评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,381评论 1 210
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,687评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,404评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,082评论 1 238
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,355评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,880评论 1 255
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,249评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,864评论 3 232
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,007评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,760评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,394评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,281评论 2 259

推荐阅读更多精彩内容

  • 系统环境: centos73.10.0-514.26.2.el7.x86_64 机器数量:五台 硬盘:四块一块为系...
    think_lonely阅读 4,471评论 0 5
  • 第一章 OpenStack基础 OpenStack管理的资源及提供的服务OpenStack做为一个操作系统,...
    sgt_tiger阅读 12,709评论 4 72
  • 集群管理 每次用命令启动、重启、停止Ceph守护进程(或整个集群)时,必须指定至少一个选项和一个命令,还可能要指定...
    Arteezy_Xie阅读 17,685评论 0 19
  • 2017年春节,早早就计划着这个新年要出去玩一趟,而不是再像着往年那样,在家吃喝,打牌。 年初二出发,从无锡,到安...
    而立青春阅读 376评论 0 4
  • 一段时间,某新创部门经历了开始的高潮后,之后效率一直不高。我集体和分别找了部门负责人,部门成员,主席等聊聊,想知道...
    简千禾阅读 813评论 2 2