kubernetes(二) 日志采集

概述

上文我们搭建了高可用K8S集群,现在我们要在此基础上搭建日志采集架构。整体架构图如下所示:

3.png

工具及版本

工具 版本
docker 18.03.1.ce-1.el7.centos
centos 7.x
Kubernetes v1.18.0
kubeadm、kubelet、kubectl 1.18.3-0
quay.io/coreos/flannel v0.14.0
kubernetesui/dashboard v2.0.0-rc7
registry.aliyuncs.com/google_containers/etcd 3.4.3-0
k8s.gcr.io/coredns 1.6.7
k8s.gcr.io/pause 3.2
Filebeat 7.2.0
Elastic、Kibana 7.2.0

安装

  • 在K8S集群中安装Filebeat

    • 规划了/data/work/nfs-share为统一的日志目录,这里我们对K8S环境做了NFS的共享。

    • 新建Filebeat.yml的yaml文件,内容如下:

      ---
      apiVersion: v1
      kind: ConfigMap
      metadata:
        name: filebeat-config
        namespace: auto-paas
        labels:
          k8s-app: filebeat
      data:
        filebeat.yml: |-
          #====================== input =================
          filebeat.inputs:
          # auto
          - type: log
            enabled: true
            paths:
              - /data/work/nfs-share/auto/logs/*/info.log
            tags: ["auto-info"]
            multiline:
              pattern: '^\s*(\d{4}|\d{2})\-(\d{2}|[a-zA-Z]{3})\-(\d{2}|\d{4})'   # 指定匹配的表达式(匹配以 2017-11-15 08:04:23:889 时间格式开头的字符串)
              negate: true                                # 是否匹配到
              match: after                                # 合并到上一行的末尾
              max_lines: 1000                             # 最大的行数
              timeout: 30s                                # 如果在规定的时候没有新的日志事件就不等待后面的日志
            fields:
              index: "auto-info"
          - type: log
            enabled: true
            paths:
              - /data/work/nfs-share/auto/logs/*/sql.log
            tags: ["auto-sql"]
            multiline:
              pattern: '^\s*(\d{4}|\d{2})\-(\d{2}|[a-zA-Z]{3})\-(\d{2}|\d{4})'   # 指定匹配的表达式(匹配以 2017-11-15 08:04:23:889 时间格式开头的字符串)
              negate: true                                # 是否匹配到
              match: after                                # 合并到上一行的末尾
              max_lines: 1000                             # 最大的行数
              timeout: 30s                                # 如果在规定的时候没有新的日志事件就不等待后面的日志
            fields:
              index: "auto-sql"
          - type: log
            enabled: true
            paths:
              - /data/work/nfs-share/auto/logs/*/monitor-*.log
            tags: ["auto-monitor"]
            multiline:
              pattern: '^\s*(\d{4}|\d{2})\-(\d{2}|[a-zA-Z]{3})\-(\d{2}|\d{4})'   # 指定匹配的表达式(匹配以 2017-11-15 08:04:23:889 时间格式开头的字符串)
              negate: true                                # 是否匹配到
              match: after                                # 合并到上一行的末尾
              max_lines: 1000                             # 最大的行数
              timeout: 30s                                # 如果在规定的时候没有新的日志事件就不等待后面的日志
            fields:
              index: "auto-monitor"
          #================ output =====================
          output.elasticsearch:
            hosts: ["http://es:9200", "http://es:9500", "http://es:9600"]
            indices:
              - index: "auto-info-%{+yyyy.MM.dd}"
                when.contains:
                  fields:
                    index: "auto-info"
              - index: "auto-sql-%{+yyyy.MM.dd}"
                when.contains:
                  fields:
                    index: "auto-sql"
              - index: "auto-monitor-%{+yyyy.MM.dd}"
                when.contains:
                  fields:
                    index: "auto-monitor"
          #============== Elasticsearch template setting ==========
          setup.ilm.enabled: false
          setup.template.name: 'k8s-logs'
          setup.template.pattern: 'k8s-logs-*'
          processors:
            - drop_fields:
                fields: ["agent","kubernetes.labels","input.type","log","ecs.version","host.name","kubernetes.replicaset.name","kubernetes.pod.uid","kubernetes.pod.uid","tags","stream","kubernetes.container.name"]
      ---
      apiVersion: apps/v1
      kind: Deployment
      metadata:
        name: filebeat
        namespace: auto-paas
        labels:
          k8s-app: filebeat
      spec:
        selector:
          matchLabels:
            k8s-app: filebeat
        template:
          metadata:
            labels:
              k8s-app: filebeat
          spec:
            serviceAccountName: filebeat
            terminationGracePeriodSeconds: 30
            hostNetwork: true
            dnsPolicy: ClusterFirstWithHostNet
            tolerations:
            - effect: NoSchedule
              operator: Exists
            containers:
            - name: filebeat
              image: 192.168.3.234:8089/component/filebeat:7.2.0
              args: [
                "-c", "/etc/filebeat.yml",
                "-e",
              ]
              env:
              - name: NODE_NAME
                valueFrom:
                  fieldRef:
                    fieldPath: spec.nodeName
              securityContext:
                runAsUser: 0
                # If using Red Hat OpenShift uncomment this:
                #privileged: true
              resources:
                limits:
                  memory: 200Mi
                requests:
                  cpu: 100m
                  memory: 100Mi
              volumeMounts:
              - name: config
                mountPath: /etc/filebeat.yml
                readOnly: true
                subPath: filebeat.yml
              - name: data
                mountPath: /data/work/nfs-share/
              - name: varlibdockercontainers
                mountPath: /data/docker/containers
                readOnly: true
              - name: varlog
                mountPath: /var/log
                readOnly: true
            volumes:
            - name: config
              configMap:
                defaultMode: 0600
                name: filebeat-config
            - name: varlibdockercontainers
              hostPath:
                path: /data/work/docker/containers
            - name: varlog
              hostPath:
                path: /var/log
            # data folder stores a registry of read status for all files, so we don't send everything again on a Filebeat pod restart
            - name: data
              hostPath:
                path: /data/work/nfs-share/
      ---
      apiVersion: rbac.authorization.k8s.io/v1
      kind: ClusterRoleBinding
      metadata:
        name: filebeat
      subjects:
      - kind: ServiceAccount
        name: filebeat
        namespace: auto-paas
      roleRef:
        kind: ClusterRole
        name: filebeat
        apiGroup: rbac.authorization.k8s.io
      ---
      apiVersion: rbac.authorization.k8s.io/v1
      kind: ClusterRole
      metadata:
        name: filebeat
        labels:
          k8s-app: filebeat
      rules:
      - apiGroups: [""] # "" indicates the core API group
        resources:
        - namespaces
        - pods
        verbs:
        - get
        - watch
        - list
      ---
      apiVersion: v1
      kind: ServiceAccount
      metadata:
        name: filebeat
        namespace: auto-paas
        labels:
          k8s-app: filebeat
      ---
      
    • 在K8S集群上执行命令,运行如下图所示:

      kubectl apply -f filebeat.yml  -n kube-system
      
      5.png
  • 安装Elastic、Kibana存储日志,展示查看日志。

    • 这套环境我采用docker-compose方式在K8S集群外搭建

    • 编写dockers-compose.yaml文件,内容如下:

      version: '2.2'
      services:
        kibana:
          image: 192.168.3.234:8089/component/kibana:7.2.0
          container_name: kibana7
          restart: always
          environment:
            - I18N_LOCALE=zh-CN
            - XPACK_GRAPH_ENABLED=true
            - TIMELION_ENABLED=true
            - XPACK_MONITORING_COLLECTION_ENABLED="true"
          volumes:
            - /etc/localtime:/etc/localtime
          ports:
            - "5601:5601"
          networks:
            - efkuation_network
        elasticsearch:
          image: 192.168.3.234:8089/component/elasticsearch:7.2.0
          container_name: es01
          restart: always
          environment:
            - cluster.name=efk
            - node.name=es01
            - bootstrap.memory_lock=true
            - "ES_JAVA_OPTS=-Xms1g -Xmx1g"
            - discovery.seed_hosts=es01,es02,es03
            - cluster.initial_master_nodes=es01,es02,es03
          ulimits:
            memlock:
              soft: -1
              hard: -1
          volumes:
            - /etc/localtime:/etc/localtime
          ports:
            - 9200:9200
          networks:
            - efkuation_network
        elasticsearch2:
          image: 192.168.3.234:8089/component/elasticsearch:7.2.0
          container_name: es02
          restart: always
          environment:
            - cluster.name=efk
            - node.name=es02
            - bootstrap.memory_lock=true
            - "ES_JAVA_OPTS=-Xms1g -Xmx1g"
            - discovery.seed_hosts=es01,es02,es03
            - cluster.initial_master_nodes=es01,es02,es03
          ulimits:
            memlock:
              soft: -1
              hard: -1
          volumes:
            - /etc/localtime:/etc/localtime
          ports:
            - 9600:9200
          networks:
            - efkuation_network
        elasticsearch3:
          image: 192.168.3.234:8089/component/elasticsearch:7.2.0
          container_name: es03
          restart: always
          environment:
            - cluster.name=efk
            - node.name=es03
            - bootstrap.memory_lock=true
            - "ES_JAVA_OPTS=-Xms1g -Xmx1g"
            - discovery.seed_hosts=es01,es02,es03
            - cluster.initial_master_nodes=es01,es02,es03
          ulimits:
            memlock:
              soft: -1
              hard: -1
          volumes:
            - /etc/localtime:/etc/localtime
          ports:
            - 9500:9200
          networks:
            - efkuation_network
      networks:
        efkuation_network:
          external: true
      
    • 登陆http://192.../ Kibana环境,查看日志收集成功收集到日志,如下图所示:

      6.png
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,108评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,699评论 1 296
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,812评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,236评论 0 213
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,583评论 3 288
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,739评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,957评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,704评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,447评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,643评论 2 249
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,133评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,486评论 3 256
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,151评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,108评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,889评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,782评论 2 277
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,681评论 2 272

推荐阅读更多精彩内容