关于elk+zookeeper+kafka 运维集中日志管理

主要是面向多应用多服务器,需要集中管理,来确认应用是否存在一些风险性等问题

相应的原理在网上一搜都可以知道的了,这里就不再做任何的解释性的问题

应用的流程图:

关于部署的网络拓补图:


一、关于部署性的问题:


192.168.158.129  zoo01

192.168.158.130  zoo02

192.168.158.132  zoo03


 1. 关于zookeeper的部署

从官网上进行下载:kafka_2.10-0.10.0.0.tgz

mkdir /usr/local/kafkaCluster

cd /usr/local/kafkaCluster

tar zxvf kafka_2.10-0.10.0.0.tgz

mv kafka_2.10-0.10.0.0 kafka01

cd kafka01/config

vim zookeeper.properties


tickTime=2000

initLimit=10

syncLimit=5

dataDir=/usr/local/kafkaCluster/kafka01/dataDir

clientPort=2181

server.1=zoo01:2888:3888

server.2=zoo02:2888:3888

server.3=zoo03:2888:3888



cd  ..

mkdir dataDir  zolog

echo '1' > dataDir/myid  #注意,这里要对应的每一台id要与配置文件里的server.1相同

三台zookeeper都要进行部署好

启动:

cd zolog 

nohup /usr/local/kafkaCluster/kafka01/bin/zookeeper-server-start.sh /usr/local/kafkaCluster/kafka01/config/zookeeper.properties  &



2.  kafka 配置

vim config/server.properties


broker.id=1  #注意三台都要不一样的

port=9092

host.name=192.168.158.129

log.dir=/usr/local/kafkaCluster/kafka01/logs

zookeeper.connect=zoo01:2181,zoo02:2181,zoo03:2181

log.dirs=/usr/local/kafkaCluster/kafka01/logs

log.retention.hours=168



启动:

mkdir kalog

cd kalog

nohup /usr/local/kafkaCluster/kafka01/bin/kafka-server-start.sh /usr/local/kafkaCluster/kafka01/config/server.properties &


3. elasticsearch的部署

su - elk

#创建目录

mkdir –p /usr/local/elkCluster

##进行解压, z表示解压gzx表示解压,v表示显示,f表示指定文件;-C表示指定目录到

tar zxvf  elasticsearch-2.3.5.tar.gz–C/usr/local/elkCluster

#改变目录名

mv elasticsearch-2.3.5elasticsearch

#切换目录到elasticsearch/config

cdelasticsearch/config

vim elasticsearch.yml

##集群名

cluster.name:

elk-cluster

##节点名

node.name:

"elk-node1"

##是否为master,是否选举为master

node.master:

true

##是否存储索引数据

node.data: true

##设置默认索引分片个数,默认为5

index.number_of_shards:

5

##设置默认索引副本个数,默认为1个副本

index.number_of_replicas:

1

##索引数据的存储路径

path.data:

/usr/local/elkCluster/elasticsearch/data

##临时文件的存储路径

path.work: /usr/local/elkCluster/elasticsearch/worker

##日志文件的存储路径

path.logs:

/usr/local/elkCluster/elasticsearch/logs

##插件的存放路径

path.plugins:

/usr/local/elkCluster/elasticsearch/plugins

##绑定的ip地址,可以是ipv4ipv6的,默认为0.0.0.0

network.host:

192.168.158.128

##bootstrap.mlockall: true生产上开启,作用是强制所有内存锁定,不要搞什么swap的来影响性能

##节点间交互的tcp端口

transport.tcp.port:

9300

##是否压缩tcp传输时的数据

transport.tcp.compress:

true

##对外服务的http端口

http.port: 9200

#进行检测作用。

discovery.zen.ping.unicast.hosts:

["192.168.158.128","192.168.158.131"]

启动:

cd bin/

./elasticsearch -d

./plugin  install mobz/elasticsearch-head

./plugin install lmenezes/elasticsearch-kopf


4.安装kibana

su - elk

tar zxvf  kibana-4.5.1-linux-x64.tar.gz

mv  kibana-4.5.1-linux-x64  /app/kibana

vim /app/kibana/config/kibana.yml

######################################################

server.port: 5601

server.host: "0.0.0.0"

elasticsearch.url: "http://10.10.230.158:9201"

pid.file: /app/kibana/logs/kibana.pid

#######################################################

启动:

/app/kibana/bin/kibana -c /app/kibana/config/kibana.yml -l /app/kibana/logs/kibana.log > /dev/null 2>&1 &


5、logstatsh部署server

##进行解压, z表示解压gzx表示解压,v表示显示,f表示指定文件;-C表示指定目录到

tar zxvf logstash-2.3.4.tar.gz

–C /usr/local

##切换目录

cd /usr/local

##重命名为logstash

mv logstash-2.3.4

logstash

##切换目录

cd logstash

##创建目录

mkdir etc

vim logstash.conf

input {

kafka {

zk_connect =>"192.168.158.130:2181,192.168.158.129:2181,192.168.132:2181"

topic_id => "systemlog"

codec => plain

reset_beginning => false

consumer_threads => 5

decorate_events => true

}

}

output {

elasticsearch {

hosts =>["192.168.158.128:9200","192.168.158.131:9200"]

index =>"systemlog-%{+YYYY-MM-DD}"

}

}

#启动

/usr/local/logstash/bin/logstashagent -f /usr/local/logstash/etc/logstash.conf 

6. logstatsh部署client

配置文件不一样

input{

file {

type => "syslog"

path => "/var/log/messages"

discover_interval => 15

stat_insterval => 1

}

}

output{

kafka {

bootstrap_servers =>"192.168.158.129:9092,192.168.158.130:9092,192.168.158.132:9092"

topic_id => "syslog"

compression_type => "snappy"

}

}

这里写文章编辑功能真是有点无语,不过喜欢这里的简洁!

后面继续更新Elk相关性文章,让技术更加前进

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,425评论 4 361
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,058评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,186评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,848评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,249评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,554评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,830评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,536评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,239评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,505评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,004评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,346评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,999评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,060评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,821评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,574评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,480评论 2 267

推荐阅读更多精彩内容