docker搭建rabbitmq集群

搭建DNS服务

  • 为了方便rabbitmq服务之间能互链需要搭建DNS服务
  • 创建dns docker容器,注意必须要与rabbitmq服务同一个网段内,否则不能互通,这里使用docker默认的网段;该镜像提供webui,可以在线修改dns配置,这里端口号为5380,
$ docker create \
     --name dnsmasq \
     -p 53:53/udp \
     -p 5380:8080 \
     -v /usr/local/docker_app/dnsmasq/dnsmasq.conf:/etc/dnsmasq.conf \
     --log-opt "max-size=100m" \
     -e "HTTP_USER=admin" \
     -e "HTTP_PASS=admin" \
     --restart always \
     jpillora/dnsmasq
  • dnsmasq.conf配置
#dnsmasq config, for a complete example, see:
#  http://oss.segetech.com/intra/srv/dnsmasq.conf
#log all dns queries
# log-queries
#dont use hosts nameservers
no-resolv
#use google as default nameservers
server=8.8.4.4
server=8.8.8.8
#serve all .company queries using a specific nameserver
#server=/company/10.0.0.1
#explicitly define host-ip mappings
#address=/myhost.company/10.0.0.2
  • 启动dns服务
$ docker start dnsmasq

创建.erlang.cookie文件

  • 该文件内容为cookie值,所有节点的该文件内容一致,内容为UoNOcDhfxW9uoZ92wh6BjA==
  • 该文件置于/var/lib/rabbitmq目录下,即映射到本地的/usr/local/docker_app/rabbitmq/rabbitmq-a/data目录下
  • 要注意这个文件的权限值为400,否则无法启动

准备rabbitmq docker镜像

  • 直接采用rabbitmq官方镜像,这里采用3.6.14-management版本
  • 创建三个docker容器,分别为node1、node2、node3
  • 三个节点的cookie值一致,这是erlang的分布式特性,rabbitmq在erlang的基础上实现集群,内容为任意字符串
  • 5672为客户端连接端口,15672为管理端连接端口

其中node1、node2、node3作为hostname,并设置为rabbitmq的nodename为rabbit,dns为dns服务的容器ip

docker create --name rabbitmq-a \
    -p 4369:4369 \
    -p 5671:5671 \
    -p 5672:5672 \
    -p 25672:25672 \
    -p 15672:15672 \
    -h node1 \
    --dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
    -e RABBITMQ_NODENAME=rabbit \
    -e RABBITMQ_DEFAULT_USER=admin \
    -e RABBITMQ_DEFAULT_PASS=admin \
    -v /usr/local/docker_app/rabbitmq/rabbitmq-a/data:/var/lib/rabbitmq \
    rabbitmq:3.6.14-management

docker create --name rabbitmq-b \
    -p 4469:4369 \
    -p 5771:5671 \
    -p 5772:5672 \
    -p 26672:25672 \
    -p 16672:15672 \
    -h node2 \
    --dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
    -e RABBITMQ_NODENAME=rabbit \
    -e RABBITMQ_DEFAULT_USER=admin \
    -e RABBITMQ_DEFAULT_PASS=admin \
    -v /usr/local/docker_app/rabbitmq/rabbitmq-b/data:/var/lib/rabbitmq \
    rabbitmq:3.6.14-management

docker create --name rabbitmq-c \
    -p 4569:4369 \
    -p 5871:5671 \
    -p 5872:5672 \
    -p 27672:25672 \
    -p 17672:15672 \
    -h node3 \
    --dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
    -e RABBITMQ_NODENAME=rabbit \
    -e RABBITMQ_DEFAULT_USER=admin \
    -e RABBITMQ_DEFAULT_PASS=admin \
    -v /usr/local/docker_app/rabbitmq/rabbitmq-c/data:/var/lib/rabbitmq \
    rabbitmq:3.6.14-management

查看节点集群信息

  • 启动所有节点
// 进入docker容器
$ docker exec -it rabbitmq-a /bin/sh
// 退出
# exit

// 因为集群还未搭建好,所以只能看到本节点信息

# rabbitmqctl cluster_status
Cluster status of node rabbit@node1
[{nodes,[{disc,[rabbit@node1]}]},
 {running_nodes,[rabbit@node1]},
 {cluster_name,<<"rabbit@node1">>},
 {partitions,[]},
 {alarms,[{rabbit@node1,[]}]}]

# rabbitmqctl cluster_status
Cluster status of node rabbit@node2
[{nodes,[{disc,[rabbit@node2]}]},
 {running_nodes,[rabbit@node2]},
 {cluster_name,<<"rabbit@node2">>},
 {partitions,[]},
 {alarms,[{rabbit@node2,[]}]}]

# rabbitmqctl cluster_status
Cluster status of node rabbit@node3
[{nodes,[{disc,[rabbit@node3]}]},
 {running_nodes,[rabbit@node3]},
 {cluster_name,<<"rabbit@node3">>},
 {partitions,[]},
 {alarms,[{rabbit@node3,[]}]}]

进入rabbitmq容器搭建磁盘节点,启用集群服务

node2

# rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node2
# rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node2 with rabbit@node1
# rabbitmqctl start_app
Starting node rabbit@node2

node3

# rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node3
# rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node3 with rabbit@node1
# rabbitmqctl start_app
Starting node rabbit@node3

查看集群状态

# rabbitmqctl cluster_status
Cluster status of node rabbit@node2
[{nodes,[{disc,[rabbit@node1,rabbit@node2,rabbit@node3]}]},
 {running_nodes,[rabbit@node1,rabbit@node3,rabbit@node2]},
 {cluster_name,<<"rabbit@node1">>},
 {partitions,[]},
 {alarms,[{rabbit@node1,[]},{rabbit@node3,[]},{rabbit@node2,[]}]}]

使用rabbitmq的镜像队列实现高可用

  • 将需要消费的队列变为镜像队列,存在于多个节点,这样就可以实现RabbitMQ的HA高可用性。作用就是消息实体会主动在镜像节点之间实现同步,而不是像普通模式那样,在consumer消费数据时临时读取。缺点就是,集群内部的同步通讯会占用大量的网络带宽

这行命令在vhost名称为/uhost创建了一个策略,策略名称为ha-all,策略模式为 all 即复制到所有节点,包含新增节点,策略正则表达式为 "^ha." 表示匹配所有以ha.开头队列名称或交换机名称(可针对队列,在webui中修改),需要镜像功能的节点需要执行该命令。"^"表示匹配全部,生产最好不要这样设置。

rabbitmqctl set_policy -p /uhost ha-all "^ha\." '{"ha-mode":"all"}'

修改节点为内存节点

  • 节点类型有两种,分别为磁盘节点(disc)和内存节点(ram),默认为磁盘节点
# rabbitmqctl stop_app

# rabbitmqctl change_cluster_node_type ram

# rabbitmqctl start_app

到此集群搭建完毕,效果图如下

节点图

搭建haproxy做负载均衡

  • haproxy支持两种代理模式:TCP(四层)和HTTP(七层),支持虚拟主机
  • 这里还是使用docker镜像来搭建,采用版本为1.7.9

创建容器

80端口为haproxy管理端口,5677为rabbitmq的负载端口,同样依赖dns服务

docker create --name haproxy \
    -p 80:80 \
    -p 5677:5677 \
    --dns $(docker inspect -f '{{.NetworkSettings.IPAddress}}' dnsmasq) \
    -v /usr/local/docker_app/haproxy/etc:/usr/local/etc/haproxy:ro \
    haproxy:1.7.9

创建haproxy配置文件

  • 配置文件/usr/local/docker_app/haproxy/etc/haproxy.cfg
# Simple configuration for an HTTP proxy listening on port 80 on all
# interfaces and forwarding requests to a single backend "servers" with a
# single server "server1" listening on 127.0.0.1:8000

# 全局配置
global
    daemon
    maxconn 256

# 默认配置
defaults
    mode http          # 默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK
    timeout connect 5000ms
    timeout client 5000ms
    timeout server 5000ms

listen rabbitmq_cluster
    bind 0.0.0.0:5677           # 客户端连接端口
    option tcplog
    mode tcp
    balance leastconn           # 最少连接优先
    server  rabbit1 node1:5672 check inter 2s rise 2 fall 3   #check inter 2s 是检测心跳频率,rise 2是2次正确认为服务器可用,fall 3是3次失败认为服务器不可用,node1是dns服务配置的
    server  rabbit2 node2:5672 check inter 2s rise 2 fall 3
    server  rabbit3 node3:5672 check inter 2s rise 2 fall 3

listen http-in
    bind *:80
    stats uri /haproxy
    server server1 127.0.0.1:8000 maxconn 32

启动haproxy容器

  • 管理端效果图


    haproxy管理端
  • 修改配置重新加载配置命令
// haproxy为容器名称
docker kill -s HUP haproxy
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 143,540评论 1 302
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 61,539评论 1 258
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 95,005评论 0 213
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 41,159评论 0 180
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 48,946评论 1 258
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 38,864评论 1 178
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 30,468评论 2 273
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 29,218评论 0 167
  • 想象着我的养父在大火中拼命挣扎,窒息,最后皮肤化为焦炭。我心中就已经是抑制不住地欢快,这就叫做以其人之道,还治其人...
    爱写小说的胖达阅读 29,070评论 6 234
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 32,574评论 0 213
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 29,353评论 2 215
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 30,683评论 1 232
  • 白月光回国,霸总把我这个替身辞退。还一脸阴沉的警告我。[不要出现在思思面前, 不然我有一百种方法让你生不如死。]我...
    爱写小说的胖达阅读 24,270评论 0 32
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 27,168评论 2 214
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 31,591评论 3 210
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,638评论 0 9
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,035评论 0 166
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 33,590评论 2 232
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 33,685评论 2 233

推荐阅读更多精彩内容