ClickHouse集群部署

一 环境准备

下文以常见ClickHouse集群部署架构方案四的部署架构为例。

节点名称 主机IP 分片与副本 服务
node21 192.168.167.21 R0、R2 ZooKeeper、ClickHouse
node22 192.168.167.22 R1、R0 ZooKeeper、ClickHouse
node23 192.168.167.23 R2、R1 ZooKeeper、ClickHouse

准备Docker环境:

yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
yum update -y && sudo yum install -y containerd.io-1.2.13 docker-ce-19.03.11 docker-ce-cli-19.03.11
 
mkdir /etc/docker
cat <<EOF | tee /etc/docker/daemon.json
{
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "storage-driver": "overlay2",
  "storage-opts": [
    "overlay2.override_kernel_check=true"
  ]
}
EOF
mkdir -p /etc/systemd/system/docker.service.d
 
systemctl daemon-reload
systemctl restart docker
systemctl enable docker

二 ZK部署

docker run -d --name=zk21 --hostname=node21 --network=host --volume=/etc/localtime:/etc/localtime --volume=/data/zk/conf:/conf --volume=/data/zk/data:/data zookeeper
docker run -d --name=zk22 --hostname=node22 --network=host --volume=/etc/localtime:/etc/localtime --volume=/data/zk/conf:/conf --volume=/data/zk/data:/data zookeeper
docker run -d --name=zk23 --hostname=node23 --network=host --volume=/etc/localtime:/etc/localtime --volume=/data/zk/conf:/conf --volume=/data/zk/data:/data zookeeper

其中,主配置文件 conf/zoo.cfg的关键配置项:

4lw.commands.whitelist=*
server.1=node21:2888:3888;2181
server.2=node22:2888:3888;2181
server.3=node23:2888:3888;2181

注意:

  • 记得配置 data/myid
  • 映射到宿主机的文件权限(ID为1000的zookeeper用户)

三 CH部署

docker run -d --name=ch21 --hostname=node21 --network=host --ulimit nofile=262144:262144 --volume=/etc/localtime:/etc/localtime --volume=/data/ch/data:/var/lib/clickhouse --volume=/data/ch/conf:/etc/clickhouse-server --volume=/data/ch/log:/var/log yandex/clickhouse-server
docker run -d --name=ch22 --hostname=node22 --network=host --ulimit nofile=262144:262144 --volume=/etc/localtime:/etc/localtime --volume=/data/ch/data:/var/lib/clickhouse --volume=/data/ch/conf:/etc/clickhouse-server --volume=/data/ch/log:/var/log yandex/clickhouse-server
docker run -d --name=ch23 --hostname=node23 --network=host --ulimit nofile=262144:262144 --volume=/etc/localtime:/etc/localtime --volume=/data/ch/data:/var/lib/clickhouse --volume=/data/ch/conf:/etc/clickhouse-server --volume=/data/ch/log:/var/log yandex/clickhouse-server

注意:映射到宿主机的文件权限(ID为999的clickhouse用户)

四 CH配置

ClickHouse最重要的配置有clickhouse_remote_servers、zookeeper和macros。

config.xml(在每个节点中的配置都相同)

<yandex>
    <include_from>/etc/clickhouse-server/config.d/metrika.xml</include_from>
    <include_from>/etc/clickhouse-server/config.d/macros.xml</include_from>
    <listen_host>0.0.0.0</listen_host>
</yandex>

主配置文件,设置成可加载其他相关配置文件。

conf.d/metrika.xml(在每个节点中的配置都相同)

<?xml version="1.0"?>
<yandex>
    <clickhouse_remote_servers>
        <cluster_1>
            <shard>
                <internal_replication>true</internal_replication>
                <weight>1</weight>
                <replica>
                    <host>node21</host>
                    <port>9000</port>
                </replica>
            </shard>
            <shard>
                <internal_replication>true</internal_replication>
                <weight>1</weight>
                <replica>
                    <host>node22</host>
                    <port>9000</port>
                </replica>
            </shard>
            <shard>
                <internal_replication>true</internal_replication>
                <weight>1</weight>
                <replica>
                    <host>node23</host>
                    <port>9000</port>
                </replica>
            </shard>
        </cluster_1>
    </clickhouse_remote_servers>
 
    <zookeeper-servers>
        <node index="1">
            <host>node21</host>
            <port>2181</port>
        </node>
        <node index="2">
            <host>node22</host>
            <port>2181</port>
        </node>
        <node index="3">
            <host>node23</host>
            <port>2181</port>
        </node>
    </zookeeper-servers>
 
    <clickhouse_compression>
        <case>
            <min_part_size>10000000000</min_part_size>
            <min_part_size_ratio>0.01</min_part_size_ratio>
            <method>lz4</method>
        </case>
    </clickhouse_compression>
</yandex>

用于配置集群、数据副本、Zookeeper等。如果使用方案一,此处配置需修改。

config.d/macros.xml(在每个节点中的配置不同)

<yandex>
    <macros>
        <cluster>cluster_1</cluster>
        <shard1>01</shard1>
        <shard2>02</shard2>
        <replica>node21</replica>
    </macros>
</yandex>

宏定义,后面创建本地表时会引用到。比如:

  • cluster 用于定义集群标识,一类数据表定义为一个集群
  • shard1 用于定义分片标识
  • shard2 用于定义分片标识,与shard1交叉开
  • replica 用于定义副本标识,建议使用节点名称

五 创建本地Replicated表

创建主副本的本地复制表

CREATE TABLE warehouse_local ON CLUSTER cluster_1
(
    warehouse_id Int64,
    product_id Int64,
    product_name String
)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard1}/warehouse_local', '{replica}')
PARTITION BY warehouse_id
ORDER BY product_id

创建副副本的本地复制表

CREATE TABLE warehouse_local_rep ON CLUSTER cluster_1
(
    warehouse_id Int64,
    product_id Int64,
    product_name String
)
ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard2}/warehouse_local', '{replica}')
PARTITION BY warehouse_id
ORDER BY product_id

六 创建Distributed表

创建主副本的分布表

CREATE TABLE warehouse_dist ON CLUSTER cluster_1
(
    warehouse_id Int64,
    product_id Int64,
    product_name String
)
ENGINE = Distributed(cluster_1, default, warehouse_local, warehouse_id)

创建副副本的分布表

CREATE TABLE warehouse_dist_rep  ON CLUSTER cluster_1
(
    warehouse_id Int64,
    product_id  Int64,
    product_name String
)
ENGINE = Distributed(cluster_1, default, warehouse_local_rep, warehouse_id)

七 测试验证

准备测试数据集 warehouse_dataset.csv

1,30007,apple
2,41392,banana
3,96324,cherry
4,33309,coconut
5,28871,dates
6,10240,durian
7,53712,grape
8,11596,lemon

导入测试数据

clickhouse-client --host=192.168.167.21 --query "INSERT INTO warehouse_dist FORMAT CSV" < warehouse_dataset.csv

查看数据写入情况

查看数据表:

查看数据表

主副本的分布表:

主副本的分布表

副副本的分布表:

副副本的分布表

node21节点主副本的本地表:

node21节点主副本的本地表

node23节点副副本的本地表:

node23节点副副本的本地表
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,560评论 4 361
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,104评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,297评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,869评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,275评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,563评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,833评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,543评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,245评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,512评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,011评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,359评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,006评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,062评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,825评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,590评论 2 273
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,501评论 2 268

推荐阅读更多精彩内容