某互联网大厂kafka最佳实践

96
何处不可怜
0.6 2016.05.14 11:30* 字数 2375

前言:

上手kafka已有2年的时间,我们的数据处理量也从最初的300g/day发展到今天的T量级在这个过程中也踩了不少坑,在这里分享出来和大家共勉。

一、硬件考量

1.1、内存

不建议为kafka分配超过5g的heap,因为会消耗28-30g的文件系统缓存,而是考虑为kafka的读写预留充足的buffer。Buffer大小的快速计算方法是平均磁盘写入数量的30倍。推荐使用64GB及以上内存的服务器,低于32GB内存的机器可能会适得其反,导致不断依赖堆积机器来应付需求增长。(我们在生产环境使用的机器是64G内存的,但也看到LinkedIn用了大量28G内存的服务器。)

1.2、CPU

kafka不算是CPU消耗型服务,在主频和CPU核数之间,选择后者,将会获得多核带来的更好的并发处理性能。

1.3、磁盘

毋庸置疑,RAID是优先推荐的,它在底层实现了物理磁盘的负载均衡和冗余,虽然会牺牲一些磁盘空间和写入性能。更进一步,我们推荐在配置中使用多目录,每个目录挂在在不同的磁盘(或者RAID)上。需要注意的是,NAS是不可取的,无论供应商如何吹嘘他们的NAS的卓越性能。另外,我们经常看到用户咨询kafka是否一定要采用SSD,答案是没有必要。

1.4网络

分布式系统中,网络的速度和可靠性异常重要,千兆甚至万兆网络现在应该成为数据中心的标配。避免kafka集群出现跨数据中心的情况,更要避免有很大的物理空间跨度,尤其中国还有诡异的联通电信问题。kafka集群中各个节点地位均等,一旦因为延时导致分布式集群不稳定,排错尤其困难。

1.5、文件系统

ext4是最佳选择。

1.6、其它

在硬件越来越强大和云计算如火如荼的今天,你需要在超高配置的服务器和IaaS供应商的数百个虚拟机之间做取舍。我们建议使用中等配置的服务器,因为集群规模越大,单台超高配置的服务器运行的节点越多,集群稳定性随之下降,复杂度则会上升。

二、JVM的考虑

对于java应用,jvm和gc是绕不过去的坎。实践表明,官方JDK1.7u51会是一个不错的选择,配合以G1来做垃圾回收。推荐配置可参考:

-Xms4g -Xmx4g -XX:PermSize=48m -XX:MaxPermSize=48m -XX:+UseG1GC-XX:MaxGCPauseMillis=20 -XX:InitiatingHeapOccupancyPercent=35

注:kafka版本更新会带来变化。请随时关注。我们现在的版本是kafka_2.11-0.8.2.1

三、File descriptors

kafka会使用大量文件和网络socket,所以,我们需要把file descriptors的默认配置改为100000。修改方法如下:

#vi /etc/sysctl.conf

fs.file-max = 32000

#vi /etc/security/limits.conf

yourusersoftnofile10000

youruserhardnofile30000

四、关键配置项解读

尽管默认配置已经很不错,但出于性能和实际集群部署情况,我们还是需要讲解一些重要的配置项。除此之外,如果对某个默认参数存在质疑,在详细了解改参数的作用前,建议采用默认配置。

4.1、zookeeper.connect

必配参数,建议在kafka集群的每天机器都配置所有zk。

4.2、broker.id

必配参数。集群节点的标示符,不得重复。取值范围0~n。

4.3、log.dirs

建议参照文章前面描述的磁盘配置,不要使用默认的“/tmp/kafka-logs”

4.4、advertised.host.name

注册到zk供用户使用的主机名。内网环境通常无需配置,而IaaS一般需要配置为公网地址。默认为“host.name”,可以通过java.net.InetAddress.getCanonicalHostName()接口获取该值。

4.5、advertised.port

注册到zk供用户使用的服务端口,通常在IaaS环境需要额外配置。

4.6、num.partitions

自动创建topic的默认partition数量。默认是1,为了获得更好的性能,建议修改为更大。最优取值参考后文。

4.7、default.replication.factor

自动创建topic的默认副本数量,官方建议修改为2;但通常一个副本就足够了。

4.8、min.insync.replicas

ISR提交生成者请求的最小副本数。

4.9、unclean.leader.election.enable

是否允许不具备ISR资格的replicas选举为leader作为不得已的措施,甚至不惜牺牲部分数据。默认允许。建议允许。数据异常重要的情况例外。

4.10、controlled.shutdown.enable

在kafka收到stop命令或者异常终止时,允许自动同步数据。建议开启。

五、动态调整配置

大部分kafka配置是写死在properties文件里的。然而,许多关于topic的参数我们可以动态调配,kafka-topic.sh工具提供了该功能,更改将一直生效直到服务器重启。可以调整的参数如下:

unclean.leader.election.enable:不严格的leader选举,有助于集群健壮,但是存在数据丢失风险。

min.insync.replicas:如果同步状态的副本小于该值,服务器将不再接受request.required.acks为-1或all的写入请求。

max.message.bytes:单条消息的最大长度。如果修改了该值,那么replica.fetch.max.bytes和消费者的fetch.message.max.bytes也要跟着修改。

cleanup.policy:生命周期终结数据的处理,默认删除。

flush.messages:强制刷新写入的最大缓存消息数。

flust.ms:强制刷新写入的最大等待时长。

还有segment.bytes、segment.ms、retention.bytes、retention.ms和segment.jitter.ms。详见官方解释。

六、性能优化技巧

6.1、配置合适的partitons数量。

这似乎是kafka新手必问得问题。首先,我们必须理解,partiton是kafka的并行单元。从producer和broker的视角看,向不同的partition写入是完全并行的;而对于consumer,并发数完全取决于partition的数量,即,如果consumer数量大于partition数量,则必有consumer闲置。所以,我们可以认为kafka的吞吐与partition时线性关系。partition的数量要根据吞吐来推断,假定p代表生产者写入单个partition的最大吞吐,c代表消费者从单个partition消费的最大吞吐,我们的目标吞吐是t,那么partition的数量应该是t/p和t/c中较大的那一个。实际情况中,p的影响因素有批处理的规模,压缩算法,确认机制和副本数等,然而,多次benchmark的结果表明,单个partition的最大写入吞吐在10MB/sec左右;c的影响因素是逻辑算法,需要在不同场景下实测得出。

这个结论似乎太书生气和不实用。我们通常建议partition的数量一定要大于等于消费者的数量来实现最大并发。官方曾测试过1万个partition的情况,所以不需要太担心partition过多的问题。下面的知识会有助于读者在生产环境做出最佳的选择:

a、一个partition就是一个存储kafka-log的目录。

b、一个partition只能寄宿在一个broker上。

c、单个partition是可以实现消息的顺序写入的。

d、单个partition只能被单个消费者进程消费,与该消费者所属于的消费组无关。这样做,有助于实现顺序消费。

e、单个消费者进程可同时消费多个partition,即partition限制了消费端的并发能力。

f、partition越多则file和memory消耗越大,要在服务器承受服务器设置。

g、每个partition信息都存在所有的zk节点中。

h、partition越多则失败选举耗时越长。

k、offset是对每个partition而言的,partition越多,查询offset就越耗时。

i、partition的数量是可以动态增加的(只能加不能减)。

我们建议的做法是,如果是3个broker的集群,有5个消费者,那么建议partition的数量是15,也就是broker和consumer数量的最小公倍数。当然,也可以是一个大于消费者的broker数量的倍数,比如6或者9,还请读者自行根据实际环境裁定。

日记本