kafka集群基于持久性指标进行性能调优实践-kafka 商业环境实战

栏目: 后端 · 发布时间: 5年前

内容简介:本套技术专栏是作者(秦凯新)平时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。期待加入IOT时代最具战斗力的团队。QQ邮箱地址:1120746959@qq.com,如有任何学术交流,可随时联系。broker端consumer端

本套技术专栏是作者(秦凯新)平时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。期待加入IOT时代最具战斗力的团队。QQ邮箱地址:1120746959@qq.com,如有任何学术交流,可随时联系。

1 蹦出来一个持久性

  • 持久性定义了kafka集群中消息不容易丢失的程度,持久性越高表明Kafka越不会丢失消息。
  • 持久性通常是通过冗余来实现,而kafka实现冗余的手段就是备份机制,该备份机制保证了Kafka的每一个消息都会被保存到多台Broker上。
kafka集群基于持久性指标进行性能调优实践-kafka 商业环境实战

2 实际可行性调优

  • 分区数和副本因子由broker端参数num.partitions和default.replication.factor指定,这两个参数默认值都是1。
  • 禁止kafka自动创建topic,可以参数设置auto.create.topics.enable=false。
  • 新版本已经把consumer端位移信息的存储从Zookeeper转移到了内部的topic __consumer_offsets中,注意这个也同样会受到default.replication.factor参数影响。0.11.0.0要求__consumer_offsets创建时必须满足default.replication.factor,若Broker小于default.replication.factor会直接报错。
  • 若要达到最高的持久性,必须设置acks=all(或者acks=-1),即强制leader副本等待的ISR中所有副本都响应了某条消息后发送response给producer。
  • producer发送失败后,会进行重试机制,比如网络临时抖动。
  • 当Producer重试后,待发送的消息可能已经成功,假如数据已经落盘写入日志,在发送response给Producer时出现了故障,重试时就会再次发送同一条消息,也就出现了重复的消息。自从0.11.0.0版本开始,kafka提供了幂等性Producer,实现了精确一次的处理语义。幂等性Producer保证同一条消息只会被broker写入一次。启动这样设置:enable.idempotence=true。
  • 消息乱序处理机制,producer依次发送消息m1和m2,若m1写入失败但m2写入成功,一旦重试m1,那么m1就位于m2的后面了。如果对消息的顺序要求比较严格的话,max.in.flight.requests.per.connection=1来规避这个问题。该参数目的保证单个producer连接上在任意某个时刻只处理一个请求。
  • 当某个Broker出现出现崩溃时,controller会自动检测出宕机的broker并为该Broker上的所有分区重新选举leader,选择的范围是从ISR副本中挑选。若ISR副本所在的broker全部宕机,Kafka就会从非ISR副本中选举leader。这种情况下就会造成不同步和消息丢失。是否允许Unclean选举,借助unclean.leader.election.enable参数控制,0.11.0.0版本默认是false。
  • min.insync.replicas,若成功写入消息时则必须等待响应完成的最少ISR副本,该参数是在acks=all时才会生效。
  • 本套技术专栏是作者(秦凯新)平时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。期待加入IOT时代最具战斗力的团队。QQ邮箱地址:1120746959@qq.com,如有任何学术交流,可随时联系。
  • 自0.10.0.0版本开始,kafka仿照Hadoop为broker引入机架属性信息(rack),该参数由broker.rack设定。Kafka集群在后台会收集所有的机架信息仔仔创建分区时将分区分散到不同的机架上。
  • 日志持久化:两个重要参数log.flush.interval.ms和log.flush.interval.message。前者指定了Kafka多长时间执行一次消息“落盘”,后者是写入多少消息后执行一次消息“落盘”。默认情况下,log.flush.interval.ms是空而将log.flush.interval.message设置为Long.MAX_VALUE,这个表示Kafka实际上不会自动执行消息的“冲刷”操作,事实上这也是kafka的设计初衷。即把消息同步到磁盘的工作交由操作系统来完成,由操作系统控制页缓存数据到物理文件的同步。但是若用户希望每一条消息都冲刷一次,及时持久化,可以设置log.flush.interval.message=1。
  • 提交位移的持久化,实际应用中设置auto.commit.enable=false,同时用户需要使用commitSync方法来提交位移,而非commitAsync方法。

3 参数清单

broker端

  • 设置unclean.leader.election.enable-false(0.11.0.0之前版本)
  • 设置auto.create.topics.enable=false
  • 设置replication.factor=3,min.insync.replicas=replication.factor-1
  • 设置default.replication.factor=3
  • 设置broker.rack属性分散分区数据到不同的机架。
  • 设置log.flush.interval.ms和log.flush.interval.message为一个较小的值。
  • 本套技术专栏是作者(秦凯新)平时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。期待加入IOT时代最具战斗力的团队。QQ邮箱地址:1120746959@qq.com,如有任何学术交流,可随时联系。 producer端
  • 设置acks=all
  • 设置retries为一个较大的值,比如10-30。
  • 设置max.in.flight.request.per.connection=1
  • 设置enable.idempotence=true

consumer端

  • 设置auto.commit.enable=false
  • 消息消费成功后,调用commitSync提交位移。

4 总结

enable.idempotence=true 和max.in.flight.request.per.connection=1以及broker.rack属性比较新颖,值得一试。

秦凯新 于深圳 201812042131

本套技术专栏是作者(秦凯新)平时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。期待加入IOT时代最具战斗力的团队。QQ邮箱地址:1120746959@qq.com,如有任何学术交流,可随时联系。


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

鸟哥的Linux私房菜 基础学习篇(第二版)

鸟哥的Linux私房菜 基础学习篇(第二版)

鸟哥 / 人民邮电出版社 / 2007-9 / 65.00元

《鸟哥的Linux私房菜基础学习篇(第二版)》全面而详细地介绍了Linux操作系统。全书分为5个部分:第一部分着重说明Linux的起源及功能,如何规划和安装Linux主机;第二部分介绍Linux的文件系统、文件、目录与磁盘的管理;第三部分介绍文字模式接口shell和管理系统的好帮手shell脚本,另外还介绍了文字编辑器vi和vim的使用方法;第四部分介绍了对于系统安全非常重要的Linux账号的管理......一起来看看 《鸟哥的Linux私房菜 基础学习篇(第二版)》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

SHA 加密
SHA 加密

SHA 加密工具