面试官说入职以后要参与重构Kafka内核,我吓的不敢接offer!
2022/10/10 23:23:55
本文主要是介绍面试官说入职以后要参与重构Kafka内核,我吓的不敢接offer!,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
有人说:他曾在一台配置较好的机子上对 Kafka 进行性能压测,压测结果是 Kafka 单个节点的极限处理能力接近每秒 2000万 条消息,吞吐量达到每秒 600MB。
那 Kafka 为什么这么快?如何做到这个高的性能?
本篇文章主要从这 3 个角度来分析:
- 生产端 服务端 Broker 消费端
先来看下生产端发送消息,Kafka 做了哪些优化?
(1)生产端 Producer
先来回顾下 Producer 生产者发送消息的流程:
- 首先指定消息发送到哪个 Topic。
- 选择一个 Topic 的分区 partitiion,默认是轮询来负载均衡。 也可以指定一个分区 key,根据 key 的 hash 值来分发到指定的分区。 也可以自定义 partition 来实现分区策略。
- 找到这个分区的 leader partition。
- 与所在机器的 Broker 的 socket 建立通信。
- 发送 Kafka 自定义协议格式的请求(包含携带的消息、批量消息)。
将思绪集中在消息发送时候,可发现这两个华点:批量消息和自定义协议格式。
- 批量发送:减少了与服务端 Broker 处理请求的次数,从而提升总体的处理能力。 调用 send() 方法时,不会立刻把消息发送出去,而是缓存起来,选择恰当时机把缓存里的消息划分成一批数据,按批次发送给服务端 Broker。
- 自定义协议格式:序列化方式和压缩格式都能减少数据体积,从而节省网络资源消耗。
各种压缩算法对比:
- 吞吐量方面:LZ4 > Snappy > zstd 和 GZIP 压缩比方面:zstd > LZ4 > GZIP > Snappy
(2)服务端 Broker
Broker 的高性能主要从这 3 个方面体现:
- PageCache 缓存
- Kafka 的文件布局 以及 磁盘文件顺序写入
- 零拷贝 sendfile:加速消费流程
下面展开讲讲。
1)PageCache 加速消息读写
使用 PageCache 主要能带来如下好处:
- 写入文件的时候:操作系统会先把数据写入到内存中的 PageCache,然后再一批一批地写到磁盘上,从而减少磁盘 IO 开销。
- 读取文件的时候:也是从 PageCache 中来读取数据。
如果消息刚刚写入到服务端就会被消费,按照 LRU 的“优先清除最近最少使用的页”这种策略,读取的时候,对于这种刚刚写入的 PageCache,命中的几率会非常高。
2)Kafka 的文件布局 以及 磁盘文件顺序写入
文件布局如下图所示:
主要特征是:文件的组织方式是“topic + 分区”,每一个 topic 可以创建多个分区,每一个分区包含单独的文件夹。
Kafka 在分区级别实现文件顺序写:即多个文件同时写入,更能发挥磁盘 IO 的性能。
- 相对比 RocketMQ: RocketMQ 在消息写入时追求极致的顺序写,所有的消息不分主题一律顺序写入 commitlog 文件, topic 和 分区数量的增加不会影响写入顺序。 弊端: Kafka 在消息写入时的 IO 性能,会随着 topic 、分区数量的增长先上升,后下降。 所以使用 Kafka 时,要警惕 Topic 和 分区数量。
3)零拷贝 sendfile:加速消费流程
当不使用零拷贝技术读取数据时:
流程如下:
- 消费端 Consumer:向 Kafka Broker 请求拉取消息
- Kafka Broker 从 OS Cache 读取消息到 应用程序的内存空间: 若 OS Cache 中有消息,则直接读取 若 OS Cache 中无消息,则从磁盘里读取
- 再通过网卡,socket 将数据发送给 消费端Consumer
当使用零拷贝技术读取数据:
Kafka 使用零拷贝技术可以把这个复制次数减少一次,直接从 PageCache 中把数据复制到 Socket 缓冲区中。
- 这样不用将数据复制到用户内存空间。 DMA 控制器直接完成数据复制,不需要 CPU 参与,速度更快。
(3)消费端 Consumer
消费者只从 Leader分区批量拉取消息。
为了提高消费速度,多个消费者并行消费比不可少。Kafka 允许创建消费组(唯一标识 group.id),在同一个消费组的消费者共同消费数据。
举个栗子:
- 有两个 Kafka Broker,即有 2个机子 有一个主题:TOPICA,有 3 个分区(0, 1, 2)
如上图,举例 4 中情况:
- group.id = 1,有一个消费者:这个消费者要处理所有数据,即 3 个分区的数据。
- group.id = 2,有两个消费者:consumer 1消费者需处理 2个分区的数据,consumer2 消费者需处理 1个分区的数据
- group.id = 3,有三个消费者:消费者数量与分区数量相等,刚好每个消费者处理一个分区
- group.id = 4,有四个消费者:消费者数量 > 分区数量,第四个消费者则会处于空闲状态
这篇关于面试官说入职以后要参与重构Kafka内核,我吓的不敢接offer!的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-21MQ-2烟雾传感器详解
- 2024-12-09Kafka消息丢失资料:新手入门指南
- 2024-12-07Kafka消息队列入门:轻松掌握Kafka消息队列
- 2024-12-07Kafka消息队列入门:轻松掌握消息队列基础知识
- 2024-12-07Kafka重复消费入门:轻松掌握Kafka消费的注意事项与实践
- 2024-12-07Kafka重复消费入门教程
- 2024-12-07RabbitMQ入门详解:新手必看的简单教程
- 2024-12-07RabbitMQ入门:新手必读教程
- 2024-12-06Kafka解耦学习入门教程
- 2024-12-06Kafka入门教程:快速上手指南