用 Kafka这么久,从来都没去了解 Kafka 消息的格式。今天特意去网上搜索了以下,发现这方面的资料真少,很多资料都是官方文档的翻译;而且 Kafka消息支持压缩,对于压缩消息的格式的介绍更少。基于此,本文将以图文模式介绍 Kafka 0.7.x、0.8.x 以及 0.10.x 等版本 Message 格式,因为 Kafka 0.9.x 版本的消息格式和 0.8.x 一样,我就不单独介绍了。
设计良好的消息格式应该很容易支持版本的升级以及新版本消息格式兼容老版本消息格式。而且 Kafka 各个大版本都增加了很多新功能,这些新功能的实现需要依赖于消息格式,只有深入理解了 Kafka的消息设计,我们才能更好地学习 Kafka 所提供的各种功能。现在我们就来看看 Kafka 消息格式是如何设计的。
文章目录
这个版本消息的格式相对简单,具体如下:
从上面可以看出,Kafka 0.7.x 版本的消息格式比较简单,主要包括:
大家在上图还看到 MessageSet 的格式,一个 MessageSet 包含多条消息,其中:
需要注意的是, Kafka 从 Producer 发送到 Broker 是以 MessageSet 为单位发送的,而不是以 Message 发送的。而且压缩的时候也是以 MessageSet 进行压缩的,并不是只压缩一条消息,这样做的目的是提高效率。压缩之后的消息格式如下:
从上图可以看出,压缩之后的内容作为另外一条消息的内容进行存储,其中包含了多条消息。
Kafka 0.7.x 的消息格式有以下几个缺点:
针对这些问题,Kafka 0.8.0 基于 Kafka 0.7.0 消息合适进行了改进,主要如下:
这个版本的 Message 格式加入了 Key 相关的信息,以及 内容的长度等,各个字段的含义介绍如下:
这个版本的MessageSet 格式和之前一样,就不介绍了。但是需要注意的是,这个版本 MessageSet 中的 offset 字段存储的已经不是消息物理偏移量了,而是逻辑地址,比如0,、1、2....。有了逻辑地址,我们就可以解决之前Kafka 0.7.0遇到的一些问题,比如可以在压缩消息内通过偏移量进行寻址,压缩消息可以checkpoint内部的消息等。
我们在上面说了 Kafka 压缩的时候是将整个 MessageSet 进行压缩的,压缩完之后的内容作为另外一个 Message 的 value,如下:
从上图看到,压缩消息的格式和非压缩格式的消息不一样,少了 Key 的存储空间,而且这时候消息的 value 为压缩之后的消息内容。
到了Kafka 0.10.x,其引入了 Kafka Stream,其依赖了消息的时间,所以这个版本的消息加入了时间戳属性,格式如下:
可以看出,这个版本相对于 Kafka 0.8.x版本的消息格式变化不大,各个字段的含义: 这个版本的 Message 格式加入了 Key 相关的信息,以及 内容的长度等,各个字段的含义介绍如下:
0001
则表示 gzip 压缩,如果是 0010
则是 snappy 压缩,如果是 0011
则是 lz4 压缩,如果是0000则表示没有使用压缩。第4个bit位如果为0,代表使用create time;如果为1代表append time;其余位(第5~8位)保留;这个版本的压缩消息格式和 Kafka 0.8.x 类似,就不介绍了。
目前的 Kafka 最新版本为 0.11.x,这个版本相对于之前版本有了重大的改变,消息格式完全变了。由于其还在开发中,本文就不再介绍了,如果大家感兴趣,可以到官方文档进行阅读。
本文向大家介绍Kafka 偏移量的演变清楚吗?相关面试题,主要包含被问及Kafka 偏移量的演变清楚吗?时的应答技巧和注意事项,需要的朋友参考一下 我在[《Apache Kafka消息格式的演变(0.7.x~0.10.x)》文章中介绍了 Kafka 几个版本的消息格式。仔细的同学肯定看到了在 MessageSet 中的 Message 都有一个 Offset 与之一一对应,本文将探讨 Kafka各
我想使用spring-Kafka库使用spring boot配置的消费者来使用来自Kafka代理的消息,源是一个JDBC连接器,它负责从MySQL数据库提取消息,这些消息需要被使用 下面是我的application.yml文件
目前我们在生产中使用Avro数据格式。从使用Avro的几个优点中,我们知道它在模式演变方面是好的。 现在我们正在评估Parque格式,因为它在读取随机列时的效率。所以在前进之前,我们仍然关注模式演变。 有谁知道模式演变是否可能在镶木地板中实现,如果是,它怎么可能,如果不是,那么为什么不呢。 一些资源声称这是可能的,但它只能在末尾添加列。 这是什么意思?
消息通常按照批量的方式写入.record batch 是批量消息的技术术语,它包含一条或多条 records.不良情况下, record batch 只包含一条 record.Record batches 和 records 都有他们自己的 headers.在 kafka 0.11.0及后续版本中(消息格式的版本为 v2 或者 magic=2)解释了每种消息格式.点击查看消息格式详情. 5.3.1
我从Spring Boot应用程序向Kafka发送消息 application.properties 配置 在日志中,我可以看到如下消息: SUCCESS: SendResult[producerRecords=产品记录(主题=uniqTopic123,分区=null,标头=RecordHeaders(标头 = [], isReadOnly=true),key=testKey,value=Test