官方地址下载,有mac,windows和linux版本
1 | https://www.kafkatool.com/download.html |
1.查看kafka topic中的数据(支持byte,string和avro)#
安装后添加kafka集群的地址,可以选择使用zk地址或者kafka的broker地址来连接集群,这里选择使用kafka broker地址来连接
可以指定topic的partition和offset查看数据
默认查出来的数据是byte数组,即16进制的,可以借助在线转换工具将其转换成字符串后进行查看,比如
1 | https://tool.lu/hexstr/ |
也可以在属性中设置value为String,这样就可以直接查看反序列化后字符串
offset explorer的新版本也支持了对confluent schema registry和avro格式数据的支持,使用方法如下
调整offset explorer每次从topic取数的条数,原来的条数过多可能会比较卡,从每个partition取5000条调整成500条
给kafka集群配置schema registry的地址,注意需要加上http的前缀,然后update
给topic配置value的格式,设置成avro,然后update
可以看到解析后的avro数据
如果有报错的话,可以去查看日志,日志路径mac系统如下
1 | /Applications/Offset Explorer 2.app/Contents/Resources/app/error.log |
2.调整consumer的offset#
offset explorer也支持编辑consumer的offset,在consumer中选择你要修改offset的消费者,点击edit consumer offset
编辑specific offset后update
3.发送数据到kafka topic#
点到topic的具体某个partition,然后点击加好来add message
点击enter manually,所输入的消息需要和你设置的topic key和value格式对应,即value如果是string的话,需要输入文本;如果是byte的话,需要输入hex字节数组