以最快和最简单的方式,我希望二进制数据在Kafka消息日志可视为十六进制字符串值。
我有以下数据,其中包含二进制形式的CAN消息,我希望将其视为十六进制字符串
case-8010-wheat-ault-072018/ ├── cleaner-offset-checkpoint ├── debug-0 │ ├── 00000000000000000000.index │ ├── 00000000000000000000.log │ ├── 00000000000000000000.timeindex │ ├── 00000000000000006972.index │ ├── 00000000000000006972.log │ ├── 00000000000000006972.snapshot │ ├── 00000000000000006972.timeindex │ ├── 00000000000000079766.snapshot │ └── leader-epoch-checkpoint ├── gps-0 │ ├── 00000000000000000000.index │ ├── 00000000000000000000.log │ ├── 00000000000000000000.timeindex │ ├── 00000000000000003235.index │ ├── 00000000000000003235.log │ ├── 00000000000000003235.snapshot │ ├── 00000000000000003235.timeindex │ ├── 00000000000000029657.snapshot │ └── leader-epoch-checkpoint ├── imp-0 │ ├── 00000000000000000000.index │ ├── 00000000000000000000.log │ ├── 00000000000000000000.timeindex │ ├── 00000000000000004940.index │ ├── 00000000000000004940.log │ ├── 00000000000000004940.snapshot │ ├── 00000000000000004940.timeindex │ ├── 00000000000000915321.snapshot │ └── leader-epoch-checkpoint
数据源使用kafka_2.11-0.11.0.1提供用于使用数据的文档,但可能是由于版本不匹配。tgz步骤失败。https://www.isoblue.org/docs/data/data/
试图直接查看数据,我有:
1.玩了kafka.tools.转储
./kafka-run-class.sh kafka.tools.DumpLogSegments --deep-iteration --print-data-log --files ../../case-8010-wheat-ault-072018/imp-0/00000000000000004940.log | head -n 15
我试图操纵DumpLogSegments输出,但数据看起来不像预期的那样<代码>/Kafka跑步课。Kafka。工具。DumpLogSegments--深度迭代--打印数据日志--文件..//案例-8010-wheat-ault-072018/imp-0/0000000000000000 4940。log | awk-F'payload:“{print$2}”| awk-F'offset:“{print$1}”| od-A n-t x1 | head-n 10
2.我目前正在尝试基于以下内容编写文件源连接器:https://docs.confluent.io/current/connect/devguide.html#connector-范例
我无法让Kafka消费者与蟒蛇Kafka合作。isoBlue脚本对我不起作用。
1.编辑$KAFKA_HOME/config/server。属性<代码>日志。迪尔斯=
2.zookeeper服务器启动。sh$KAFKA_HOME/config/zookeeper。性质
3.Kafka主题。sh--列表--zookeeper本地主机:2181
4.Kafka服务器启动。sh$KAFKA_HOME/config/server。性质
5.使用蟒蛇3:
#!/usr/bin/env python3
from kafka import KafkaConsumer
import sys
try:
bootstrap_servers = ['localhost:9092']
topicName = 'tra'
consumer = KafkaConsumer (topicName, group_id = 'can-test',bootstrap_servers = bootstrap_servers,auto_offset_reset='earliest');
for message in consumer:
wait = input("PRESS ENTER TO CONTINUE.")
print ("%s:%d:%d: key=%s value=%s" % (message.topic, message.partition,message.offset, message.key,message.value))
except KeyboardInterrupt:
sys.exit()
6.它真的帮助我观察服务器是否在运行,数据是否还在那里。
watch -n 5 ls -alF <KAFKA_DATA> | head
watch -n 5 netstat -a | grep 9092
本文向大家介绍MySQL数据文件存储位置的查看方法,包括了MySQL数据文件存储位置的查看方法的使用技巧和注意事项,需要的朋友参考一下 我们可能会有一个疑惑,那就是:当我们在本地(自己的电脑)安装完 MySQL 之后,也创建了很多的数据库啊、表啊,也存储了很多的数据啊,但是这些内容都存储到哪里了呢?特别是,当我们需要直接操作这些数据文件的时候,翻遍了整个电脑,却找不到 MySQL 的数据文件到底在
本文向大家介绍MySQL数据库误操作后快速回滚的方法,包括了MySQL数据库误操作后快速回滚的方法的使用技巧和注意事项,需要的朋友参考一下 基本上每个跟数据库打交道的程序员(当然也可能是你同事)都会碰一个问题,MySQL误操作后如何快速回滚?比如,delete一张表,忘加限制条件,整张表没了。假如这还是线上环境核心业务数据,那这事就闹大了。误操作后,能快速回滚数据是非常重要的。 binlog2sq
本文向大家介绍Mysql Binlog快速遍历搜索记录及binlog数据查看的方法,包括了Mysql Binlog快速遍历搜索记录及binlog数据查看的方法的使用技巧和注意事项,需要的朋友参考一下 目标,开发人员说有个数据莫名其妙添加了,但是不知道是从哪里添加的,而且应用功能里面不应该添加这样的数据,为了查清楚来源,所以我就准备去binlog里面找了,但是binlog有好几个月的数,我这样一个个
本文向大家介绍Yii框架 session 数据库存储操作方法示例,包括了Yii框架 session 数据库存储操作方法示例的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Yii框架 session 数据库存储操作方法。分享给大家供大家参考,具体如下: 在组件中声明session 组件开启数据库库存储 yii_session 表结构 控制器: 测试 http://host/index.php
问题内容: 我有一个可存储对文章的评论的cms。这些注释可以是线程的,也可以是非线程的。尽管从技术上讲,它们是相同的,只是在没有线程的情况下将reply列留为空白。我的应用程序可在sqlLite,MySQL和pgsql上运行,因此我需要相当标准的SQL。 我目前有一个评论表 我的问题是弄清楚如何最好地表示数据库中的线程注释。也许是在一个单独的表中,该表支持没有内容的树集,而一个简单的表用于保存文本
我想探索GeoMesa技术。 我试着在GeoMesa的官方网站上运行快速启动。 我使用由docker compose安装的Kafka数据包(Kafka brokers的端口、Kafka manager的端口、Zookeeper服务器的端口),以及GeoMesa的版本。 就像GeoMesa教程中写的那样,我运行以下命令行: 从GitHub获取教程: 使用Maven编译: 运行应用程序与地址为Kafk