当前位置: 首页 > 知识库问答 >
问题:

无法使用strom群集从kafka读取数据

萧焱
2023-03-14

我正在运行Strom集群,其中2个主管和1个灵气正在运行。我在哪里读Kafka与主题ID"topic1"。但在UI上我得到以下错误

JAVARuntimeException:java。lang.RuntimeException:org。阿帕奇。动物园管理员。KeeperException$NoNodeException:KeeperErrorCode=storm中/brokers/topic/topic1/分区的NoNode。Kafka。动态布鲁克

和工人*。日志显示以下错误。

java.io.文件'/应用程序/Storm/主管/Stormdist/airpushTop-1-1431081661/stormconf.ser'不存在于org.apache.commons.io.文件tils.open输入流(文件tils.java:299)~[commons-io-2.4.jar: 2.4]org.apache.commons.io.FileUtils.readFileToByteArray(FileUtils.java:1763)~[commons-io-2.4.jar: 2.4]atbacktype.storm.config$read_supervisor_storm_conf.invoke(config.clj:212)~[storm-core-0.9.4.jar: 0.9.4]at<--plhd-14/>$worker_data.invoke(worker.clj:182)~[storm-core-0.9.4.jar: 0.9.4]backtype.storm.daemon.worker$fn__5033$exec_fn__1754__auto____5034.invoke(工作人员. clj: 398)~[暴风-core-0.9.4. jar: 0.9.4]在Clojure. lang。AFn. appyToHelper(AFn. java: 185)[Clojure-1.5.1. jar: na]at Clojure. lang.AFn. ApplyTo(AFn. java: 151)[Clojure-1.5.1. jar: na]at Clojure. core$Apply. invoke(core. clj: 617)~[Clojure-1.5.1. jar: na]at backtype. storm. daemon. worker$fn__5033$mk_worker__5089. doInvoke(worker. clj: 389)[Storum-core-0.9.4. jar: 0.9.4]at Clojure. lang。RestFn. invoke(RestFn. java: 512)[Clojure-1.5.1. jar: na]在backtype. storm. daemon. worker$_main. invoke(worker. clj: 500)[Storum-core-0.9.4. jar: 0.9.4]在Clojure. lang。AFn. appyToHelper(AFn. java: 172)[Clojure-1.5.1. jar: na]at Clojure. lang.AFn. appyTo(AFn. java: 151)[Clojure-1.5.1. jar: na]at backtype. storm. daemon. worker. main(未知来源)[Storum-core-0.9.4. jar: 0.9.4] 2015-05-08T17:09:19.2090530 b. s. util[错误]停止进程:("初始化错误")java. lang.运行时异常:("初始化时出错")在backtype. storm. util$exit_process_BANG_. doInvoke(util. clj: 325)[Storum-core-0.9.4. jar: 0.9.4]在Clojure. lang.RestFn. invoke(RestFn. java: 423)[Clojure-1.5.1. jar: na]在backtype. storm. daemon. worker$fn__5033$mk_worker__5089. doInvoke(worker. clj: 389)[Storum-core-0.9.4. jar: 0.9.4]在Clojure. lang。RestFn. invoke(RestFn. java: 512)[Clojure-1.5.1. jar: na]在backtype. storm. daemon. worker$_main. invoke(worker. clj: 500)[Storum-core-0.9.4. jar: 0.9.4]在Clojure. lang。AFn. appyToHelper(AFn. java: 172)[Clojure-1.5.1. jar: na]at Clojure. lang.AFn. appyTo(AFn. java: 151)[Clojure-1.5.1. jar: na]ava. lang.java. lang.运行时间异常:org. apache. zookeeper。KeeperErrorCode= /brokers/topics/topic1/partitions的NoNode。DynamicBrokt backtype. storm. daemon. worker. main(未知来源)[Storum-core-0.9.4. jar: 0.9.4]

我使用的是Kafka2.11-0.8.2.1、apache-storm-0.9.4和zookeeper-3.4.6。

Kafka和集群中没有不匹配的动物园管理员罐子版本。

请帮帮我。

非常感谢。

共有1个答案

孙风畔
2023-03-14

您是否确保topic1存在于Kafka中,并且您可以使用控制台使用者从中读取,我已经看到了org。阿帕奇。动物园管理员。KeeperException$NoNodeException:KeeperErrorCode=NoNode for。。。部署storm拓扑时主题不存在。

你也可以发布一些代码,你如何配置Kafka喷口?

这个错误是零星的还是一致的?

 类似资料:
  • 下面的json数据示例 下面的错误消息 线程“main”org.apache.spark.sql.analysisException中出现异常:未能找到数据源:Kafka。请按照“结构化流+Kafka集成指南”的部署部分部署应用程序。;在org.apache.spark.sql.execution.datasources.datasource$.lookupdatasource(datasourc

  • 我正在尝试使用spark阅读Kafka,但我想我会遇到一些图书馆相关的问题。 线程“main”org.apache.spark.sql.AnalysisException中出现异常:找不到数据源:Kafka。请按照“结构化流媒体+Kafka集成指南”的部署部分部署应用程序。;在org.apache.spark.sql.execution.datasources.datasource$.lookup

  • 我有以下问题: 我在aws上只使用1个worker和broker节点建立了一个尽可能基本的汇合平台。 我对所有与人脉和关系网有关的事情都很敏感,所以我希望有人能帮助我

  • 我正在迁移一个Kafka Streams实现,它使用纯Kafka apis来使用sping-kafka,因为它被合并在sping-引导应用程序中。 一切都很好Stream,GlobalKtable,分支,我所有的工作都非常好,但我很难合并ReadOnlyKeyValueStore。基于这里的sping-kafka留档:https://docs.spring.io/spring-kafka/docs

  • 问题内容: 我正在尝试使用PySpark 2.4.0从Kafka读取avro消息。 spark-avro外部模块可以为读取avro文件提供以下解决方案: 但是,我需要阅读流式Avro消息。库文档建议使用 from_avro() 函数,该函数仅适用于Scala和Java。 是否有其他模块支持读取从Kafka流式传输的Avro消息? 问题答案: 您可以包括spark-avro软件包,例如使用(调整版本

  • 我正在尝试从com包中的CSV文件中读取值。实例但当我使用以下语法运行代码时: 上面写着: java.io.FileNotFoundException: Dataset.csv 我也尝试过使用: 仍然不工作。任何帮助都会很有帮助。谢谢