使用的build.sbt文件如下:
scalaVersion := "2.12.1"
val kafka_streams_version = "2.0.0"
libraryDependencies ++= Seq(
"org.apache.kafka" % "kafka-streams" % kafka_streams_version % Provided,
"org.apache.kafka" % "kafka-clients" % kafka_streams_version % Provided
)
Scala中以下2行给出了以下异常
val builder : StreamsBuilder = new StreamsBuilder
val text: KStream[String, String] = builder.stream[String, String]("streams-input")'''
线程“main”java.lang.noClassDeffounder异常错误:org/apache/kafka/streams/streamsbuilder at tradesapp$.main(tradesapp.scala:21)at tradesapp.main(tradesapp.scala)at java.base/jdk.internal.reflect.nativeMethodAccessorImpl.Invoke0(原生方法)at java.base/jdk.internal.reflect.nativeMethodAccessorImpl.Invoke(nativeMethodAccessorImpl.java:62)at java.base/jdk.internal.reflect.nativeMethodAccessorImpl.java:43)at java:566)在com.intellij.rt.execution.application.appmainv2.main(appmainv2.java:131)上的原因:java.lang.classnotfoundexception:org.apache.kafka.streams.streamsbuilder在java.base/jdk.internal.loader.builtinclassloader.loadclass(builtinclassloader.java:581)在java.base/jdk.internal.loader.classloaders$appclassloader.loadclass(classloader.java:178)在java.base/java.lang.classloader.loadclass(classloader.java:521)...7更多
问题内容: 我正在使用Maven 我添加了以下依赖项 我还在代码中添加了jar 它完全可以正常工作,没有任何错误,在通过spark-submit提交时出现以下错误,非常感谢您的帮助。谢谢你的时间。 线程“主要” java.lang.NoClassDefFoundError中的异常:sun.reflect处的KafkaSparkStreaming.sparkStreamingTest(KafkaSp
我有一个Kafka Streams应用程序版本-0.11,它从很少的主题中获取数据,并将数据连接到另一个主题中。 我在一些jira问题上读到过,清理流可能有助于修复问题。但是每次启动Kafka流应用程序时清理流是正确的解决方案还是补丁?此外,流清理会延迟应用程序的启动,对吗? 注意:每次启动Kafka Streams应用程序时,在调用Streams.start()之前是否需要调用Streams.c
我在JDK 11中使用scalaSpark Streaming Kafka。但是我得到了下面的错误。 线程“main”java中出现异常。lang.NoSuchMethodError:scala。Predef美元。refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps; 下面是我正在使用的代码。 下面是我的pom。xml
它没有任何错误,我得到以下错误时,我运行火花提交,任何帮助都非常感谢。谢谢你抽出时间。 线程“main”java.lang.noClassDeffounderror:org/apache/spark/streaming/kafka/kafkautils在kafkasparkstreaming.sparkstreamingtest(kafkasparkstreaming.java:40)在kafka
我正在尝试使用https://ci.apache.org/projects/flink/flink-docs-stable/dev/connectors/kafka.html从flink kafkaconsumer流式传输数据 在这里,我的KAFKA是Kerberos安全的,并且启用了SSL。 我该如何解决这件事?有没有别的办法通过KRB5?
我是Kafka和spark的初学者。我想通过spark streaming对我从Kafka收到的特定主题的数据进行实时处理。我无法使用createStream函数返回的JavaPairReceiverInputStream。 下面的代码给出了一个错误: 方法图(Function, R 我使用的spark版本是1.2.0。我找不到处理Kafka消息的java api示例。有人能告诉我我需要改变什么吗