当前位置: 首页 > 知识库问答 >
问题:

Kafka:=线程“main”组织中的异常。阿帕奇。火花sql。流动。StreamingQueryException:找不到连接的条目

傅正阳
2023-03-14

同时运行Kafka代码

1)错误流执行:查询[id=c6426655-446f-4306-91ba-d78e68e05c15, runId=420382c1-8558-45a1-b26d-f6299044fa04]终止与错误java.lang.ExceptionIn初始azerError

2) 线程“针对[id=c6426655-446f-4306-91ba-d78e68e05c15,runId=420382c1-8558-45a1-b26d-f6299044fa04]的流执行线程”中出现异常。lang.Exception初始化错误

3) 线程“main”组织中出现异常。阿帕奇。火花sql。流动。StreamingQueryException:空

sbt依赖

// https://mvnrepository.com/artifact/org.apache.spark/spark-core libraryDependencies=“org.apache.spark”%%“spark核心”%%“2.2.3”

// https://mvnrepository.com/artifact/org.apache.spark/spark-sql libraryDependencies=“org.apache.spark”%%“spark sql”%%“2.2.3”

// https://mvnrepository.com/artifact/org.apache.spark/spark-streaming libraryDependencies=“org.apache.spark”%%“spark流媒体”%%“2.2.3”%”已提供

// https://mvnrepository.com/artifact/org.apache.kafka/kafka libraryDependencies=“org.apache.kafka”%%“kafka”%%“2.1.1”

// https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients libraryDependencies=“org.apache.kafka”%”Kafka客户端“%”2.1.1

// https://mvnrepository.com/artifact/org.apache.kafka/kafka-streams libraryDependencies=“org.apache.kafka”%”Kafka流“%”2.1.1

// https://mvnrepository.com/artifact/org.apache.spark/spark-sql-kafka-0-10 libraryDependencies=“org.apache.spark”%%”spark-sql-kafka-0-10“%%”2.2.3

//https://mvnrepository.com/artifact/org.apache.kafka/kafka-streams-scala库依赖="org.apache.kafka " %% "kafka流-scala"%"2.1.1"

import java.sql.Timestamp

import org.apache.spark.sql.SparkSession


object demo1 {

  def main(args: Array[String]): Unit = {

    System.setProperty("hadoop.home.dir","c:\\hadoop\\")

    val spark: SparkSession = SparkSession.builder
      .appName("My Spark Application")
      .master("local[*]")
      .config("spark.sql.warehouse.dir", "file:///C:/temp") // Necessary to work around a Windows bug in Spark 2.0.0; omit if you're not on Windows.
      .config("spark.sql.streaming.checkpointLocation", "file:///C:/checkpoint")
      .getOrCreate

    spark.sparkContext.setLogLevel("ERROR")

    spark.conf.set("spark,sqlshuffle.partations","2")

    val df = spark.readStream
      .format("kafka")
      .option("kafka.bootstrap.servers", "162.244.80.189:9092")
      .option("startingOffsets", "earliest")
      .option("group.id","test1")
      .option("subscribe", "demo11")
      .load()

    import spark.implicits._


    val dsStruc = df.selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)", "timestamp").as[(String, String, Timestamp)]


    val abc = df.writeStream
    .outputMode("append")
    .format("console")
    .start().awaitTermination()

    df.show()

共有1个答案

彭建业
2023-03-14

我也有同样的问题。我使用了错误的spark sql kafka库版本(2.2.0而不是2.3.0)。我的成功配置是:

组织。阿帕奇。spark-core_2.11 2.3。提供0

组织。阿帕奇。spark-sql_2.11 2.3。0

组织。阿帕奇。spark spark-sql-kafka-0-10_2.11 2.3。0

组织。阿帕奇。KafkaKafka客户端0.10。1

我希望有帮助。这篇文章给了我灵感

https://community.hortonworks.com/content/supportkb/222428/error-microbatchexecution-query-id-567e4e77-9457-4.html

 类似资料:
  • scala的版本是2.11.8;jdk为1.8;spark是2.0.2 我试图在spark apache的官方网站上运行一个LDA模型的示例,我从以下句子中得到了错误消息: 错误按摩是: 错误:(49,25)读取的值不是组织的成员。阿帕奇。火花SparkContext val dataset=spark。阅读格式(“libsvm”)^ 我不知道怎么解决。

  • 我有两个代理1.0.0Kafka集群,我正在针对这个Kafka运行1.0.0Kafka流API应用程序。我增加了制片人的要求。暂停。毫秒到5分钟来修复生产者超时异常。 目前,在运行一段时间后,我发现以下两种类型的异常。我试图按照ApacheKafka中的建议修复这些异常:TimeoutException,然后什么都不起作用‏ 但不完整的解决方案就在这里。建议使用此解决方案(减少生产批量)。请帮忙。

  • Selenium Webdriver(2.53)和java(jdk 7)。Mozilla Firefox ESR(45.2.0)在页面打开时立即崩溃,并显示错误消息: 出错

  • 我试图从JMS源读取数据,并将它们推送到KAFKA主题中,几个小时后,我观察到推送到KAFKA主题的频率几乎为零,经过一些初步分析,我在FLUME日志中发现以下异常。 my flume显示max.request的当前设置值(在日志中)。尺寸为1048576,明显小于1399305,增加了此最大要求。大小可能会消除这些异常,但我无法找到更新该值的正确位置。 我的水槽。配置, 任何帮助都将不胜感激!!

  • 将现有应用程序从Spark 1.6移动到Spark 2.2*(最终)会导致错误“org.apache.spark.SparkExctive:任务不可序列化”。我过于简化了我的代码,以演示同样的错误。代码查询拼花文件以返回以下数据类型:“org.apache.spark.sql.数据集[org.apache.spark.sql.行]”我应用一个函数来提取字符串和整数,返回字符串。一个固有的问题与Sp