同时运行Kafka代码
1)错误流执行:查询[id=c6426655-446f-4306-91ba-d78e68e05c15, runId=420382c1-8558-45a1-b26d-f6299044fa04]终止与错误java.lang.ExceptionIn初始azerError
2) 线程“针对[id=c6426655-446f-4306-91ba-d78e68e05c15,runId=420382c1-8558-45a1-b26d-f6299044fa04]的流执行线程”中出现异常。lang.Exception初始化错误
3) 线程“main”组织中出现异常。阿帕奇。火花sql。流动。StreamingQueryException:空
sbt依赖
// https://mvnrepository.com/artifact/org.apache.spark/spark-core libraryDependencies=“org.apache.spark”%%“spark核心”%%“2.2.3”
// https://mvnrepository.com/artifact/org.apache.spark/spark-sql libraryDependencies=“org.apache.spark”%%“spark sql”%%“2.2.3”
// https://mvnrepository.com/artifact/org.apache.spark/spark-streaming libraryDependencies=“org.apache.spark”%%“spark流媒体”%%“2.2.3”%”已提供
// https://mvnrepository.com/artifact/org.apache.kafka/kafka libraryDependencies=“org.apache.kafka”%%“kafka”%%“2.1.1”
// https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients libraryDependencies=“org.apache.kafka”%”Kafka客户端“%”2.1.1
// https://mvnrepository.com/artifact/org.apache.kafka/kafka-streams libraryDependencies=“org.apache.kafka”%”Kafka流“%”2.1.1
// https://mvnrepository.com/artifact/org.apache.spark/spark-sql-kafka-0-10 libraryDependencies=“org.apache.spark”%%”spark-sql-kafka-0-10“%%”2.2.3
//https://mvnrepository.com/artifact/org.apache.kafka/kafka-streams-scala库依赖="org.apache.kafka " %% "kafka流-scala"%"2.1.1"
import java.sql.Timestamp
import org.apache.spark.sql.SparkSession
object demo1 {
def main(args: Array[String]): Unit = {
System.setProperty("hadoop.home.dir","c:\\hadoop\\")
val spark: SparkSession = SparkSession.builder
.appName("My Spark Application")
.master("local[*]")
.config("spark.sql.warehouse.dir", "file:///C:/temp") // Necessary to work around a Windows bug in Spark 2.0.0; omit if you're not on Windows.
.config("spark.sql.streaming.checkpointLocation", "file:///C:/checkpoint")
.getOrCreate
spark.sparkContext.setLogLevel("ERROR")
spark.conf.set("spark,sqlshuffle.partations","2")
val df = spark.readStream
.format("kafka")
.option("kafka.bootstrap.servers", "162.244.80.189:9092")
.option("startingOffsets", "earliest")
.option("group.id","test1")
.option("subscribe", "demo11")
.load()
import spark.implicits._
val dsStruc = df.selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)", "timestamp").as[(String, String, Timestamp)]
val abc = df.writeStream
.outputMode("append")
.format("console")
.start().awaitTermination()
df.show()
我也有同样的问题。我使用了错误的spark sql kafka库版本(2.2.0而不是2.3.0)。我的成功配置是:
组织。阿帕奇。spark-core_2.11 2.3。提供0
组织。阿帕奇。spark-sql_2.11 2.3。0
组织。阿帕奇。spark spark-sql-kafka-0-10_2.11 2.3。0
组织。阿帕奇。KafkaKafka客户端0.10。1
我希望有帮助。这篇文章给了我灵感
https://community.hortonworks.com/content/supportkb/222428/error-microbatchexecution-query-id-567e4e77-9457-4.html
scala的版本是2.11.8;jdk为1.8;spark是2.0.2 我试图在spark apache的官方网站上运行一个LDA模型的示例,我从以下句子中得到了错误消息: 错误按摩是: 错误:(49,25)读取的值不是组织的成员。阿帕奇。火花SparkContext val dataset=spark。阅读格式(“libsvm”)^ 我不知道怎么解决。
我有两个代理1.0.0Kafka集群,我正在针对这个Kafka运行1.0.0Kafka流API应用程序。我增加了制片人的要求。暂停。毫秒到5分钟来修复生产者超时异常。 目前,在运行一段时间后,我发现以下两种类型的异常。我试图按照ApacheKafka中的建议修复这些异常:TimeoutException,然后什么都不起作用 但不完整的解决方案就在这里。建议使用此解决方案(减少生产批量)。请帮忙。
Selenium Webdriver(2.53)和java(jdk 7)。Mozilla Firefox ESR(45.2.0)在页面打开时立即崩溃,并显示错误消息: 出错
我试图从JMS源读取数据,并将它们推送到KAFKA主题中,几个小时后,我观察到推送到KAFKA主题的频率几乎为零,经过一些初步分析,我在FLUME日志中发现以下异常。 my flume显示max.request的当前设置值(在日志中)。尺寸为1048576,明显小于1399305,增加了此最大要求。大小可能会消除这些异常,但我无法找到更新该值的正确位置。 我的水槽。配置, 任何帮助都将不胜感激!!
将现有应用程序从Spark 1.6移动到Spark 2.2*(最终)会导致错误“org.apache.spark.SparkExctive:任务不可序列化”。我过于简化了我的代码,以演示同样的错误。代码查询拼花文件以返回以下数据类型:“org.apache.spark.sql.数据集[org.apache.spark.sql.行]”我应用一个函数来提取字符串和整数,返回字符串。一个固有的问题与Sp