当前位置: 首页 > 知识库问答 >
问题:

Java/Scala Kafka制作人不向主题发送消息

乜心思
2023-03-14

我在向我的Kafka主题发送序列化XML时遇到问题。每当我运行我的代码时,我都不会收到任何异常或错误消息,但我仍然无法在Kafka主题中看到我的任何消息。

我的Kafka制作人设置如下:

def WartungsdbKafkaConnector(args: Array[String]): Unit = {  
    val xmlFile = args(0)
    val record = getRecord(xmlFile)
    val kafkaProducer = getKafkaProducer
    kafkaProducer.send(record)
}

protected def getRecord(xmlFile: String): ProducerRecord[String, String] = {
    val lines = scala.io.Source.fromFile(xmlFile).mkString
    val xml = scala.xml.XML.loadString(lines)
    val paramPress = xml \ "PARAMETER" \ "PRESS"
    val databaseId = allCatch.opt {paramPress.\@("NUMBER")}
    val key = databaseId.get
    val topic = args(1)
    new ProducerRecord(topic, key, lines)
}


protected def getKafkaProducer: KafkaProducer[String, String] = {  
    val props = new Properties
    props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 
    "ec-x.eu-west-1.compute.amazonaws.com:9092," +
    "ec2-x.eu-west-1.compute.amazonaws.com:9092," +
    "ec2-x.eu-west-1.compute.amazonaws.com:9092")
    props.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG, "true")
    props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, classOf[StringSerializer].getName)
    props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, classOf[StringSerializer].getName)
    props.put(ProducerConfig.LINGER_MS_CONFIG, "100")
    props.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, "snappy")
    props.put(ProducerConfig.RETRIES_CONFIG, "20")
    props.put(ProducerConfig.ACKS_CONFIG, "all")

    new KafkaProducer[String, String](props)
}

当我运行代码时,我得到:

[main] INFO org.apache.kafka.clients.producer.ProducerConfig - ProducerConfig values:
    acks = all
    batch.size = 16384
    bootstrap.servers = [ec2-x.eu-west-1.compute.amazonaws.com:9092, 
    ec2-x.eu-west-1.compute.amazonaws.com:9092, 
    ec2-x.eu-west-1.compute.amazonaws.com:9092]
    buffer.memory = 33554432
    client.id =
    compression.type = snappy
    connections.max.idle.ms = 540000
    enable.idempotence = true
    interceptor.classes = []
    key.serializer = class org.apache.kafka.common.serialization.StringSerializer
    linger.ms = 100
    max.block.ms = 60000
    max.in.flight.requests.per.connection = 5
    max.request.size = 1048576
    metadata.max.age.ms = 300000
    metric.reporters = []
    metrics.num.samples = 2
    metrics.recording.level = INFO
    metrics.sample.window.ms = 30000
    partitioner.class = class org.apache.kafka.clients.producer.internals.DefaultPartitioner
    receive.buffer.bytes = 32768
    reconnect.backoff.max.ms = 1000
    reconnect.backoff.ms = 50
    request.timeout.ms = 30000
    retries = 2
    retry.backoff.ms = 100
    sasl.client.callback.handler.class = null
    sasl.jaas.config = null
    sasl.kerberos.kinit.cmd = /usr/bin/kinit
    sasl.kerberos.min.time.before.relogin = 60000
    sasl.kerberos.service.name = null
    sasl.kerberos.ticket.renew.jitter = 0.05
    sasl.kerberos.ticket.renew.window.factor = 0.8
    sasl.login.callback.handler.class = null
    sasl.login.class = null
    sasl.login.refresh.buffer.seconds = 300
    sasl.login.refresh.min.period.seconds = 60
    sasl.login.refresh.window.factor = 0.8
    sasl.login.refresh.window.jitter = 0.05
    sasl.mechanism = GSSAPI
    security.protocol = PLAINTEXT
    send.buffer.bytes = 131072
    ssl.cipher.suites = null
    ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
    ssl.endpoint.identification.algorithm = https
    ssl.key.password = null
    ssl.keymanager.algorithm = SunX509
    ssl.keystore.location = null
    ssl.keystore.password = null
    ssl.keystore.type = JKS
    ssl.protocol = TLS
    ssl.provider = null
    ssl.secure.random.implementation = null
    ssl.trustmanager.algorithm = PKIX
    ssl.truststore.location = null
    ssl.truststore.password = null
    ssl.truststore.type = JKS
    transaction.timeout.ms = 60000
    transactional.id = null
    value.serializer = class org.apache.kafka.common.serialization.StringSerializer

[main] INFO org.apache.kafka.clients.producer.KafkaProducer - [Producer 
clientId=producer-1] Instantiated an idempotent producer.
[main] INFO org.apache.kafka.common.utils.AppInfoParser - Kafka version : 
2.0.0
[main] INFO org.apache.kafka.common.utils.AppInfoParser - Kafka commitId : 
3402a8361b734732
[kafka-producer-network-thread | producer-1] INFO 
org.apache.kafka.clients.Metadata - Cluster ID: xeb6oWNpTgSQ_9FHctZ2ng
[kafka-producer-network-thread | producer-1] INFO 
org.apache.kafka.clients.producer.internals.TransactionManager - [Producer 
clientId=producer-1] ProducerId set to 150671 with epoch 0

知道怎么做吗?提前谢谢!

共有1个答案

鲍永春
2023-03-14

你没有刷新、等待或关闭制作人,所以应用程序只是停止而不发送数据。

生产商以可配置的时间和消息量批量处理数据,以减少实际到达代理的发送请求数量。

试试吧

kafkaProducer.send(record)  // optionally call get() on this to capture the result and potential errors 
kafkaProducer.flush() 
kafkaProducer.close()

最重要的是,永远不要忘记关闭生产商(或消费者)

 类似资料:
  • 我是斯卡拉和Kafka的新手,遇到了一些麻烦。 我正在尝试将scala kafka producer连接到安装在cloudera express服务器上的kafka服务器。我已经用这些指令在VMs中这样做过一次了,没有任何问题。 当我运行producer时,所需的主题被创建,但没有任何消息被发送,或者我是这样认为的。 Kafka制作人 当我执行run方法时,我看到“producer-send:#”

  • 为什么Kafka0.10控制台制作人不能向Kafka0.9发送消息? 为什么新的生产者不能向老的消费者发送信息呢?有没有可能设置一个新的制作人在一种不推荐的模式,以发送消息给老Kafka? $bin\windows\kafka-console-producer.bat--broker-list my_server:9092-topic my_topic [2016-08-30 14:03:53,3

  • 我已经设置了kafka客户端,它可以产生和消费消息,当我们把有效载荷从生产者发送到主题时,它可以正常工作,所以我有问题生产者现在第一个消息我可以发送到主题,我也可以从kafka主题中消费,现在我尝试发送第二个消息,但是消费者没有从kafka主题中读取第二个消息,知道这里发生了什么吗? Producer.js consumer.js

  • 我有一个问题与产生的消息Kafka的主题。 我使用来自外部供应商的Kafka管理服务,所以我问他经纪人的状况,他说一切都好。顺便说一句,它发生在三个不同的Kafka实例上。Kafka客户端版本也无关紧要-0.11.0.0和2.0.1都有。

  • 我是Kafka的新手,当我试图发送信息到我得到的主题下面的错误。有人能帮我一下吗? [2018-09-23 13:37:56,613]警告[Producer Clientid=Console-Producer]无法建立到节点-1的连接。代理可能不可用。(org.apache.kafka.clients.NetworkClient)

  • 我正在使用kafka java客户端和kafka服务器。 我的代码: Kafka马纳格 当我的循环长度如果在1000左右(在类)时,我就能成功地向Kafka主题发送数据。 但当我的循环长度为1或小于10时,我无法向Kafka主题发送数据。注意我没有得到任何错误。 根据我的发现,如果我想发送一个单一的消息到Kafka主题,根据这个程序我得到了成功的消息,但从来没有得到一个关于我的主题的消息。 但是如