在Flink中,我执行以下代码: 我推出3次同样的工作。 如果我用一个代理执行这段代码,它工作得很好,但是用3个broke(在3个不同的机器上)只读取一个分区。 null
我的消费者代码如下所示: 我是否应该设置另一个属性来允许单个作业从多个分区使用?
我们有一个Kafka主题,有源源不断的数据。为了处理它,我们有一个无状态的Flink管道,它使用该主题并写入另一个主题。 我们是不是漏掉了什么?我们误会什么了吗?有没有更好的解决办法? 谢了!
有人能帮我解决以下错误吗?我认为版本有一些问题,但我不知道如何解决。我正在尝试运行Apache Flink,我使用Kafka主题作为输入。我在尝试运行Flink时遇到以下错误: 线程“main”中的异常 java.lang.NoClassDefFoundEror: org/apache/flink/util/Preconditions at org.apache.flink.cep.pattern
当Flink在Kubernetes作为豆荚运行时,有人知道如何用Flink运行梁Python管道吗? 我已经成功地使用Portable runner和指向运行在Docker容器中的本地Flink服务器的作业服务运行了一个Beam Python管道。 是否有一种方法可以部署一个侧容器并使用不同的工厂来运行Python harness流程?正确的做法是什么? 这是DockerEnvironmentFa
当我去Apache Spark流媒体网站时,我看到了一句话:
null 那么,和之间的最大区别是什么?
我正在尝试使用ApacheFlink从读取数据 我的Flink工作是连接到webSocket,但它不是从webSocket拉数据。 下面是我尝试使用ApacheFlink API连接到websocket的示例代码 中的run()
我是Flink的新手,今天我遇到了一个奇怪的情况。 我运行Kafka服务器,然后使用confluent producer发送消息。使用consumer,我得到了正确的信息,但在应用程序中,我不能。我使用此图像设置message broker 我用这个向Kafka服务器发送消息 我发送的消息是 我用这个来听Kafka的留言 这是我的密码 当我将kafka源代码更改为KafkaSource时 user
我需要通过flink消费Kafka,不幸的是,Kafka消息是在serde中使用原型,完全不知道如何处理它,这里是来自互联网的代码,但我不能使它工作。 这不起作用,它会让NPE: 有人知道我做错了什么吗?使用twitter ProtobufSerializer是唯一值得拥有protobuf的方法吗?还是还有别的路要走?
我在mac上运行Kafka和Flink作为docker容器。 我已经实现了Flink作业,它应该消耗来自Kafka主题的消息。我运行一个向主题发送消息的python生产者。 工作开始时没有问题,但没有收到任何消息。我相信这些消息被发送到了正确的主题,因为我有一个能够使用消息的python消费者。 flink作业(java): Flink作业日志: 生产者作业(python):(在主机上运行-不是d
如何确保我总是从Kafka主题的一开始就与Flink一起消费? Kafka0.9。x consumer是Flink 1.0.2的一部分,它似乎不再是Kafka,而是Flink来控制偏移量: Flink在内部快照偏移量,作为其分布式检查点的一部分。Kafka/动物园管理员promise的补偿只是为了让外界对进展的看法与Flink对进展的看法保持同步。通过这种方式,监控和其他工作可以了解Flink K
我用Scala编写的Apache Flink API创建了一个Kafka消费者。每当我传递某个话题的信息时,它就会适时地接收它们。但是,当我重新启动消费者时,它不会接收新的或未使用的消息,而是使用发送到该主题的最新消息。 以下是我正在做的: > 运行生产者: 运行消费者: 传递一些信息
我正在将avro序列化数据发布到kafka主题,然后尝试通过SQL CLI界面从该主题创建Flink表。我能够创建主题,但在执行SQL语句后无法查看主题数据。然而,我能够使用简单的Kafka消费者反序列化和打印已发布的数据。在SQL CLI上获取此错误: 表创建 表定义 Avro模式 消息值(消息键为无) 我不断发送相同的消息值使用简单的kafka生产者主题 Kafka主题描述 完整错误日志 来自