我在HA模式下配置了Flink,如下所述: 我想测试容错性,因此我做了以下工作: 设置具有2个JobManager和1个TaskManager的Flink群集 在任务管理器上启动流式处理作业 杀死活动的作业管理器(以模拟崩溃) 领导人选举如期举行 但注意到任务管理器正在重新连接到新的作业管理器。它只是每10秒尝试重新连接到前一个领导者 在此处粘贴任务管理器日志: 重新启动任务管理器没有帮助 重新启
我正在尝试使用以下命令提交flink关于纱线的作业: 我拿到了env。Java语言选择flink客户端日志,但当应用程序提交到Thread时,这些Java选项将不可用。由于额外的JVM选项不可用,应用程序在连接zookeeper时引发异常。 请建议如何将动态属性传递给JM 注意:我试图设置env。Java语言将选项选择到conf/flink-conf.yaml及其工作状态。我需要一种通过flink
我让Flink服务器在端口8081上本地运行。我在上面部署了我的flink应用程序的jar,它成功运行。 现在,我需要听取普罗米修斯的Flink指标,为此,我需要将作业管理器和任务管理器配置为普罗米修斯的目标。yml。 那么,我在哪里可以获得相同的端口?
我有一个部署在远程Kubernetes集群上的Flink SessionCluster(根据文档),可在
是否有一本食谱,精确描述了在什么配置文件(作业管理器配置/flink-conf.yaml、任务管理器配置/flink-conf.yaml、作业管理器配置/zoo.cfg中应该更改什么,以便将Flink应用程序部署从会话模式更改为作业模式? 此外,我们通过交付给我们的anable角色在openshift上设置了flink集群,但不幸的是,它不是从anable galaxy存储库中获取的,因此我无法向
我们有一些在纱线上运行的flink作业。我们想将flink作业日志上传到ELK以简化调试/分析。目前flink任务管理器将日志写入。我们希望它写入没有嵌套结构的目录。 我试过使用env。日志目录:/mnt/flink。使用此设置时,无法正确传递配置。
当我们在一个纱线会话中运行多个flink作业时。我们发现所有作业的日志都写入同一个文件“taskmanager.log”,我们很难检查特定作业的日志。有没有办法把它们分开? 除此之外,如果我们的flink作业长时间运行,如何根据日期分离日志文件?
我们正在hadoop 2.6集群上运行Flink 1.5.0纱线会话/料仓/纱线会话。但是,这不会启动任何TaskManager。日志显示Flink JobManager以领导者id 000000开始。。。在JobManager web界面中也没有任务管理器。当我们向这个jobManager提交flink作业时,一些TaskManManager会在执行作业的web界面上生成。这是Flink1.5.
我在这里描述的纱线上运行一个flink作业。 我可以使用上述参数设置纱线节点/任务管理器的数量。但是我想知道是否可以设置每个任务管理器的任务槽数。当我使用并行()参数时,它只设置整体并行度。任务槽的数量是通过将此值除以提供的任务管理器的数量来计算的。我尝试使用动态属性()参数,该参数应该“允许用户指定额外的配置值”,如下所示: 但这不会覆盖中给出的值。在flink上运行单个任务时,是否有任何方法可
我在独立的Kubernetes(sesion)模式下运行Apache Flink,没有作业管理器HA。但我需要部署作业管理器HA,因为只有在HA模式下,Flink才能持久化(可以在作业管理器重新启动后保存作业)。Flink在专用的kubernetes命名空间中运行,我只对该命名空间拥有权限。 使用本文启用HA:https://ci.apache.org/projects/flink/flink-d
我在kubernetes上部署了一个flink集群,它由1个作业管理器和6个任务管理器组成。我试图运行一个在该集群上消耗大量数据的flink作业。但是它似乎没有弹性,因为当任务管理器pod重新启动时,整个作业都失败了。所以我想知道部署在kubernetes之上的flink集群是否对失败有弹性?因为任务管理器pod重新启动的情况经常发生
我按照以下指南在kubernetes创建了一个flink集群:https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/deployment/native_kubernetes.html 作业管理器正在运行。当作业提交给作业管理器时,它生成了一个任务管理器pod,但任务管理器无法连接到作业管理器。
我们目前正在kubernetes上运行flink,作为使用这个helm模板的作业集群:https://github.com/docker-flink/examples/tree/master/helm/flink(带有一些添加的配置)。 如果我想关闭集群,重新部署新映像(由于应用程序代码更新)并重新启动,我将如何从保存点进行恢复? jobManager命令严格设置在standalone-job.s
我想为在库伯内特斯集群中运行的Apache Flink作业提供来自Hashicorp Vault的机密。这些信用将用于访问检查点和保存点的状态后端。状态后端可能是例如Minio S3存储。在以下设置下,有人能为Flink Application操作员提供一个工作示例吗? 用户名和密码(或访问密钥)的Vault机密: Flink应用程序自定义资源的k8s清单: flink应用程序的Docker文件:
我对Flink和库伯内特斯是新手。我计划创建一个flink流作业,将数据从文件系统流到Kafka。 使用工作正常的flink job jar(本地测试)。现在我正试图在kubernetes主持这项工作,并希望在AWS中使用EKS。 我已经阅读了有关如何设置flink群集的官方flink文档。https://ci.apache.org/projects/flink/flink-docs-releas