当前位置: 首页 > 知识库问答 >
问题:

无法使用JobManager HA在独立Kubernetes模式下运行Flink

常炯
2023-03-14

我在独立的Kubernetes(sesion)模式下运行Apache Flink,没有作业管理器HA。但我需要部署作业管理器HA,因为只有在HA模式下,Flink才能持久化(可以在作业管理器重新启动后保存作业)。Flink在专用的kubernetes命名空间中运行,我只对该命名空间拥有权限。

使用本文启用HA:https://ci.apache.org/projects/flink/flink-docs-master/docs/deployment/ha/kubernetes_ha/

我使用本文中的yaml文件:https://ci.apache.org/projects/flink/flink-docs-master/docs/deployment/resource-providers/standalone/kubernetes/#kubernetes-高可用性服务

例如,我有一个名为flink-namespace的k28s命名空间。在这个命名空间中,我创建了:

  • 名为flink sa的服务帐户

因此,此serviceAccount具有创建/editr配置映射的权限,但仅在此命名空间中。

部署后,jobManager无法启动并抛出错误:

原因:io。fabric8.kubernetes。客户KubernetesClientException:禁止configmaps“flink restserver leader”:用户“system:serviceaccount:flink namespace:flink sa”无法查看命名空间“default”中API组“”中的资源“configmaps”

对于使用Flink的serviceAccount用于管理Configmaps的意思,请尝试在命名空间“default”中而不是在命名空间“Flink namespace”中创建Configmap

有人知道如何配置flink以管理指定命名空间中的配置映射吗?

共有1个答案

郁景龙
2023-03-14

问题解决了-我在Flink源代码中找到的告诉Flink in kubernetes命名空间正在运行的可能性。所以,要解决这个问题,您应该在配置中设置它:

库伯内特斯。名称空间:您的\u namespace\u名称

 类似资料:
  • 我已经在我的本地安装了mesos,并按照mesos设置中提到的进行了配置。现在我想在本地机器上安装的mesos上运行spark。我已经根据官方文档配置了spark,并在我的本地机器上运行了单节点hadoop集群。Spark二进制包被复制到hdfs根目录,我已经在spark-env.sh中设置了以下属性: 是Spark-Defaults.conf:

  • null 大多数文档描述了如何在Kubernetes上运行Spark集群。在Kubernetes上独立运行Spark的方法是什么?

  • 你好,我的同事: Windows7(64位)+Java 8+NetBeans 8.0和使用Derby学习嵌入式数据库。 我遵循一个简单的示例“在NetBeans中使用内置的Derby数据库在NetBeans 6.1中启动一个Java DB应用程序” https://www.youtube.com/watch?v=gcy4mcka8-e https://www.youtube.com/watch?v

  • 我试图在调试模式下启动我的android应用程序,但每次我检查它说这是错误的。更进一步,在buildtypes中定义的buildconfigField甚至不会显示在BuildConfig中。 这是我的gradle文件: 因此,在Android Studio中,我为我的应用程序选择了build Variant“debug”,但当我在应用程序中点击一个断点并检查的值时,无法解析字段,并且无法解析

  • 我正在尝试使用空手道独立震击器执行测试。在整个项目中,我在查找文件时使用。 但是,当我试图从CLI执行测试时,会收到以下错误: 命令: 似乎我将不得不声明执行类路径,你能提供一些关于如何做到这一点的见解吗?我不确定我的问题是否与[空手道][独立]错误:无法找到或读取文件