当前位置: 首页 > 知识库问答 >
问题:

GCP数据流刷新凭据时出现问题

东方修谨
2023-03-14
Workflow failed. Causes: There was a problem refreshing your credentials. Please check: 
1. Dataflow API is enabled for your project. 
2. There is a robot service account for your project: 
service-[project number]@dataflow-service-producer-prod.iam.gserviceaccount.com 
should have access to your project. 
If this account does not appear in the permissions tab for your project, contact Dataflow support.

共有1个答案

楚畅
2023-03-14

当您第一次在一个新的GCP项目中使用Dataflow时,您需要启用API(快速入门中的步骤3),这可能需要几分钟的时间。在此步骤中,将创建几个服务帐户:

云数据流服务帐户:service- @dataflow-service-producer-producer-prod.iam.gserviceaccount.com

控制器服务帐户: -compute@developer.gserviceaccount.com

此外,请不要忘记为执行数据流作业的帐户分配适当的权限。

更新:

如果问题仍然存在,则很可能是服务帐户被某种方式损坏了,在这种情况下,建议使用新的服务帐户创建一个新的GCP项目,或者联系云支持。

 类似资料:
  • 我有一个数据流问题,我需要执行一个作业,我得到以下错误: 并且我已经在项目中创建了服务帐户和许可证。 问候

  • 我在运行数据流作业时得到以下错误。我正试图将现有的beam版本更新到2.11.0,但在运行时出现了以下错误。 java.lang.incompatibleClassChangeError:类org.apache.beam.model.pipeline.v1.runnerAPI$standardpTransforms$Primitives没有实现在org.apache.beam.runners.co

  • 我试图使文档中的狗/品种示例适用于Neo4j持久性。数据库是正常创建的,但无法刷新数据,至少看起来是这样。我在em.flush()指令(在上面的DogBreedRunner.java类中)中得到错误org.neo4j.graphdb.NotInTransactionException。 我谷歌并搜索了这个问题,但真的无法绕过它。这是我的项目(我没有接触文档中的java类)。 有人能帮忙吗?如果需要

  • 使用标准的GCP提供的存储/文本文件来发布Sub数据流模板,但是尽管我已经设置了#workernodes eq 1,但是对于下游组件来说,处理的消息吞吐量“太高”。 在 Pub/Sub 中的消息事件上运行的 Cloud 函数会命中 GCP 配额,并且使用 CloudRun,我在开始时收到一堆 500、429 和 503 个错误(由于步进突发率)。 有没有办法控制数据流的处理速率?需要获得更软/更慢

  • 我对GCP、Dataflow、Apache Beam、Python和一般的OOP都是新手。我来自函数式javascript领域,对于上下文。 现在,我已经用Apache Beam python sdk构建了一个流管道,并将其部署到GCP的数据流中。管道的源是pubsub订阅,接收器是数据存储。 管道从pubsub订阅中获取消息,根据配置对象+消息内容做出决定,然后根据做出的决定将其放在数据存储中的

  • 我正在尝试对客户端凭据流进行身份验证,但一直返回错误400。我查看了可用的API,但看不出我做错了什么。如果有人能给我一个正确的方向,那太棒了。谢谢