Workflow failed. Causes: There was a problem refreshing your credentials. Please check:
1. Dataflow API is enabled for your project.
2. There is a robot service account for your project:
service-[project number]@dataflow-service-producer-prod.iam.gserviceaccount.com
should have access to your project.
If this account does not appear in the permissions tab for your project, contact Dataflow support.
当您第一次在一个新的GCP项目中使用Dataflow时,您需要启用API(快速入门中的步骤3),这可能需要几分钟的时间。在此步骤中,将创建几个服务帐户:
云数据流服务帐户:service-
。
控制器服务帐户:
。
此外,请不要忘记为执行数据流作业的帐户分配适当的权限。
更新:
如果问题仍然存在,则很可能是服务帐户被某种方式损坏了,在这种情况下,建议使用新的服务帐户创建一个新的GCP项目,或者联系云支持。
我有一个数据流问题,我需要执行一个作业,我得到以下错误: 并且我已经在项目中创建了服务帐户和许可证。 问候
我在运行数据流作业时得到以下错误。我正试图将现有的beam版本更新到2.11.0,但在运行时出现了以下错误。 java.lang.incompatibleClassChangeError:类org.apache.beam.model.pipeline.v1.runnerAPI$standardpTransforms$Primitives没有实现在org.apache.beam.runners.co
我试图使文档中的狗/品种示例适用于Neo4j持久性。数据库是正常创建的,但无法刷新数据,至少看起来是这样。我在em.flush()指令(在上面的DogBreedRunner.java类中)中得到错误org.neo4j.graphdb.NotInTransactionException。 我谷歌并搜索了这个问题,但真的无法绕过它。这是我的项目(我没有接触文档中的java类)。 有人能帮忙吗?如果需要
使用标准的GCP提供的存储/文本文件来发布Sub数据流模板,但是尽管我已经设置了#workernodes eq 1,但是对于下游组件来说,处理的消息吞吐量“太高”。 在 Pub/Sub 中的消息事件上运行的 Cloud 函数会命中 GCP 配额,并且使用 CloudRun,我在开始时收到一堆 500、429 和 503 个错误(由于步进突发率)。 有没有办法控制数据流的处理速率?需要获得更软/更慢
我对GCP、Dataflow、Apache Beam、Python和一般的OOP都是新手。我来自函数式javascript领域,对于上下文。 现在,我已经用Apache Beam python sdk构建了一个流管道,并将其部署到GCP的数据流中。管道的源是pubsub订阅,接收器是数据存储。 管道从pubsub订阅中获取消息,根据配置对象+消息内容做出决定,然后根据做出的决定将其放在数据存储中的
我正在尝试对客户端凭据流进行身份验证,但一直返回错误400。我查看了可用的API,但看不出我做错了什么。如果有人能给我一个正确的方向,那太棒了。谢谢