当前位置: 首页 > 知识库问答 >
问题:

使用beam时,“ValueError:云发布/订阅当前仅可用于流式管道”。io。批处理模式下的WriteToPubSub()

司马腾
2023-03-14

我正在从查找中读取一些客户记录并将其写入bigquery表,然后从同一个表中读取一些必需的数据栏并尝试将该数据(Json)作为消息推送到pubsub中,在批处理模式下使用数据流管道。但是收到错误:“ValueError:Cloud Pub/Sub目前仅可用于流媒体管道”。

delete_rows = p | 'reading data to be deleted' >> beam.io.Read(
            beam.io.BigQuerySource(
                query=delete_query,
                use_standard_sql=True))

        required_data = delete_rows | 'Retriving only required data' >> beam.ParDo(RequiredData())

        push_to_pubsub = required_data | 'Pushing data to pubsub' >> beam.io.WriteToPubSub(
            topic='my topic name',
            with_attributes=False,
            id_label=None,
            timestamp_attribute=None
        )

我想在数据流管道的批处理模式中使用PubSub

共有1个答案

澹台逸明
2023-03-14

感谢您的尝试。Dataflow PythonSDK的Cloud Pub/Sub目前被实现为仅适用于Dataflow Python流媒体后端的Dataflow本机源。我们可以考虑在未来提供一种适用于批处理管道的实现,但我没有ETA。

 类似资料:
  • 我是apache beam环境中的新手。正在尝试为批处理业务流程安装apache beam管道。 我对批次的定义如下 批次== 作业/子作业之间可能存在依赖关系。 apache波束管道可以用我的自定义批次映射吗??

  • Redis 发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。 Redis 客户端可以订阅任意数量的频道。 下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2、client5 和 client1 之间的关系: 当有新消息通过 PUBLISH 命令发送给频道 channel1 时, 这个消息就会被发送给订阅它的三个

  • 我正在尝试使用Kafka的Spark SQL结构流。我正在为kafka选项寻找这个强制选项subscribePattern[Java正则字符串]。显然,只有3个值是可能的:“赋值”、“订阅”或“订阅模式” 当我搜索这个选项时,最有用的信息如下:https://jaceklaskowski . git books . io/mastering-Apache-spark/content/spark-s

  • 我正在使用Spring Cloud Stream和Kafka Binder批量消费来自一个Kafka主题的消息。我正在尝试实现一个错误处理机制。根据我的理解,我不能在批处理模式下使用Spring Cloud Stream的< code>enableDLQ属性。 我找到了和,以重试并从spring-kafka文档发送失败消息。但我无法理解如何按照功能编程标准将记录发送到自定义DLQ主题。我看到的所有

  • 在前面的章节中,你交互式地使用mysql输入查询并且查看结果。你也可以以批模式运行mysql。为了做到这些,把你想要运行的命令放在一个文件中,然后告诉mysql从文件读取它的输入: shell> mysql < batch-file 如果在Windows下运行mysql,并且文件中有一些可以造成问题的特殊字符,可以这样操作: C:\> mysql -e "source batch-file" 如果

  • 我已经使用Google云数据流SDK编写了一个流式管道,但我想在本地测试我的管道。我的管道从Google Pub/Sub获取输入数据。 是否可以使用DirectPipelineRunner(本地执行,而不是在Google云中)运行访问发布/订阅(pubsubIO)的作业? 我在以普通用户帐户登录时遇到权限问题。我是项目的所有者,我正在尝试访问发布/子主题。