当前位置: 首页 > 知识库问答 >
问题:

将数据流式传输到BigQuery时开始获取错误503

龚博涛
2023-03-14

我正在将数据流式传输到BigQuery 300行,大约每分钟3次。插入一周前停止工作,出现以下错误:

谷歌。API。请求。执行期间遇到RequestError错误。重试可能会解决问题。[503]错误[消息[执行过程中遇到错误。重试可能会解决问题。]位置[-]原因[备份错误]域[全局]]

我的服务在两个月内运行良好,自从我们开始使用它以来,没有任何代码更改。

这是调用BigQuery的代码

public async Task<TableDataInsertAllResponse> Update(List<TableDataInsertAllRequest.RowsData> rows, string tableSuffix)
{
    var request = new TableDataInsertAllRequest {Rows = rows, TemplateSuffix = tableSuffix};
    var insertRequest = mBigqueryService.Tabledata.InsertAll(request, ProjectId, mDatasetId, mTableId);

    return await insertRequest.ExecuteAsync();
}

还有其他人遇到过这个问题吗?

共有1个答案

郗福
2023-03-14

一般来说,503意味着“临时服务器故障,例如网络连接问题或服务器过载”参见https://cloud.google.com/bigquery/troubleshooting-errors

然而,在您的情况下,您的项目似乎禁用了计费。实际错误消息应为“billingNotEnabled”。

我们将很快修复错误消息。感谢您的报道!

 类似资料:
  • 我有两个BigQuery数据集:和 这些数据集中的每一个都包含一个表,例如和 包含流数据,我想将数据从流式传输到。 我有类型的架构。如何将流行从一个表复制到另一个表并保留现有架构? 到目前为止,我已经研究了BigQuery的insertAll方法,但是我有点不确定在哪个数据结构中获取行,以及在插入新表时如何指定TableSchema。 我希望能就如何做到这一点提供一些指导。谢谢

  • 我在Ubuntu 14.04上使用Hadoop-1.2.1 我正在尝试使用Flume-1.6.0将数据从twitter流式传输到HDFS。我已经下载了Flume-sources-1.0-SNAPSHOT。jar并将其包含在flume/lib文件夹中。我已经设置了flume-sources-1.0-SNAPSHOT的路径。jar在conf/FLUME环境中显示为FLUME_CLASSPATH。这是我

  • 我正在尝试使用apache flume将数据加载到hbase中。当我使用flume将数据传输到hadoop时,它工作得很好。但是当我启动flume代理将数据加载到hbase时,我得到了NoClassDefFoundError。 这是我的水槽配置: flume-env.sh 代理4.conf

  • 我运行一个DAG来提取MySQL数据,并在airflow中加载到BigQuery。我目前得到以下错误: /usr/local/lib/python2.7/dist-packages/airflow/models.py:1927:PendingDeprecationWarning:无效参数被传递给MySqlToGoogleCloudStorageOperator。对传递此类参数的支持将在 Airfl

  • 这是我的Mysql。配置 这是我的模板。json 这是我的elasticSearch索引映射 但当它开始的时候 无法将事件索引到Elasticsearch.{: state= 解析[start_time]"、"caused_by"=失败 **msgstr"格式无效:\"2019-12-20T15:18:13.000Z\"在\"-12-20T15:18:13.000Z\"** 但是在我的数据库中,我