我正在开发一个数据流管道,它正在从谷歌云存储读取协议的文件,并解析它,并试图写入到BigQuery表。当不是时,它工作得很好。行的大小约为20k,但如果不是。行数约为200k,则失败。每次它停留在GroupByKey阶段,并给出以下错误: Error message from worker: java.lang.RuntimeException: Failed to create joborg.apache.beam.sdk.io.gcp.bigquery.BigQueryHelpers$PendingJob.runJob
我刚刚尝试为BigQuery设置谷歌广告数据传输服务。我按照here的指示操作,我的帐户在GCP项目和Google Ads帐户中都有必要的权限。结果是出现一条错误消息,显示为Non-manager account doesn't exist (or account is not active), so data will not be imported此错误消息是什么?如何修复此错误?
如何在数据流中创建新的BigQuery数据集以将数据保存在?
我希望dataset名称使用dataflow程序中的version标记进行版本化。我正在使用python,并尝试使用BigQuery客户机在beam.io.BigQuerySink之外执行此操作,但是在gcp上运行流时,我会得到以下错误:ImportError: No modulenamed cloud,它引用了bigquery from google.cloud import bi
我能够在GCP UI中创建数据传输,从europe-west3位置的桶到位于europe-west3区域的BigQuery数据集。当我试图对bq mk --transfer_config ...命令执行同样的操作时,会得到一个错误:
BigQuery error in mk operation: BigQuery Data Transfer