我在试着2.每15分钟使用文件加载将事件从Cloud /Sub加载到BigQuery,以节省流插入的成本。3.目标将根据JSON事件中的"user_id“和"campaign_id”字段而不同,"user_id“将是数据集名称,"campaign_id”将是表名。分区名称来自事件时间戳。;
import o
我在谷歌的BigQuery上加载较大的文件时遇到了一个问题。问题是,当我加载少于1000行的文件时,它加载没有任何错误,但当我加载超过10000行的文件时,我得到加载错误。BigQuery error in load operation: Error processing job '......': Too many errors encountered.任务是从Redshift导出数据并将其加载到BigQuery中。下面是我是如何完成这项工作的(步骤):
1.Cre