对于每个每日分区,我们每3分钟将文件加载到bigquery中,每个文件的大小约为200MB。(.gz)。有时我会得到重复,但我不确定为什么。我已经验证了输入文件只包含数据一次,日志证明该文件只处理过一次。造成重复的可能原因是什么?在上传到bigquery之前,有什么方法可以防止它吗?client, err := bigquery.NewClient(ctx, loadJob.ProjectID, clientOption)
if er
我正在优化Bigquery中的一个查询,该查询显示不重复的数据,目前它是这样的,并且工作正常。operator_id, description from NAME_TABLE where created_at >='2018-01-01') where num=1
我想问的是,是否可以用所有列组成一个组(简单地说不能这样做,因为crated_at不可能对其分组),并保留每个id显示的cre