腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Airflow Composer
删除
特定
的
xcom键
、
我正在通过Airflow并行编排多个
数据流
作业
。流水线执行
中
的
任务之一是推送唯一
的
xcom键来存储每个流水线
的
临时值,该临时值用于向
Bigquery
表
中
插入一个值。数据加载
完成后
,我需要清除特定
的
xcom密钥。我不想
删除
仍在并行运行
的
其他
数据流
作业
可能生成
的
其他xcom键。它们是清除特定xcom密钥
的<
浏览 3
提问于2021-09-05
得票数 0
3
回答
谷歌
数据流
每项
作业
是否有BT写原子?
也许我是个糟糕
的
探索者,但我
在
文档
中
找不到答案,所以我只想在这里试试运气。我知道写GCS似乎不是原子
的
,
在
作业
运行
的
过程中会产
浏览 6
提问于2016-08-05
得票数 1
回答已采纳
1
回答
在
数据流
作业
中
的
所有
步骤
完成后
删除
bigquery
表
、
有没有办法只
在
批处理
数据流
管道
中
的
所有
步骤
都成功之后才
删除
bigquery
表
?
浏览 5
提问于2017-01-21
得票数 1
回答已采纳
2
回答
数据流
:我可以用批处理
作业
连续写入/流写入
BigQuery
吗?
、
、
我有一个apache管道,它接收一些信息,将其格式化为TableRows,然后写入
BigQuery
。直到
数据流
作业
完成后
,才会将行写入
BigQuery
。如果我有一个需要很长时间
的
数据流
作业
,我希望能够看到插入到
BigQuery
中
的
行,谁能给我指明正确
的
方向? 提前感谢
浏览 0
提问于2018-06-08
得票数 1
2
回答
只
在
大查询
作业
完成后
触发
数据流
的
方法
、
、
、
实际上,对我
的
数据执行以下
步骤
:我知道Google函数
的
BigQuery
α触发器,但我 不知道是不是一个好主意,从我看到<
浏览 0
提问于2019-11-21
得票数 2
回答已采纳
1
回答
如何使用Google工具和javascript存储和提供优惠券
、
、
需要存储
在
某个地方(
bigquery
?)在那里我可以请求并发送给用户。用户应该只能得到一个唯一
的
代码,这是事先没有使用
的
。提前感谢
浏览 4
提问于2021-04-13
得票数 0
回答已采纳
1
回答
大查询
中
的
WRITE_TRUNCATE行为
、
关于大查询
中
的
WRITE_TRUNCATE行为,我有一个问题。 我有一个大
的
查询
表
(T1),我会定期添加日志数据(每一行日志行)。我希望有一个
数据流
作业
(D1),它从这个
表
中
读取、
删除
任何重复
的
行并执行其他数据清理操作,然后将其输出到另一个大型查询
表
(T2),替换该
表
中
可能已经存在
的
任何数据。我相信我可以通过在
数据流
作业
浏览 0
提问于2017-09-13
得票数 5
回答已采纳
1
回答
气流DAG -如何首先检查BQ (必要时
删除
),然后运行
数据流
作业
?
、
、
、
、
在
我
的
DAG
中
,我有两个任务: 1)使用DataflowPythonOperator运行
数据流
作业
,该
作业
读取GCS
中
的
文本
中
的
数据,并将其转换为BQ,2)根据
作业
失败或成功与否将文件移动到失败/成功桶每个文件都有一个文件ID,它是
bigquery
表
中
的
一个列。有时,一个文件会被编辑一两次(它不是一个经常被编辑
浏览 0
提问于2019-01-09
得票数 3
回答已采纳
1
回答
通过windows服务
在
BigQuery
表
中
插入记录
、
、
、
、
出于测试目的,我能够从
BigQuery
表
中
获取数据,以检查我
的
BigQuery
服务和Windows之间
的
通信。但是这个服务基本上是从MSSQL server
中
获取记录,然后一个接一个地向
BigQuery
中
的
目标
表
插入或追加一条记录。我不想使用CSV或JSON文件作为数据源。有没有办法做到这一点?
浏览 0
提问于2012-10-30
得票数 0
回答已采纳
3
回答
当
作业
完成时,不会
删除
从Dataflow - JSON文件写入
BigQuery
的
内容。
我们
的
数据流
作业
之一将其输出写入
BigQuery
。我对如何在底层实现这一点
的
理解是,Dataflow实际上以JSON格式将结果(切分)写入GCS,然后启动一个
BigQuery
加载
作业
来导入该数据。但是,我们已经注意到,一些JSON文件
在
作业
之后不会被
删除
,不管它是成功还是失败。错误消息
中
没有警告或建议不会
删除
文件。当我们注意到这一点时,我们看了一看我们
的
桶,它有数
浏览 5
提问于2015-05-12
得票数 6
回答已采纳
2
回答
通过加载
作业
(非流式处理)插入到
BigQuery
、
我希望使用
数据流
将数据加载到使用
的
BigQuery
表
中
,而不是流式处理(对于我们
的
用例,流式处理
的
成本太高)。我看到Dataflow SDK内置了对通过BQ流插入数据
的
支持,但我
在
Dataflow SDK
中
找不到任何开箱即用
的
支持加载
作业
的
功能。以下是一些问题: 1) Dataflow SDK是否支持
BigQuery
load
作业</em
浏览 0
提问于2015-06-17
得票数 3
1
回答
如果在
作业
运行期间
删除
了GCloud
数据流
,则重新创建
BigQuery
表
。
、
、
、
我已经设置了一个GCloud
数据流
管道,它使用来自Pub/Sub订阅
的
消息,将它们转换为
表
行,并将这些行写入相应
的
BigQuery
表
。
表
目的地是根据Pub/Sub消息
的
内容确定
的
,偶尔会导致
表
还不存在,必须先创建
表
的
情况。为此,我使用create CREATE_IF_NEEDED,它工作得很好。但是,我注意到,如果在
数据流
作业
浏览 1
提问于2020-03-21
得票数 0
回答已采纳
1
回答
执行google
数据流
作业
时获取HTTP传输错误
在
执行
数据流
作业
时,我得到了一个持续
的
错误:
BigQuery
导入
作业
"dataflow_job_838656419“失败。,:
BigQuery
为"TestProject”项目中
的
数据集"TestDataSet“
中
的
表
"TestTable”创建导入
作业
。,:
BigQuery
执行失败。:HTTP传输错误:消息:无效值:字符串
浏览 4
提问于2016-08-29
得票数 1
回答已采纳
1
回答
设计
、
我们需要您对以下场景
的
数据流
设计提供指导。 需求:我们需要构建一个
数据流
作业
来读取
数据流
MS数据库并写入
Bigquery
。我们需要
数据流
作业
作为输入“
表
名列表”(源
表
和目标
表
名称)来读取和写入数据。问题:
在
每天
的
日程安排
中
,
数据流
是否可以将表列表(即50个
表
名)作为输入,并将数据从源复制到目标,还是将其设计为5
浏览 4
提问于2021-12-13
得票数 -1
2
回答
紧跟在BigQueryIO.write()操作之后执行进程
、
我有一个
BigQuery
表
作为接收器
的
管道。
在
将数据写入
BigQuery
之后,我需要执行一些
步骤
。这些
步骤
包括对该
表
执行查询,从该
表
中
读取数据并将其写入到另一个
表
中
。如果上述操作都不起作用,是否可以从正在运行
的
管道
中
浏览 2
提问于2017-10-03
得票数 2
1
回答
在
作业
中
读取bigtable上
的
大型查询
表
花费
的
时间太长
、
、
、
我有一个
数据流
作业
,它从
bigquery
表
(
在
大
表
之上创建)读取。
数据流
作业
是使用java
中
的
自定义模板创建
的
。我需要处理
bigquery
的
大约5亿条记录。我面临
的
问题甚至是读取100万条记录,大查询读取需要26分钟,
数据流
工作需要36分钟。
在
大查询
中
读取太慢。 任何关于如何提高阅读性能<em
浏览 10
提问于2022-12-02
得票数 1
1
回答
使用
数据流
避免
BigQuery
存储API
的
会话关闭
、
、
我正在实现一个ETL
作业
,它将非分区
的
BigQuery
表
迁移到分区
的
表
。为此,我使用了来自
BigQuery
的
Storage。这将创建许多要从其中提取数据
的
会话。为了将
BigQuery
写入路由到正确
的
分区,我使用了File方法。由于30天
的
限制,流插入是不可行
的
。存储写API似乎是有限
的
,识别分区。 通过驻留到File方法,数据将被写入GCS。<e
浏览 4
提问于2022-09-12
得票数 1
1
回答
数据流
进程挂起
、
、
我正在
数据流
上运行批处理
作业
,从
BigQuery
进行查询。当我使用DirectRunner时,一切正常,结果被写到一个新
的
BigQuery
表
中
。web UI
中
的
图表显示
作业
已开始。前3步显示"Running",其余3步显示"not started“。
所有
步骤
都没有显示任何转换
的
记录(即,输出集合都显示'-')。日志
浏览 13
提问于2018-02-07
得票数 1
回答已采纳
1
回答
气流1.10.14 SubdagOperator出现死锁问题失败
、
我遇到了一个问题,有多个任务
的
SubDagOperator
在
死锁问题上失败了。 问题语句:我们有一个任务要
删除
Bigquery
中
的
>1000个
表
。为此,我们使用
的
是BigQueryTableDeleteOperator,因为我们有>1000个
表
,我们已经将代码包装在subdagOperator下,以获得更干净
的
UI。,就像和
中
给出
的
那样,但是在这种情况下,子all操作符
浏览 10
提问于2021-12-07
得票数 0
1
回答
我收到来自我
的
数据流
作业
的
错误消息“查询超出了第1层
的
资源限制。需要第3层或更高层”
、
我从
BigQuery
查询数据
的
数据流
作业
失败,出现错误: Query exceeded resource limits for tier 1. Tier 3 or higher required.同样
的
Dataflow
作业
与我
的
另一个项目一起工作,我无法确定如何在Dataflow API
中
设置层。
浏览 0
提问于2017-03-25
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在Excel中快速删除工作表中的空行
在Boss直聘中删除对话的图文步骤
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
从Lambda到无Lambda,领英吸取到的教训
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券