腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
从
DataFlow
流
管道
写入
表
名
中
包含
日期
的
BigQuery
表
、
、
我
的
表
名
格式:tableName_YYYYMMDD。我正在尝试
从
流式数据流
管道
写入
此
表
。我想每天
写入
一个新
表
的
原因是因为我想在30天后过期,并且只想一次保留一个
包含
30个
表
的
窗口。.withWriteDisposition(BigQueryIO.Write.WriteDisposition.WRITE_APPEND)); 我确实意识到上面的代码不会滚动到新
浏览 19
提问于2017-08-05
得票数 0
2
回答
是否使用特定
的
时间戳列将CSV导入
BigQuery
上
的
已分区
表
?
我想要将一个大型csv导入到一个
bigquery
分区
表
中
,该
表
具有一个timestamp类型
的
列,该列实际上是某个事务
的
日期
,问题是当我加载数据时,它会将所有内容都导入到今天
日期
的
一个分区
中
。是否可以使用我自己
的
时间戳值对其进行分区?我怎么能做到这一点。
浏览 0
提问于2016-07-05
得票数 1
1
回答
如何以原子方式手动修改BQ
表
模式?
、
、
我有几个
表
是由GCP
DataFlow
流媒体应用程序填充
的
,作为某些数据
管道
的
一部分(它是
DataFlow
的
事实在这里并不重要,除了它是在
流
模式下半定期填充
的
事实之外)。遵循BQ文档建议(),我打算以AVRO格式将当前
表
导出到GCS,然后基于新
的
向后兼容模式创建一个新
表
*,最后在覆盖原始
表
之前将AVRO导出加载到新
表
中
。无论如何
浏览 0
提问于2019-09-19
得票数 1
1
回答
PubSub ->
BigQuery
-如何处理多个独立主题?
、
、
、
我们使用
DataFlow
读取一组PubSub主题,并将数据
写入
BigQuery
。我们当前为每个主题使用一个
DataFlow
作业,并将它们
写入
相关
的
BigQuery
表
。是否可以为此编写一个数据
流
作业?我在这里看到了关于多个源到一个输出
的
文档:文档和我对
浏览 10
提问于2017-03-04
得票数 0
1
回答
如何
从
Google
中
的
PCollection
中
获取元素列表,并在
管道
中使用它来循环写转换?
、
、
、
我想: 谢谢。
浏览 0
提问于2017-01-03
得票数 2
回答已采纳
1
回答
通过创建/
写入
共享(
日期
)
BigQuery
表
、
、
是否有一个易于遵循
的
示例,如何配置
流
模式
Dataflow
管道
,以便将每个窗口
写入
一个单独
的
BigQuery
表
(必要时创建一个)? 即- table_20160701、table_20160702等。
浏览 3
提问于2016-07-07
得票数 1
回答已采纳
1
回答
写入
BigQuery
(错误401 :需要登录)
、
、
、
我试图
从
Dataflow
管道
中将一些数据
写入
BigQuery
表
,但是在堆栈驱动程序
中
,以下错误消息导致
写入
失败: "error": { { } "code": 401, "message&quo
浏览 0
提问于2018-10-02
得票数 0
1
回答
如何跨多个数据集和
日期
分区
从
Dataproc
写入
BigQuery
?
、
、
我们想转移到
BigQuery
,所以我
的
第一个步骤是第五个工作,它读取最终
的
Avro文件并输出到
BigQuery
,基本上与当前Cloud输出作业平行。根据"DateOfService“字段按日划分数据 我看到这样做
的
唯一方法是由customer和DateOfService创建单独
的
RDDs,并将它们分别
写入
适当
的
数据集和
表
分区。剩下
的
只是与Google示例相同
的
所有配置,除了我<em
浏览 0
提问于2016-11-08
得票数 0
2
回答
流到BQ分区
表
中
、
我正在尝试使用数据流来流到BQ分区
表
中
。文件说: 在将行插入
日期
分区
表
中
时,我可以看到这种情况。是否有一种方法可以设置要插入
的
行
的
分区时间,以便
BigQuery
可以推断正确
的
分区?
浏览 1
提问于2016-07-28
得票数 1
回答已采纳
0
回答
Google数据
流
根据输入
写入
多个
表
、
、
我有日志,我正在尝试推送到谷歌
BigQuery
。我正在尝试使用google
dataflow
构建整个
管道
。日志结构不同,可以分为四种不同
的
类型。在我
的
管道
中
,我
从
PubSub读取日志,对其进行解析,然后
写入
BigQuery
表
。日志需要
写入
的
表
取决于日志
中
的
一个参数。问题是我被困在了如何在运行时为BigQuery
浏览 0
提问于2016-12-28
得票数 2
回答已采纳
1
回答
使用BigQueryIO
写入
大(>20KB)记录
从
文档中看不清楚这一点,但看起来执行了
流
写入
,这反过来又是?如果没有,那么将大行导入
BigQuery
的
推荐工作流程是
浏览 1
提问于2015-04-14
得票数 2
1
回答
Dataflow
sql、Beam SQL (Zeta sql或方解石SQL)之间有什么区别?
、
、
、
在浏览时,我看到了
Dataflow
SQL。它和beamSQL有什么不同吗?
浏览 12
提问于2020-02-17
得票数 1
回答已采纳
1
回答
使用外部API查找改进
BigQuery
表
、
、
、
我在Google
BigQuery
有一张桌子。这张桌子上装着丹麦文。街道名称:"Bakkevej",Housenumber:"23“,Zip:"4305”。由于我需要将数据与另一个
包含
通用(丹麦语) adress in
的
表
(称为DAWAID )相匹配,所以我需要再次查找该adress,并将该adress
的
DAWAID添加到称为DAWAID
的
行
中
的
一个单独字段
中
API放在:上,并以JSON
浏览 0
提问于2018-09-21
得票数 0
回答已采纳
2
回答
来自数据
流
的
BigQuery
流
以静默方式失败
、
、
、
、
我有一个成功
的
管道
,使用在计算实例上运行
的
云
dataflow
将数据
从
pub/sub传输到
bigquery
,而不是在实际
的
dataflow
运行器上运行。今天我已经更新了BQ
表
模式,似乎没有发生新
的
插入。我可以查看机器上
的
日志,一切正常-
dataflow
没有报告任何错误。 有没有办法
从
bigquery
访问
流
日志以检查错误
浏览 22
提问于2019-11-22
得票数 2
回答已采纳
1
回答
如果在作业运行期间删除了GCloud数据
流
,则重新创建
BigQuery
表
。
、
、
、
我已经设置了一个GCloud数据流
管道
,它使用来自Pub/Sub订阅
的
消息,将它们转换为
表
行,并将这些行
写入
相应
的
BigQuery
表
。
表
目的地是根据Pub/Sub消息
的
内容确定
的
,偶尔会导致
表
还不存在,必须先创建
表
的
情况。为此,我使用create CREATE_IF_NEEDED,它工作得很好。但是,我注意到,如果在数据
流
作业
浏览 1
提问于2020-03-21
得票数 0
回答已采纳
1
回答
使用数据
流
从
大查询中提取数据
的
问题[ apache beam ]
、
、
、
我需要使用
Dataflow
从
BigQuery
表
中提取数据,然后写到GCS。 数据
流
是使用apache (Java)构建
的
。数据
流
从
BigQuery
中提取出来,第一次完美地
写入
到GCS
中
。但是,当第二个数据流在第一个
管道
成功执行后
从
同一
表
中提取数据时,它并不是
从
Big Query中提取任何数据。我在堆栈驱动程序日志中看到
的
浏览 0
提问于2020-01-12
得票数 1
回答已采纳
3
回答
谷歌数据
流
每项作业是否有BT写原子?
也许我是个糟糕
的
探索者,但我在文档
中
找不到答案,所以我只想在这里试试运气。我知道写GCS似乎不是原子
的
,在作业运行
的
过程中会产生部分输出分区。但是,我已经尝试过通过数据
流
将数据转储到BQ
中
,并且在作
浏览 6
提问于2016-08-05
得票数 1
回答已采纳
1
回答
谷歌数据
流
-将数据保存到多个
BigQuery
表
中
、
我正在使用Google
Dataflow
1.9将数据保存到
BigQuery
表
中
。我正在寻找一种方法来控制(PCollection)元素
写入
的
表
名
,基于该元素
中
的
一些值。在我们
的
例子
中
,元素
包含
一个user-id,我们希望将每个元素动态地
写入
到它自己
的
用户
表
中
。
浏览 9
提问于2017-07-10
得票数 0
1
回答
无法在数据
流
+
BigQuery
作业期间从命令行访问bq状态
、
我正在提交一个数据
流
作业,该作业
从
BigQuery
数据集和
表
中
读取并
写入
。
Dataflow
作业似乎工作正常。在执行
Dataflow
作业期间,
Dataflow
UI告诉我,我可以通过使用
BigQuery
工具运行命令来检查bq导出作业
的
状态。当我运行该命令时,我会收到一条消息,表示我无权查看该状态。这与提交
Dataflow
作业
的
经过身份验证
的</e
浏览 1
提问于2017-04-25
得票数 0
回答已采纳
1
回答
在DataStore
中
解析日志
、
、
、
我对GAE并不熟悉,我正试图快速找到一种方法来检索DataStore
中
的
日志,将它们清除到我
的
规范
中
,然后将它们保存到一个
表
中
,以便稍后在我
的
应用程序
中
调用报表视图。我正在考虑使用Google数据
流
并创建批作业(app是python/Django),但是文档似乎不适合我
的
用例,所以也许数据
流
不是答案。我可以用
BigQuery
创建一个python脚本,并通过CRON进行调度
浏览 0
提问于2017-11-09
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券