腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
3
回答
如何
从
云
数据
存储
迁
移到
云Spanner?
、
、
、
我正在查看
数据流
,以尝试
将
数据
从
Datastore导出到Spanner。扳手似乎只接受通过
数据流
连接器的avro文件。我能找到的唯一
数据流
模板是
从
数据
存储
到文本文件。并且
数据
存储
区
导出服务仅导出为levelDB格式。任何线索都会很有帮助,谢谢!
浏览 59
提问于2019-05-03
得票数 0
回答已采纳
1
回答
使用
数据流
将
数据
从
数据
存储
区
迁
移到
Bigquery
、
、
、
我正在尝试编写一个
数据流
管道,
使用
Python
将
数据
从
google Datastore迁
移到
BigQuery
。经过一番搜索后,我认为我需要做三个步骤: 1.我
将
ReadFromDatastore的输出写到一个文本文件中,json如下所示: key { project_id: "ProjectID" pathProjectID" path {
浏览 17
提问于2019-06-03
得票数 0
1
回答
如何在Airflow "DataflowTemplateOperator()“中覆盖(而不是追加)目的表中的
数据
?
、
、
我
使用
Airflow DataflowTemplateOperator()
将
数据
从
Mssql迁
移到
Bigquery
,
使用
JDBC to
Bigquery
数据流
模板。默认情况下,它会将
数据
追加到目标
Bigquery
表中。是否有默认参数可将
数据流
/ DataflowTemplateOperator设置
从
追加更改为覆盖?
浏览 2
提问于2020-12-02
得票数 0
1
回答
->
Bigquery
->每日导出到IBM云
存储
、
、
我们已经启用GA 360导出到
Bigquery
,每天创建一个新表。为了进一步处理,我们需要将每日导出转
移到
IBM云对象
存储
。最简单的解决办法是
使用
CLI -bq extract( b)
将
摘录移动到IBM对象
存储
中。gsutil cp1)我们能否在两者之间跳过google云
存储
,并且是否可以直接导出到IBM? 2)我们以前从未
使用
浏览 0
提问于2019-09-05
得票数 2
回答已采纳
1
回答
数据流
作业无法写入不同区域中的
BigQuery
数据
集,即使区域设置为
bigquery
区域
、
、
我们正在编写一个
数据流
作业,
将
数据
从
存储
桶中的JSON写入到
BigQuery
数据
集。
存储
桶和
BigQuery
数据
集都位于区域X中。但是,在区域X中无法
使用
数据流
端点。最近的区域是Y。因此,我已经
将
Dataflow作业区域设置为Y,但区域设置为X。因此,所有的计算实例都是在区域X中旋转的。但是,
数据流
作业仍然失败,错误如下: 无法在不同位置读写:
浏览 4
提问于2020-03-05
得票数 0
2
回答
流缓冲
区
- Google
BigQuery
、
、
我正在开发一个python程序,以像Google模板一样
使用
。我正在做的是用
BigQuery
从
PubSub编写
数据
: p = beam.Pipeline#<Transformation code if needed> | 'String To
BigQuery
Row' >> beam.M
浏览 0
提问于2018-11-05
得票数 0
回答已采纳
2
回答
从
本地磁盘
将
数据
加载到
BigQuery
和Google云
存储
中的策略
、
、
、
我有2年的合并
数据
,大小约300 my,在我的本地磁盘,这是我已经提取的
数据
。我必须将相同的
数据
加载到google云
存储
和
BigQuery
表中。google云
存储
中的最终
数据
应该以压缩格式逐日隔离(每天的文件应该是一个gz格式的文件)。我还必须在一个分区表中加载
BigQuery
中的
数据
,也就是说,每一天的
数据
都应该
存储
在一个分区中。我首先将两年的合并
数据
加载到google
存
浏览 2
提问于2016-08-10
得票数 1
回答已采纳
1
回答
Google云欧洲区域与
bigquery
和
数据流
不匹配
、
、
bigquery
数据
集的指出,可以获得以下欧洲区域(A): 我们愚蠢(事后
浏览 0
提问于2020-02-21
得票数 0
回答已采纳
1
回答
从
Google云
存储
到Big Query的流式
数据流
、
、
、
我正在尝试
使用
DataFlow (Java)
将
数据
从
云
存储
插入到Big Query。我可以批量上传
数据
;但是,我想设置流式上传。因此,当新对象添加到我的
存储
桶中时,它们将被推送到
BigQuery
。我已经
将
PipelineOptions设置为流式传输,它在GCP Console UI中显示
数据流
管道是流式传输类型。
存储
桶中最初的一组文件/对象被推送到
BigQuery
。但是,
浏览 47
提问于2018-06-03
得票数 3
回答已采纳
2
回答
如何计算
将
数据
从
蔚蓝
数据
转
移到
google
BigQuery
时的成本
、
、
我们在Azure中有一个
数据
存储
管道,可以
将
一个前提下的SQL表移动到Azure blob
存储
的Gen2中。我认为大部分费用都来自Azure仓库,对吧?现在,我们希望
将
这些
数据
移动到
BigQuery
。由于我们的安全策略,我们仍然需要
数据
表管道
从
SQL表中读取。因此,我们创建了一个
数据
库笔记本,以读取拼花文件,并移动到
BigQuery
使用
火花
BigQuery
连接器。
浏览 5
提问于2021-01-21
得票数 0
回答已采纳
1
回答
BigQuery
数据
仓库设计?
、
、
、
HDFS::着陆
区
->级1
区
->级2
区
着陆
区
--对于具有原始
数据
级1
区
域的
数据
--来自着陆
区
的原始
数据
被转换,然后更改为不同的
数据
格式和/或非规范化并
存储
在第1阶段2
区
域中--第1阶段的
数据
在交易表上更新如果它只是一个时间段
数据
,那么仍然是基于HDFS的HIVE表,那么,报告会发生在第2阶段(如果转换之间也可能有多个区域)
浏览 0
提问于2018-08-14
得票数 0
回答已采纳
7
回答
将
数据
从
导出到亚马逊S3
、
、
我希望
将
数据
从
BigQuery
中的表传输到Redshift中的另一个表中。我计划的
数据流
如下:我知道谷歌云
存储
传输服务,但我不确定它是否能帮助我。来自Google文档: 此页面描述云
存储
传输服务,您可以
使用
该服务快速将联机
数据
导入。 我知道这个服务可以用来
将
<em
浏览 13
提问于2016-09-05
得票数 41
回答已采纳
1
回答
使用
数据流
避免
BigQuery
存储
API的会话关闭
、
、
我正在实现一个ETL作业,它将非分区的
BigQuery
表迁
移到
分区的表。为此,我
使用
了来自
BigQuery
的Storage。这将创建许多要从其中提取
数据
的会话。为了
将
BigQuery
写入路由到正确的分区,我
使用
了File方法。由于30天的限制,流插入是不可行的。
存储
写API似乎是有限的,识别分区。 通过驻留到File方法,
数据
将被写入GCS。基于
数据流
流程,节点似乎可以在管道的不同部分执行工作负载。
浏览 4
提问于2022-09-12
得票数 1
1
回答
我能
使用
BigQuery
和的相同编程语言吗?
、
我希望在两种不同的技术中
使用
相同的函数来解析事件: Goolge和DataFlow。有我能用的语言吗?如果不是,谷歌是否计划在短期内支持一家公司?背景:这种解析有些很复杂(例如,应用自定义的URL提取规则,
从
用户代理中提取信息),但在计算上并不昂贵,而且不涉及
将
事件加入到任何其他大型查找表中。因为解析可能很复杂,所以我只想用一种语言编写解析逻辑,并在需要的地方运行它:有时在
BigQuery
中,有时在其他环境(如DataFlow )中。我知道
BigQuery
支持javascript。有没有一种在Google
浏览 0
提问于2018-06-12
得票数 0
1
回答
从
数据流
插入
BigQuery
流-无结果
、
、
我有一个
数据流
管道,它从PubSub Lite读取消息,并将
数据流
式传输到
BigQuery
表中。该表按天进行分区。
使用
以下命令查询表时:
BigQuery
我目前
使用
的是Apache Beam版本2.26,我的Dataflow编写器如下所示: return BigQueryIO.withTimeParti
浏览 4
提问于2021-10-14
得票数 2
3
回答
无法写入
bigquery
-权限被拒绝: Google
、
、
、
我
使用
使用
google云
数据流
服务已经有一段时间了。
数据流
管道 apache_beam.runners.data
浏览 0
提问于2018-05-07
得票数 4
2
回答
BigQuery
流和删除,而流缓冲
区
不是空的?
、
BigQuery
不会直接流到他们的长期
存储
中,他们首先将其放入一个写优化的
存储
中,并定期将其刷新到主
存储
中。例如,如果我
将
一百万条记录流到
BigQuery
中。有些记录现在仍然保存在
浏览 1
提问于2018-01-18
得票数 1
回答已采纳
1
回答
当
使用
Apache的DIRECT_READ时,是否读取流缓冲
区
?
、
我
使用
Bigquery
和
数据流
。当
使用
Apache的时,是否读取流缓冲
区
?有人知道是否是这样吗?
浏览 9
提问于2022-03-17
得票数 0
1
回答
在Python中
使用
数据流
管道实现Google Datastore到
Bigquery
的
数据
传输
、
、
、
、
我们有一个
从
Google Cloud Datastore到
Bigquery
的
数据
传输问题。我们需要在python中为这项工作创建
数据流
脚本。此作业应
使用
python中的管道
将
数据
从
数据
存储
传输到
bigquery
。对于python中的这项工作,它需要"Apache Beam“library.But Apache Beam库不工作。
浏览 0
提问于2016-10-07
得票数 0
2
回答
云
存储
新增文件时触发
数据流
作业
、
、
我希望在向
存储
存储
桶添加新文件时触发
数据流
作业,以便处理新
数据
并将新
数据
添加到
BigQuery
表中。我看到云通过
存储
桶中的更改来运行,但我还没有找到
使用
启动
数据流
作业的方法。有没有一种方法可以
使用
云函数来实现这一点,或者是否有其他方法来实现预期的结果(在
将
文件添加到
存储
存储
桶时
将
新
数据
插入到
BigQuery
中)
浏览 6
提问于2016-04-02
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券