腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(838)
视频
沙龙
2
回答
使用
数据流
管道
(
python
)
将
多个
Json
zip
文件
从
GCS
加
载到
BigQuery
、
、
、
我正在寻找帮助设计一个用
python
编写的
数据流
管道
,以读取存储在
GCS
上的多部分压缩
Json
文件
,以加
载到
BigQuery
。源无法为我们提供
文件
/表的架构。因此,我正在寻找一个自动检测选项。如下所示: autodetect=True, source_format=
bigquery
.SourceFor
浏览 25
提问于2021-02-17
得票数 1
2
回答
波束
数据流
流水线表创建Sink作为来自
GCS
的
Bigquery
、
、
、
我想创建beam
数据流
作业来
从
GCS
加载数据到
Bigquery
,我将在
GCS
的不同
文件
夹中有100s的
文件
,可以在
GCS
的不同
文件
夹中加载
文件
,是否可以在beam代码中创建源数据集和表。我的最终目标是创建
管道
,
将
数据
从
GCS
加
载到
Bigquery
,谢谢。
浏览 10
提问于2021-02-23
得票数 0
回答已采纳
1
回答
DataFlow工作者
BigQuery
权限错误
、
我一直试图在我的项目中执行Dataflow
管道
(
Python
),其中我的GCP帐户分配了"Owner“角色。 最后,
将
结果数据加
载到
GCS
中。根据我的理解,Dataflow工作者
使用
默认的计算引擎服务account(-compute@developer.gserviceaccount.com
浏览 1
提问于2021-08-20
得票数 0
2
回答
如何
从
基于事件的云函数执行Google Data Fusion Pipeline
、
有没有办法
从
Cloud Function (最好是基于
python
)运行Google Data Fusion
管道
?gcloud函数部署hello_<
浏览 3
提问于2019-07-23
得票数 1
1
回答
加速PostgreSQL到
BigQuery
、
、
、
、
postGreSQL在AWS上,我从一个Amazon实例中调用
python
。两者都很大,而且速度很快。我目前没有
使用
多个
处理器,尽管有16个可用。
浏览 1
提问于2018-07-10
得票数 0
1
回答
如何
使用
Google工具和javascript存储和提供优惠券
、
、
需要存储在某个地方(
bigquery
?)在那里我可以请求并发送给用户。用户应该只能得到一个唯一的代码,这是事先没有
使用
的。 我需要获得一个代码并编写它的能力,所以下一个请求得到下一个代码.
浏览 4
提问于2021-04-13
得票数 0
回答已采纳
2
回答
如何在流模式下
将
数据
从
AWS加
载到
Google
BigQuery
?
、
、
如何在流模式下
将
数据
从
AWS加
载到
Google
BigQuery
?描述:我有RDS ( Server)中的数据,并希望
将
这些数据实时加
载到
Google
BigQuery
中。
浏览 9
提问于2020-02-18
得票数 1
回答已采纳
1
回答
Google函数:用非标准键
将
GCS
文件
加
载到
BigQuery
中
、
、
、
、
我有一个Google桶,一个遗留系统
将
需要加
载到
NEW_LINE_DELIMITED_
JSON
中的
BigQuery
文件
放在其中。我编写了Google函数,它接受
JSON
文件
并将其加
载到
BigQuery
。该函数可以很好地处理示例
JSON
文件
--问题是遗留系统正在生成一个带有非标准密钥的
JSON
: "id": 12345, "@address&
浏览 7
提问于2018-01-12
得票数 1
回答已采纳
1
回答
使用
BigQuery
将不同方案的
多个
文件
加
载到
DataFlow中
、
、
我有一组带有
JSON
格式数据的不同模式的.txt
文件
,所有这些数据都要加
载到
一个通用的
bigquery
表中。
文件
格式很简单,一组
文件
将有4列,有些列有5列,有些
文件
有相同的5列,但顺序不同。"}‘
文件
夹3 '{"name":"Janice","age":31,"
zip
":"12345","city&quo
浏览 2
提问于2020-10-01
得票数 0
回答已采纳
2
回答
在google云中操纵大量
文件
以重新格式化
、
、
、
、
我在Google云存储中有大量
json
文件
,我想将这些
文件
加
载到
Bigquery
中。平均
文件
大小为5MB,未压缩。问题是它们不是新分隔的行,所以我不能像
bigquery
那样加载它们。我是否应该
使用
Google函数或数据准备,或者只是旋转一个服务器,让它下载该
文件
,重新格式化它并将其上传回云存储,然后上传到
Bigquery
?
浏览 0
提问于2018-12-05
得票数 2
回答已采纳
1
回答
使用
数据流
避免
BigQuery
存储API的会话关闭
、
、
我正在实现一个ETL作业,它将非分区的
BigQuery
表迁移到分区的表。为此,我
使用
了来自
BigQuery
的Storage。这将创建许多要从其中提取数据的会话。为了
将
BigQuery
写入路由到正确的分区,我
使用
了File方法。由于30天的限制,流插入是不可行的。存储写API似乎是有限的,识别分区。 通过驻留到File方法,数据将被写入
GCS
。在幕后,
文件
加载方法是一个复杂的方法,有
多个
步骤。例如,写入
GCS
并将条目组
浏览 4
提问于2022-09-12
得票数 1
1
回答
BigQuery
手动加载,但不是通过Java加载。
、
、
我有一条
数据流
管道
,在本地运行。目的是
使用
TEXTIO读取
JSON
文件
,进行会话并将其加
载到
BigQuery
中。根据这种结构,我必须在
GCS
中创建一个临时目录,然后
使用
该目录将其加
载到
BigQuery
中。以前,我有一个数据模式错误,无法加载数据,请参阅。这个问题已经解决了。因此,现在当我在本地运行
管道
时,它会将一个临时的
JSON
换行符分隔
文件
转储
浏览 0
提问于2016-12-31
得票数 0
回答已采纳
1
回答
如何在数据融合中将模式
文件
作为宏传递给
BigQuery
接收器
、
我正在创建一个数据融合
管道
,以便
将
csv数据
从
GCS
加
载到
BigQuery
。对于我的用例,我需要创建一个属性宏,并在运行时提供值。需要了解如何
将
模式
文件
作为宏传递到
BigQuery
接收器。如果我只是简单地
将
json
模式
文件
路径传递给Macros值,我会得到以下错误。
JSON
:架构无效:
使用
JsonReader.setLenient(true)接
浏览 14
提问于2019-05-23
得票数 2
回答已采纳
1
回答
如何
将
Azure事件中心(kafka界面)的事件集成到google云发布/订阅
、
、
我有一个需求,我需要在Azure事件中心
使用
kafka主题。需要创建将
使用
作为参数提供的主题的POST端点。消息必须以kafka主题为属性,以消息内容为主体,在公共子主题上发送。 这是一个很高的要求。
浏览 1
提问于2021-06-03
得票数 1
回答已采纳
4
回答
用
Python
从
逐行读取巨大的
JSON
、
、
、
我的
GCS
上有~300
GCS
文件
,最终我试图将它导入
BigQuery
,但是它有一些错误的数据结构(我是mongoexport
从
MongoDB获得的) 字段名"$date“无效。因此,现在我的方法是
从
GCS
逐行读取源
文件
,并
使用
python
将
每一行处理后的代码上传到
BigQuery
。下面是简单的阅读器,我把它们放在一起用原始大
文件
中的100行示例进行
浏览 5
提问于2018-10-09
得票数 3
回答已采纳
1
回答
是否可以
使用
云数据融合FTP ->
GCS
GCS
-> BQ
、
我看到您可以
使用
此服务
将
跨数据源的数据集成到数据池中。最终,我希望这些数据可以在BQ中获得。在加
载到
BQ之前,我的第一站将是,这样我就有了一个数据的不变副本。/root/table_2我首先试图了解是否
使
浏览 1
提问于2020-10-28
得票数 0
回答已采纳
2
回答
在云功能中,
GCS
的
文件
大小可以处理多大?
、
、
、
我希望
使用
GCP中的云函数
将
GCS
中的>=4 GB数据传输到
BigQuery
。有可能这样做吗?我尝试
使用
mkfile命令创建一个临时的5 gb数据
文件
,并尝试上传到
GCS
。这是否意味着
GCS
不能处理超过特定
文件
大小的
文件
。 在我所引用的文档:中,我了解到
GCS
处理多达5 TiB的数据。那么为什么上传5GB的数据需要很长时间。是否可以通过云功能处理4GB以上的数据
从
GC
浏览 3
提问于2021-08-12
得票数 0
回答已采纳
1
回答
Apache梁/
数据流
-流水线中各步骤之间的延迟
、
、
我
使用
Aapche Beam (带有
数据流
运行程序)下载二进制
文件
(天气预报,大约300个
文件
),然后解码它们,然后
将
结果存储为CSV,然后
将
CSV加
载到
BigQuery
中。---------- -------------- ------------------- | Download | ---> | Decode | ---> | CSV in
GCS
| ---> | CSV to
B
浏览 0
提问于2018-02-13
得票数 2
回答已采纳
1
回答
BigQueryIO读fromQuery
、
、
比如说,在Dataflow/Apache程序中,我正在尝试读取数据呈指数增长的表。我想提高阅读的性能。或如果我只是在表中选择所需的列,而不是上面的整个表,那么我的读取性能会提高吗?
浏览 1
提问于2019-01-29
得票数 4
回答已采纳
1
回答
Apache写入
BigQuery
的
文件
结构
、
、
我
使用
DynamicDestinations (来自BigQueryIO)
将
数据从一个Cassandra表导出到
多个
Google表。这个过程包括几个步骤,包括
将
准备好的数据写入(作为
JSON
格式的
文件
),然后通过加载作业
将
文件
加
载到
BQ。 问题是,导出过程在最后一步(
从
加载
文件
到BQ)时出现内存不足错误。但是还有一些准备好的
文件
,
GCS
中的所有数据都还保留着。Bi
浏览 1
提问于2018-02-19
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券