腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9369)
视频
沙龙
1
回答
使用gsutil
自动
将本地
存储
的
文件
上
载到
云
存储
、
、
、
我是GCP的新手,我正在尝试构建一个ETL流,它可以将数据从
文件
上
传到
BigQuery
。在我看来,最好的解决办法是使用gsutil。我今天看到的步骤是: (已完成)
自动
将
文件
从
云
存储
上
传到
BigQuery
浏览 0
提问于2019-04-09
得票数 0
1
回答
当
文件
上
传到
存储
桶
/
云
存储
时
,
自动
开始
加
载到
BigQuery
、
我们有一个从另一个数据库导出csv
文件
的脚本,并将它们上
传到
GCP
云
存储
上
的
存储
桶
中。现在我知道可以使用
BigQuery
数据传输服务计划加
载到
BigQuery
中,但我有点惊讶的是,似乎没有一个解决方案可以在
文件
上传完成
时
自动
触发。 我错过了什么吗?
浏览 20
提问于2021-03-31
得票数 0
回答已采纳
3
回答
是否可以将内容
自动
从Google上
传到
云
存储
?
、
、
、
我需要将CSV
文件
从Google
自动
加
载到
BigQuery
中,我想知道这样做是否可行: 我开发了一个python脚本,它将
存储
在Cloud中的CSV
文件
自动
上
传到
BigQuery
,现在我需要在Googl
浏览 10
提问于2021-01-20
得票数 1
回答已采纳
1
回答
如何从google cloud function调用google dataproc作业
、
、
、
、
每当有新
文件
上
传到
云
存储
存储
桶
时
,都会触发
云
函数。此函数应调用用pyspark编写的dataproc作业,以读取
文件
并将其加
载到
BigQuery
。我想知道如何从
云
函数调用google dataproc作业。请提个建议。
浏览 2
提问于2018-05-10
得票数 2
1
回答
将mysql与google的
bigquery
连接起来
、
、
、
现在,我想将这个mysql数据添加到
bigquery
数据集中。方法可能会运行 也可以添加来自nodejs
浏览 1
提问于2018-03-26
得票数 0
1
回答
将100个sql csv表转储大容量加
载到
bigquery
的最简单方法
您好,在
bigquery
中批量加载100个csv sql表转储到新表的最简单和最快的方法是什么? Br,Noomster
浏览 10
提问于2019-01-28
得票数 0
1
回答
如何在Google平台上配置特定的数据管道?
、
、
、
我的任务是实现
云
运行中运行的后端服务(Java/Spring),并在GCP中创建(配置)数据管道,该管道使用此服务
自动
处理带有嵌入式模式的Avro
文件
,并将其上
载到
云
存储
桶
中。
当
新
文件
上
传到
桶
中
时
,我需要处理它,并以特定的方式将它解析到
BigQuery
。 因此,我成功地部署了Spring应用程序并设计了avro模式。我发现谷歌有关于如何将avros加<e
浏览 0
提问于2020-11-01
得票数 0
回答已采纳
1
回答
由于权限问题,
BigQuery
加载作业失败
我使用以下将数据从Google中的CSV
文件
上
载到
BigQuery
表: client =
bigquery
.Client()dataset_id = 'e' job_config =
bigquery
.LoadJobConfig()job_config.schema = [
bigqu
浏览 1
提问于2018-07-16
得票数 1
2
回答
将json
文件
加
载到
bigquery
的
云
函数
我们需要将一个json
文件
上
传到
云
存储
桶
中,然后我们需要编写一个
云
函数来将json
文件
数据加
载到
bigquery
表中。
浏览 0
提问于2020-03-04
得票数 0
1
回答
更新
bigquery
表的不同方式
、
、
在gcp中,每当
文件
( json、xml等多种格式)上
传到
存储
桶
中
时
,我都需要更新
bigquery
表。我有两个选择,但不确定每一个的优缺点。有人能建议一下哪个是更好的解决方案吗?为什么?方法1:方法2: 上
传到
存储
桶
的
文件<
浏览 9
提问于2018-09-01
得票数 2
回答已采纳
2
回答
如何在
云
函数中实现
文件
的串行处理?
、
、
、
我写了一个基于
云
函数的
云
存储
触发器。我有10-15个
文件
在
云
存储
桶
中以5秒的间隔登陆,它将数据加
载到
bigquery
表中(截断并加载)。
当
存储
桶
中有10个
文件
时
,我希望
云
函数以顺序的方式处理它们,即一次处理一个
文件
,因为所有
文件
都访问相同的表进行操作。目前
云
函数一次触发多个<
浏览 1
提问于2020-07-15
得票数 0
1
回答
BigQuery
:作业资源为200 OK,"outputRows":584,但数据不在
BigQuery
表中
、
、
我有一个从大量资源下载
文件
的Python脚本,然后这些
文件
被上
传到
谷歌
云
存储
桶
经过一些处理,从那里这些
文件
被加
载到
BigQuery
表中。我有一个cronjob每15分钟运行一次这个脚本,运行得很完美,但有时,比如一周一次,我会遇到16个
文件
中只有一个的问题。 问题是,从脚本的日志中看起来一切都很完美。将
文件
下载、处理、上
传到
加
载到
Bigquery
浏览 4
提问于2017-11-20
得票数 3
1
回答
使用Pub Sub将创意从Campaign Manager导入GCP
、
我正在尝试使用
云
Pub Sub将创意从Campaign Manager导入GCP。
浏览 8
提问于2020-01-24
得票数 0
1
回答
Pyspark将数据帧写入
bigquery
[error gs]
、
我正在尝试将数据帧写入
bigquery
表。我已经使用所需的参数设置了sparkSession。然而,在写的时候,我得到了一个错误:代码如下:如果从代码中删除write,我不会得到任何错误,所以错误是在尝试编写
时
出现的,并且可能与使用
bigquery
操作的auxiliar
存储
桶
相关
浏览 17
提问于2020-11-14
得票数 1
1
回答
将SQL数据库转到
Bigquery
,或将SQL数据库转到GCS到
BigQuery
。
、
在always的“用Google平台进行数据工程”一书中,为了将数据从sql数据库加
载到
BigQuery
,作者总是先将数据从sql加
载到
,然后将其作为暂存环境使用,然后才将数据加
载到
BigQuery
通过GCS步骤而不是直接进入
BigQuery
有什么好处?在何种情况下,您将直接将数据从SQL加
载到
BigQuery
?
浏览 8
提问于2022-08-16
得票数 0
回答已采纳
1
回答
创建一个脚本来检索上
传到
Google Cloud
存储
桶
的图像
、
我已经设置了
云
存储
存储
桶
、
云
发布/订阅主题和订阅,以便在
文件
上
传到
存储
桶
时
创建通知。 我想在服务器
上
创建一个脚本,在新镜像上
传到
存储
桶
时
订阅消息,并在本地将镜像下
载到
服务器。
浏览 21
提问于2019-07-23
得票数 1
1
回答
BigQuery
表创建选项
当我们在特定的数据集中创建一个表
时
,我们有5个选项,比如空表、谷歌
云
存储
和上传etc.My,问题是它是否是
云
存储
,在
BigQuery
或
云
存储
中创建这个表是在哪里?因为我的目的是在
云
存储
中转储数据,然后加
载到
BigQuer中。对于空表也是如此,因为我们显式地定义了模式,我知道表将驻留在BQ中。我已经通过以下脚本加载了数据: bq装载--源_格式=CSV--跳过_引导_rows=1--
自动</e
浏览 5
提问于2020-05-15
得票数 0
回答已采纳
1
回答
基于Google
云
平台的JSON到NDJSON
、
、
、
、
我正在Google
云
平台上开发一个原型,为此我使用了
云
存储
、appengine和
bigquery
。现在,其中一项任务是每天从google
云
存储
向
bigquery
加载一个
文件
,我在Appengine
上
使用Cron任务 问题是
bigquery
期望数据是NDJSON格式(新的行分隔为json),而我的源
文件
则是普通的目前,我将该
文件
下
载到
我的笔记本电脑,并将其转换为ND
浏览 0
提问于2016-08-09
得票数 3
1
回答
连接Tranco Google
BigQuery
和元数据库
、
Tranco给了我们一个在Google
BigQuery
上
查看记录的选项,但是当我试图将Tranco和Metabase连接起来时,它是在请求我的Google
云
控制台项目中的数据集。如果您想在Google
BigQuery
中获得tranco的结果,那么运行下面的查询。select * from `tranco.daily.daily` where domain ='google.com' limit 10 当我在public dataset中搜索Tranco
时
,我也不会在他们的也
浏览 14
提问于2022-05-02
得票数 1
1
回答
具有大量小
文件
和作业限制的
BigQuery
我有大量的小
文件
要加
载到
BigQuery
中的单个表中。我喜欢有一个
云
函数,
当
他们被上
传到
GCS
存储
桶
时
加
载到
Big Query中。
浏览 31
提问于2020-07-01
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券