腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(8082)
视频
沙龙
2
回答
下载和上载
GCS
和Cloud之间
的
文件
和
文件
夹
、
、
、
、
我在
GCS
(Google )上有一些
文件
和
文件
夹我还在Cloud 上有一些
文件
和
文件
夹:现在,我想在
GCS
和Cloud 之间下载和上传这些
文件
和
文件
夹。 有什么办法吗?
浏览 8
提问于2021-11-08
得票数 0
2
回答
在云功能中,
GCS
的
文件
大小可以处理多大?
、
、
、
我希望使用GCP中
的
云函数将
GCS
中
的
>=4 GB数据传输到
BigQuery
。有可能这样做吗?我尝试使用mkfile命令创建一个临时
的
5 gb数据
文件
,并尝试上
传到
GCS
。这需要很长
的
时间,但仍然没有上传。这是否意味着
GCS
不能处理超过特定
文件
大小
的
文件
。 在我所引用
的
文档:中,我了解到
GCS
处理多达5 TiB
的<
浏览 3
提问于2021-08-12
得票数 0
回答已采纳
2
回答
如何将
gcs
的
json
文件
从
bigquery
上
传到
gcs
bucket
?
、
、
我需要将
bigquery
数据(使用一些过滤器选择)加载到
json
格式
的
gcs
存储桶中,然后进行压缩。当前
的
气流操作员正在将表格
从
bq导出到
gcs
,有没有办法将一些带有过滤器
的
选择数据
从
BQ推送到
GCS
?
浏览 15
提问于2021-01-19
得票数 1
2
回答
使用云函数
从
CSV到.GZ
、
、
在使用Cloud Python3.7上
传到
GCS
之前,我一直试图将CSV
文件
压缩到.gz,但是我
的
代码只添加了.gz扩展名,但并没有真正压缩
文件
,所以
文件
最终被破坏了。你能告诉我怎么修这个吗?谢谢import gzip job_config =
bigquery
.QueryJobConfig()
gcs
_filename= &
浏览 9
提问于2019-12-16
得票数 0
1
回答
气流不能使用xcom_pull操作数迭代GoogleCloud列表
我想动态地获取
GCS
桶
上
csv
文件
的
列表,然后将每个
文件
转储到相应
的
BQ表中。我使用
的
是GoogleCloudStorageListOperator和GoogleCloudStorageToBigQueryOperator运算符 task_id='
GCS
_Files',
浏览 1
提问于2019-07-04
得票数 0
回答已采纳
2
回答
云编写器将
文件
写入其他桶问题
、
新鲜
的
气流。我试图将结果保存到另一个桶(而不是气流桶)中
的
文件
中。我可以保存到'/home/airflow/
gcs
/data/test.
json
‘中
的
一个
文件
,然后使用
gcs
_hook.GoogleCloudStorageHook复制到另一个桶中。= 'data/test.
json
' target_
bucket
=
浏览 2
提问于2019-12-16
得票数 2
回答已采纳
1
回答
如何在使用气流加载到
bigQuery
时忽略未知
的
列?
、
我使用
bigQuery
将数据
从
Google加载到GoogleCloudStorageToBigQueryOperator destination_project_dataset_table=table_name_template_st,
浏览 0
提问于2018-09-25
得票数 0
回答已采纳
1
回答
大型
bigquery
加载作业
的
最可靠格式
我有一个100 GB
的
表,我正试图加载到google
bigquery
中。它在
GCS
上
存储为一个100
GCS
的
avro
文件
。当前,我
的
bq load作业失败,并显示一条无用
的
错误消息:我在考虑尝试一种不同<e
浏览 0
提问于2019-04-02
得票数 3
1
回答
云运行Golang容器问题/解决方案
、
、
、
= nil {}这是run.sh
文件
中我遇到问题
的
部分。}" -b on "gs
浏览 8
提问于2021-12-28
得票数 0
回答已采纳
1
回答
在Airflow任务中
从
Google云存储导入
JSON
、
、
将数据
从
GCS
转移到MongoDB似乎并不常见,因为没有太多关于这方面的文档。我们有以下任务,我们将其作为python_callable传递给Python操作符-该任务将数据
从
BigQuery
作为
JSON
移动到
GCS
中: # connect
bucket
_name = &quo
浏览 20
提问于2020-11-14
得票数 1
回答已采纳
4
回答
用Python
从
逐行读取巨大
的
JSON
、
、
、
我
的
GCS
上有~300
GCS
文件
,最终我试图将它导入
BigQuery
,但是它有一些错误
的
数据结构(我是mongoexport
从
MongoDB获得
的
) 字段名"$date“无效。因此,现在我
的
方法是
从
GCS
逐行读取源
文件
,并使用python将每一行处理后
的
代码上
传到
BigQuery
。下面是简单
的
阅
浏览 5
提问于2018-10-09
得票数 3
回答已采纳
1
回答
气流GCSToBigQueryOperator正在重新排序我
的
列
、
我
的
DAG中有以下操作员。他们
从
我
的
MySQL数据库接收数据,将其上
传到
GCS
,然后导入到
BigQuery
。它运行得很好!有一个小问题..。我可以看到,在create和import任务之间,目标表是使用schema参数中指定
的
模式以正确
的
列顺序在
BigQuery
中创建
的
。但是,一旦import任务运行,表
的
模式就会发生变化,并且将列重新排序为看似任意
的
排序。为什么会发生这种情况,是
浏览 1
提问于2022-07-07
得票数 0
1
回答
使用Big query
的
python客户端
的
数据摄取超过了云函数
的
最大限制
、
、
我正在尝试使用存储桶触发
的
云将数据
从
gcs
自动摄取到
bigquery
中。function.the
文件
类型是
gcs
格式
的
json
文件
,可以有一个最大
的
2gb.the大小。云函数在小
的
files.however下运行得很好。当我给它提供范围
从
1到2 gbs.is
的
大
文件
时,它往往会超时。有一种方法可以进一步优化我
的
函数,下面是代码:
浏览 14
提问于2021-09-27
得票数 0
1
回答
从
jupyter执行Google Cloud Shell命令
、
、
、
、
我需要每天上传
文件
从
FTP到谷歌云存储。我通过从FTP下载
文件
并上
传到
Google Cloud Storage,成功地在Python中做到了这一点,但它似乎太重了。因此,我很好奇是否有可能通过在Google Cloud Shell中执行命令来实现它,或者有任何其他可能
的
解决方案来使其以更优化
的
方式实现。) as f: credentials = Servi
浏览 3
提问于2019-03-01
得票数 1
1
回答
使用
BigQuery
多个通配符URI导出数据
正在尝试将
BigQuery
中
的
表数据导出到在Google Cloud Storage中创建
的
存储桶。当我使用单个通配符URI将
BigQuery
中
的
表导出到
GCS
时,它会自动将表分成多个分片
文件
(每个
文件
大约368MB),并放入
GCS
中
的
指定存储桶中。
文件
大小和
文件
数量也保持不变(每个
文件
大约368 MB ): bq --nosync extract --desti
浏览 2
提问于2017-10-11
得票数 0
1
回答
从
API到
GCS
和
Bigquery
响应缓慢加载数据
、
、
、
我们需要从一系列API调用中加载数据,并在
GCS
和
Bigquery
中加载响应。虽然我
从
API调用中获得了快速响应,但是将
文件
写入
GCS
似乎非常缓慢。我正在使用下面的代码。我
的
方法是API响应(基于API参数中id值
的
列表) ->
json
到
gcs
-> bq加载。在这个approach.Is中,需要很长时间才能以最快
的
方式加载
gcs
中
的
数据。='applica
浏览 14
提问于2022-02-24
得票数 1
1
回答
用GoogleCloudStorageToBigQueryOperator在Airflow中使用XCom加载模式
、
、
、
、
BigQuery
数据集sales_table
的
数据来自存储在Google Cloud Storage中
的
CSV
文件
retailcustomer_data.csv。将数据
从
GCS
加载到
BigQuery
的
操作符如下:
gcs
_to_
bigquery
= GoogleCloudStorageToBigQueryOperator(task_id = '
gcs
_to_
bigquery</em
浏览 2
提问于2019-09-14
得票数 1
2
回答
使用python将
文件
上载到
gcs
桶中
的
文件
夹
、
、
我有一个
gcs
桶,其中有多个
文件
夹。我需要上传一个
文件
是在我
的
本地到一个特定
的
文件
夹在
GCS
桶。我使用下面的代码,它只直接上
传到
桶中,而不是在存储桶
的
文件
夹中。from google.cloud import storage def upload_to_
bucket
(destination_blob_name, path_to_file,
bucket
_namestorage_c
浏览 6
提问于2022-11-16
得票数 1
回答已采纳
1
回答
气流2:将数据
从
BigQuery
传输到云存储时找不到
的
作业
、
、
、
我试图
从
Composer 1迁移到Composer 2(
从
气流1.10.15迁移到气流2.2.5),并尝试使用
BigQuery
将数据
从
GCS
加载到
GCS
中。from airflow.providers.google.cloud.transfers.
bigquery
_to_
gcs
import BigQueryToGCSOperator export_fo
浏览 9
提问于2022-06-07
得票数 2
回答已采纳
1
回答
Cloud应用程序中
的
视频上传没有提供这样
的
文件
或目录
、
、
、
、
下面是
从
HTML获取视频并将其上
传到
的
python代码片段:def index(): object_name_in_
gcs
_
bucket
.upload_from_filename(video) retu
浏览 13
提问于2022-01-31
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券