腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1901)
视频
沙龙
1
回答
将
google
云
存储
文件夹
挂
载到
google
ai
platform
作业
google-cloud-platform
、
google-cloud-storage
我正在尝试用
google
ai
平台建立一个基本的pytorch管道。在
Google</em
浏览 12
提问于2019-08-13
得票数 1
1
回答
如何
将
文件从
Google
平台培训工作转移到我的另一个计算实例或本地机器?
python
、
tensorflow
、
google-cloud-platform
、
google-cloud-storage
、
google-compute-engine
在
Google
平台培训后,我如何自动发送一些文件(主要是Tensorflow模型)到另一个计算实例或我的本地机器?我想要运行在我的教练,例如,类似这样的os.system(scp -r .像这样
将
文件从
作业
传输到
Google
没有问题。但是,例如,当我尝试os.system('gcloud compute scp ./example_file my_instance:/path/')
将
数据从我的
AI
平台
作业
传输到另一个实例
浏览 1
提问于2019-05-18
得票数 0
3
回答
向
Google
提交Keras培训工作
tensorflow
、
keras
、
gcloud
、
gcp-ai-platform-training
我试着遵循本教程:现在,我已经从GitHub下载了这个包,并创建了一个带有人工智能平台和
存储
桶的
云
环境。我正在
将
文件(使用建议的
文件夹
结构)上
载到
云
存储
桶(基本上是
存储
的根),然后在
云
终端中尝试以下命令: --modu
浏览 10
提问于2020-01-21
得票数 0
回答已采纳
6
回答
从
Google
Cloud Storage Bucket下载
文件夹
google-cloud-platform
、
google-cloud-storage
我是
Google
Cloud
Platform
.I的新手,我已经在datalab上训练了我的模型,并将模型
文件夹
保存在
云
存储
上的
存储
桶中。通过右键单击file --> save as链接,我可以
将
存储
桶中的现有文件下
载到
我的本地计算机。但是,当我尝试通过与上面相同的过程下载
文件夹
时,我得到的不是
文件夹
,而是它的图像。有没有什么方法可以让我按原样下载整个
文件夹
及其内容?是否有g
浏览 430
提问于2017-06-07
得票数 15
回答已采纳
1
回答
只将
Google
云
存储
桶中的文件元数据读入Python中的
云
函数(不加载文件或其数据!)
python
、
google-cloud-storage
、
metadata
、
google-cloud-functions
我需要类似于
云
存储
用于Firebase:下载所有文件的元数据的东西,只是不是角度上的,而是Python中的,而只是用于所选的文件。其目的是在
云
函数使用return语句结束时返回此信息,或者在
云
函数运行期间,在文件保存到
Google
桶中时立即将其记录下来。有了这些信息,就可以在给定的时间戳之后启动另一个
作业
。管道是同步的。我在
将
文件或数据加
载到
云
函数时发现了Q/A 使用/tmp目录(如at 通过
云
函
浏览 0
提问于2022-01-20
得票数 0
回答已采纳
1
回答
无
云
存储
Bucket的GCP模型部署
python
、
google-cloud-ml
我想把它部署在
Google
Cloud
Platform
(Cloud ML Engine)中进行预测。该模型从
Google
Bigquery读取输入数据,输出预测只能用
Google
Bigquery编写。在运行模型预测之前,必须运行一些数据准备脚本。我已经
将
Google
Cloud Storage用于模型
存储
,并将其用于部署,我已经成功地部署了它。但是,代替使用
Google
Cloud Storage来保存模型(即.pb或.pkl模型文件),我可以将
浏览 24
提问于2019-02-28
得票数 2
1
回答
使用
Google
App Engine中的Ruby脚本
将
文件从
存储
传输到大查询
ruby
、
google-app-engine
、
google-cloud-platform
我可以在
Google
Cloud
Platform
App Engine中使用Ruby Scripts
将
数据从
云
存储
加
载到
Big Query吗?如果是,我如何部署这些脚本?
浏览 0
提问于2017-08-23
得票数 2
1
回答
如何从
google
cloud function调用
google
dataproc
作业
google-cloud-platform
、
google-bigquery
、
google-cloud-storage
、
google-cloud-functions
、
google-cloud-dataproc
每当有新文件上传到
云
存储
存储
桶时,都会触发
云
函数。此函数应调用用pyspark编写的dataproc
作业
,以读取文件并将其加
载到
BigQuery。我想知道如何从
云
函数调用
google
dataproc
作业
。请提个建议。
浏览 2
提问于2018-05-10
得票数 2
2
回答
ML-引擎无法访问桶中的job_dir目录。
google-cloud-storage
、
gcloud
、
google-cloud-ml
我为VM实例上的gcloud身份验证创建了一个服务帐户(
ai
-
platform
-developer@....iam.gserviceaccount.com),并为
作业
和模型数据创建了一个桶。当我试图为每个提交一个
作业
时,
将
执行以下操作:job_name='ObjectDetection_'${time_stamp} ERROR: (gc
浏览 0
提问于2019-07-09
得票数 3
回答已采纳
1
回答
我是否需要互联网才能列出和获取
Google
Cloud Storage上的
存储
桶对象
google-cloud-platform
、
google-cloud-storage
、
google-cloud-dataflow
我已经写了一个非常简单的Nifi模板,它首先列出一个对象,然后从
Google
Cloud Storage上的
存储
桶中获取对象。显然,当获取对象时,Nifi会尝试使用互联网从
存储
桶中下载对象。我的问题是,如果我想要将这样的对象摄取到其他
Google
Cloud服务,比如Pub/Sub或Cloud Datastore,我是否需要将这些文件下
载到
一个单独的节点?为什么我不应该在
Google
Cloud中有另一个节点,它可以与
Google
Cloud Storage中
浏览 2
提问于2018-12-16
得票数 0
1
回答
在加
载到
Bigquery之前自动ETL数据
google-bigquery
、
google-cloud-functions
、
google-cloud-storage
、
google-cloud-dataflow
我
将
CSV文件添加到GCS
存储
桶中,每天或每周,每个文件名都包含(日期+特定参数)我们尝试了
云
函数(我们可以从文件名中获取日期和特定参数值),但在摄取时无法将其添加到列中 有什么建议吗?
浏览 0
提问于2020-12-15
得票数 0
1
回答
通过
云
存储
实现文件共享应用
dropbox
、
google-drive-api
、
dropbox-api
、
onedrive
、
cloud-storage
我正在寻找一种文件共享
云
存储
解决方案。我的要求如下 公共availability)Users应该能够
将
内容从共享
文件夹
下
载到
其私有
云
存储
。应该能够与有限的用户共享内容。许多云
存储
服务,如Dropbox,
Google
cloud Storage,amazone,Microsoft azure都允许公共
文件夹
,但是否有一个选项可以
将
公共共享内容复制到用户的私有
云
存储
区
浏览 25
提问于2013-04-09
得票数 0
回答已采纳
2
回答
使用python和
Google
云
引擎处理大数据
python-3.x
、
google-cloud-platform
、
google-cloud-datastore
、
bigdata
、
google-cloud-storage
然而,由于有10 to的数据,我的笔记本电脑无法处理它,所以我需要使用
Google
Cloud Engine。如何上传数据并使用
Google
Cloud Engine运行代码?
浏览 7
提问于2019-07-30
得票数 3
1
回答
当文件上传到
存储
桶/
云
存储
时,自动开始加
载到
BigQuery
google-cloud-platform
、
google-bigquery
我们有一个从另一个数据库导出csv文件的脚本,并将它们上传到GCP
云
存储
上的
存储
桶中。现在我知道可以使用BigQuery数据传输服务计划加
载到
BigQuery中,但我有点惊讶的是,似乎没有一个解决方案可以在文件上传完成时自动触发。 我错过了什么吗?
浏览 20
提问于2021-03-31
得票数 0
回答已采纳
1
回答
将
SQL数据库转到Bigquery,或
将
SQL数据库转到GCS到BigQuery。
google-bigquery
、
google-cloud-storage
在always的“用
Google
平台进行数据工程”一书中,为了
将
数据从sql数据库加
载到
BigQuery,作者总是先将数据从sql加
载到
,然后将其作为暂存环境使用,然后才
将
数据加
载到
BigQuery 通过在何种情况下,您将直接
将
数据从SQL加
载到
BigQuery?
浏览 8
提问于2022-08-16
得票数 0
回答已采纳
1
回答
如何在Kaggle (python)上增加RAM大小?
python
、
size
、
ram
、
kaggle
我正在使用图像数据集,但它的不平衡和我的工作,以解决它使用欠采样,但它需要更多的内存,如何才能节省内存,或如何才能与大型图像数据集需要重采样(不平衡图像数据集)和需要内存大17 GB的python语言,特别是在Kaggle?
浏览 85
提问于2021-09-19
得票数 0
1
回答
我应该使用哪些
google
服务?
google-cloud-platform
、
google-bigquery
、
data-integration
也许,我需要通过
google
服务实现这个过程的自动化,以便定期完成这个过程。我希望得到关于架构(
google
服务)的建议,我应该使用它来创建这个管道。例如,使用
云
函数(从API获取数据),然后使用服务'X‘
浏览 17
提问于2019-08-24
得票数 1
回答已采纳
1
回答
数据流-
将
avro对象
存储
到未知的GCS
文件夹
google-bigquery
、
google-cloud-storage
、
google-cloud-dataflow
、
avro
、
google-cloud-pubsub
我有一个DataFlow管道,它使用来自
云
发布/订阅的JSON消息,将它们转换为Avro,并将它们
存储
到
Google
Cloud Storage。有没有办法让DataFlow根据某个JSON字段
将
每个Avro对象
存储
到GCS中的不同
文件夹
中,如果它的值实际上可以是任何值的话?此
文件夹
结构的目标是通过
云
函数使用PubSub通知,
将
每个结果文件加
载到
不同的BigQuery表中。
浏览 17
提问于2020-02-20
得票数 0
1
回答
服务帐户执行批处理数据流
作业
google-cloud-platform
、
google-cloud-dataflow
、
dataflow
、
dataflowtask
我需要使用服务帐户执行数据流
作业
,我遵循的是在同一平台中提供的一个非常简单和基本的示例字数。根据这一点,GCP需要拥有数据流工作者权限的服务帐户才能执行我的
作业
。
浏览 2
提问于2020-02-02
得票数 0
3
回答
是否可以
将
内容自动从
Google
上传到
云
存储
?
python
、
google-drive-api
、
google-cloud-storage
、
google-cloud-pubsub
我需要将CSV文件从
Google
自动加
载到
BigQuery中,我想知道这样做是否可行: 我开发了一个python脚本,它将
存储
在Cloud中的CSV文件自动上传到BigQuery,现在我需要在
Google
和Cloud之间创建工作流。
浏览 10
提问于2021-01-20
得票数 1
回答已采纳
点击加载更多
相关
资讯
Google云计算将变更部分存储、运算和网络产品的定价
PKS将Kubernetes带到企业客户的捷径-六大主要功能你一定要知道
李飞飞亲自宣布:Google 第三代 Cloud TPU 要来了
谷歌已确认云端硬盘可能丢失文件问题
Google Cloud NEXT2018关键字:AI、区块链、安全与TPU 3
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券