腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
多个
GPU
通过
Tensorflow
进行
单独
的
训练
?
、
、
、
我阅读了许多关于在
TensorFlow
中
使用
多个
GPU
的
文章和帖子。它帮助我学习了更多关于“
如何
使用
并行
GPU
来
训练
神经网络”(how to use parallel
GPU
to train ( here network))。但我有一个不同
的
问题。可以
使用
单独
的
GPU
同时
训练
不同
的
NN吗?
浏览 12
提问于2021-01-20
得票数 0
1
回答
为什么多
GPU
tensorflow
再培训不起作用
我一直在
使用
单个GTX Titan
训练
我
的
tensorflow
再
训练
算法,它工作得很好,但当我尝试在再
训练
示例中
使用
多个
GPU
时,它不起作用,当我在Nvidia SMI中运行它时,它似乎只
使用
一个
GPU
为什么会发生这种情况,因为它在从头开始在初始模型中重新
训练
时
使用
多个
gpus,而不是在重新
训练
期间?
浏览 5
提问于2016-09-05
得票数 1
回答已采纳
1
回答
跨
多个
gpu
镜像多
gpu
模型
、
、
我有一个
tensorflow
(tf2.0)/keras模型,它
使用
多个
GPU
进行
计算。模型中有2个分支,每个分支都在
单独
的
GPU
上。我有一个4个
GPU
的
系统,我想用来
训练
,我想镜像这个模型,这样
GPU
1和2包含一个模型,
GPU
3和4包含镜像
的
模型。 会自动处理此镜像吗?或者它假设我
的
模型将是单个
GPU</
浏览 4
提问于2019-11-04
得票数 0
1
回答
在具有
多个
GPU
的
多台计算机上运行
TensorFlow
?
、
我是机器学习和
Tensorflow
的
新手。我有一个关于
TensorFlow
分布式
训练
的
问题。我读过关于多
GPU
环境
的
文章,它看起来很有可能(https://www.
tensorflow
.org/guide/using_
gpu
)。 但是,如果多台计算机具有
多个
GPU
,情况会怎样呢?是否可以在几台机器之间分配机器
训练
任务?是否有特定
的</
浏览 8
提问于2019-06-15
得票数 1
回答已采纳
1
回答
用几个
GPU
训练
一个模型
、
、
、
、
如何
编程keras或
tensorflow
来对
多个
GPU
进行
分区培训,假设您在一个拥有8个
GPU
的
amaozn ec2实例中,您希望
使用
它们来加快
训练
速度,但是您
的
代码只是用于单个cpu或
GPU
?
浏览 2
提问于2017-10-21
得票数 2
回答已采纳
4
回答
Keras中
的
多
GPU
、
、
、
、
我们
如何
在Keras库(或
TensorFlow
)中编程,在
多个
GPU
上分区培训?假设您是在一个拥有8个
GPU
的
Amazon实例中,您希望
使用
它们来
进行
更快
的
训练
,但是您
的
代码只用于一个CPU或
GPU
。
浏览 0
提问于2017-10-18
得票数 43
回答已采纳
1
回答
Tensorflow
/ keras multi_
gpu
_model不分裂为
多个
gpu
、
、
、
我遇到
的
问题是,我不能成功地把我
的
训练
批次分成
多个
GPU
。如果
使用
来自multi_
gpu
_model
的
tensorflow
.keras.utils,则
tensorflow
将在所有可用
的
gpu
(例如2)上分配全部内存,但如果监视nvidia,则只
使用
第一个
gpu
正如预期
的
那样,数据由cpu加载,模型在
gpu
上运行
浏览 0
提问于2019-03-06
得票数 0
1
回答
TensorFlow
v1.10+加载不同设备放置
的
SavedModel还是手动设置动态设备放置?
、
、
、
因此,在
TensorFlow
关于
使用
的
指南中,有一部分是关于以“多塔方式”
使用
多个
GPU
的
:for d in ['/device:
GPU
:2', '/device:
GPU
:3']: with看到这一点,人们可能会倾向于利用这种风格在自定义Estimator中
进行
多个
GPU
培训,从而向模型表明它可以有效地跨<e
浏览 0
提问于2018-11-17
得票数 1
2
回答
支持
TensorFlow
和PyTorch
的
GPU
、
、
我还没有在我
的
系统上安装NVIDIA工具包或cuDNN或
tensorflow
-
gpu
。我目前
使用
tensorflow
和Py手电筒来
训练
我
的
DL模型。这是我
的
问题- ,当我在tf或pytorch中定义张量时,默认情况下它是一个cpu张量。所以,到目前为止,我所做
的
所有
训练
都是在CPU上
进行
的
。所以,如果我确保安装了正确版本
的
Cuda和cuDNN以及
tenso
浏览 5
提问于2020-08-20
得票数 1
1
回答
跨
多个
GPU
扩展性能
我一直在
tensorflow
教程中运行CIFAR10模型,以跨
多个
GPU
进行
训练
。来源:配置:
Tensorflow
0.8.0、CUDA7.5、cuDNN 4
训练
性能
的
结果没有预期
的
可伸缩性。图形
的
模式看起来像Amdahl定律。如果是,你认为是什么原因造成
的
?
浏览 2
提问于2016-04-22
得票数 1
2
回答
运行
Tensorflow
时
GPU
的
低利用率
、
、
、
、
我一直在
使用
Tensorflow
和OpenAI健身房做深度强化学习。我
的
问题是
GPU
利用率低。在谷歌搜索这个问题时,我明白在培训小型网络时期望大量
使用
GPU
是错误
的
(例如。为了
训练
医生)。但我想我
的
神经网络并不是那么小。该体系结构类似于最初
的
deepmind论文中给出
的
架构(或多或少)。=2) 致密层(u
浏览 0
提问于2018-01-26
得票数 4
1
回答
Tensorflow
GPU
在Pycharm中不起作用
、
、
、
、
当我在Ubuntu 16.04
的
pycharm IDE中运行我
的
tensorflow
训练
模块时,它没有显示任何
使用
GPU
的
训练
,它通常
使用
CPU
进行
训练
。但是当我
使用
终端运行相同
的
python脚本时,它
使用
GPU
训练
来运行。我想知道
如何
在Pycharm IDE中配置
GPU
<e
浏览 153
提问于2017-10-03
得票数 1
回答已采纳
1
回答
仅用CPU
训练
神经网络
、
、
、
我正在远程服务器上
的
虚拟机上工作,我想在它上
训练
一个神经网络,但是我在这个VM中没有
GPU
。是否可以仅
使用
CPU在此VM上
训练
网络?如果是这样的话,它是否适用于大型数据集,还是会成为一个问题?
浏览 1
提问于2019-02-27
得票数 0
1
回答
TensorFlow
硕士和工人服务
、
我正在努力理解
TensorFlow
中主服务和工作人员服务的确切角色。第一个问题:我说得对吗?这意味着一项任务只与一名工人相关吗? (1) ...to向客户端提供函数,以便客户机可以运行会话。 (2) ...to将工作委托给可用
的
工作人员,以便计算会话
浏览 6
提问于2016-08-03
得票数 14
回答已采纳
1
回答
仅将一个
gpu
分配给Keras (TF后端)脚本
、
、
、
、
我有一台有2个
GPU
的
机器。THEANO_FLAGS="device=cuda0" training_script.py THEANO_FLAGS="device=cuda1" predict
浏览 3
提问于2018-07-23
得票数 5
回答已采纳
1
回答
TensorFlow
:多
GPU
配置(性能)
、
、
我想知道在
使用
TensorFlow
训练
网络时,多
GPU
系统
的
“最佳实践”是什么?或者我应该自己指定在特定操作中应该
使用
哪个
GPU
TensorFlow
? 到目前为止,我还没有对其
进行
基准测试,今天刚刚开始了一些
GPU
实验。编辑(慢多
GPU
性能):经过一些测试,我是相当astonished...if
的
,我让
TensorFlow
决定
如何
分配和删除特定
浏览 3
提问于2016-03-03
得票数 8
回答已采纳
0
回答
具有
多个
工人
的
ML engine上
的
Keras模型
训练
我已经构建了一个语义分割Keras (
tensorflow
后端)模型,并试图在google cloud ml引擎上对其
进行
训练
。我有大约200,000 (256x256)个图像可以在小批量(10)上
训练
大约100个时期。当我只
使用
complex_model_m_
gpu
类型
的
主设备时,1个纪元几乎要花25个小时。我不确定Keras模型
如何
适应多
GPU
训练
设备(例如,complex_model_m_
gpu</em
浏览 11
提问于2018-07-18
得票数 2
1
回答
在DSX中
使用
tensorflow
部署管道
、
、
、
我有一个
使用
python和
tensorflow
构建
的
模型。该模型经过
训练
,运行良好。我不知道该
如何
部署它?我
的
意思是,我
如何
调用此模型才能获得实际数据
的
分数?由于
TensorFlow
的
原因,我无法
使用
Watson ML deploy。
浏览 1
提问于2017-10-21
得票数 0
2
回答
支持
TensorFlow
的
公共云
GPU
、
、
我正在用
TensorFlow
建立复杂
的
神经网络。我有最新
的
Mac,
使用
我所有的核心,但我仍然需要几个小时来
训练
一个单一
的
网络。我需要对许多不同
的
调优参数
进行
网格搜索,所以这并不理想。这是一个个人项目,所以我想
通过
使用
云来省钱。我已经广泛地
使用
了AWS,我喜欢
使用
他们
的
现货市场
的
想法,但是我听说亚马逊
的
GPU
实例
浏览 0
提问于2016-07-11
得票数 4
1
回答
如何
将
Tensorflow
2.0 SavedModel转换为TensorRT?
、
、
、
、
我已经在
Tensorflow
2.0中
训练
了一个模型,并且正在尝试改进当转移到生产时(在一个支持
GPU
的
服务器上)
的
预测时间。
通过
阅读Nvidia对TensorRT
的
描述,他们认为
使用
TensorRT比
单独
使用
Tensorflow
可以加速7倍
的
速度。来源: 我已经
训练
了我
的
模型,并
使用
Tensorflow
<e
浏览 9
提问于2019-11-13
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在TensorFlow和PaddleFluid中使用多块GPU卡进行训练
分布式TensorFlow:使用多台GPU服务器,减少神经网络的实验与训练时间
Tensorflow入门教程(九)——Tensorflow数据并行多GPU处理
大规模分布式模型训练(02):TensorFlow分布式模型训练原理
TensorFlow分布式计算机制解读:以数据并行为重
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券